Публикации по теме 'deep-learning'


Последние разработки в GAN
Генеративные состязательные сети (GAN) - это интересная технология, которая широко считается одной из самых интересных разработок в области искусственного интеллекта и глубокого обучения за последнее десятилетие. В этой статье представлен обзор доклада ODSC West 2018 Последние разработки в сетях GAN , представленного Сетом Вайдманом из Facebook. Презентация - отличный способ быстро освоить GAN и получить представление о состоянии технологий. [Статья по теме: 6 уникальных сценариев..

Детство предшествует взрослой жизни: помимо наград и необдуманной шумихи, ИИ находится не на той стороне…
Это очень просто… Предположим, кто-то произнес следующее предложение: (1) В каждой комнате дома Карлоса есть греческая статуя. 4-летний ребенок понимает приведенное выше предложение как «В каждой комнате в его доме у Карлоса есть греческая статуя», то есть 4-летний ребенок каким-то образом знает , что «греческая статуя» не относятся здесь к одной статуе, но ко многим — то есть они каким-то образом знают, что объем квантификаторов должен быть обратным (от A-in-Every к..

Развитие эпистемической неопределенности, часть 6 (машинное обучение)
Требуется некоторый контроль: включение политик Oracle в обучение с подкреплением с помощью метрик эпистемической неопределенности (arXiv) Автор: Jun Jet Tai , Jordan K. Terry , Mauro S. Innocente , James Brusey , Nadjim Horri . Аннотация: Неотъемлемой проблемой обучения с подкреплением является исследование окружающей среды с помощью случайных действий, большая часть которых может быть непродуктивной. Вместо этого исследование можно улучшить, инициализировав политику обучения с..

Введение в стратегию эволюции
Обучение нейронной сети без обратного распространения с использованием стратегии эволюции В этом посте мы научимся обучать нейронную сеть без обратного распространения, используя стратегии эволюции (ES) в Python с нуля на наборе данных MNIST Handwritten Digit. Эта простая реализация поможет нам лучше понять концепцию и применить ее к другим подходящим параметрам. Давайте начнем! Оглавление 1. Численная оптимизация 2. Стратегии развития 3. Обычная реализация 4. Реализация Python с..

Работа с функциями активации, часть 3 (машинное обучение)
Настройка функций активации с учетом данных снижает ошибку нейронной сети (arXiv) Автор: Фучан Гао , Боюй Чжан . Аннотация: В этой работе мы предлагаем новую немонотонную функцию активации: модуль. Большинство опубликованных исследований нелинейностей сосредоточено на монотонных функциях. Мы эмпирически демонстрируем, как при использовании функции активации модуля в задачах компьютерного зрения модели обобщаются лучше, чем с другими нелинейностями — повышение точности до 15% в..

Методы калибровки в глубоких нейронных сетях
Введение Было показано, что классификаторы глубоких нейронных сетей неправильно откалиброваны [1], т. е. их вероятности предсказания не являются надежными оценками достоверности. Например, если нейронная сеть классифицирует изображение как «собаку» с вероятностью p , p нельзя интерпретировать как достоверность предсказанного сетью класса для изображения. Кроме того, классификаторы нейронных сетей часто слишком самоуверенны в своих прогнозах [1]. Классификатор калиброванной нейронной..

Инновационное использование алгоритмического мышления, часть 1 (информатика)
Нейронно-алгоритмическое мышление с причинно-следственной регуляризацией (arXiv) Автор: Беатрис Бевилакуа , Кириакос Никифору , Борха Ибарз , Иоана Бика , Микела Паганини , Чарльз Бланделл , Джована Митрович , Петар Величкович . Аннотация: Недавняя работа по нейронным алгоритмическим рассуждениям исследовала способности нейронных сетей к рассуждениям, эффективно демонстрируя, что они могут научиться выполнять классические алгоритмы на невидимых данных, поступающих из..