От Мохана Редди, технического директора The Hive

Крупнейшая конференция по машинному обучению NeurIPS 2018 проходила в Монреале, Канада, со 2 по 8 декабря 2018 года.

NeurIPS 2018 — одно из крупнейших собраний исследователей искусственного интеллекта, и в этом году билеты были распроданы менее чем за 12 минут. После огромной негативной реакции название конференции согласилось изменить официальную аббревиатуру на NeurIPS. Также в этом году было внесено много изменений, чтобы создать благоприятную среду для женщин и других недостаточно представленных групп. Более широкими темами конференции были подотчетность и алгоритмическая предвзятость, доверие, надежность и, что наиболее важно, разнообразие.

На сегодняшний день это самая крупная конференция по машинному обучению, в которой приняли участие около 8000 человек и было принято около 1000 докладов.

Вот некоторые из примечательных моментов конференции.

NeurIPS впервые попросила спикера Laura Gomez рассказать об отсутствии разнообразия в технологической индустрии, что приводит к предвзятым алгоритмам, некачественным продуктам и неэтичным технологиям.

Премия "Испытание временем"

Прогресс в машинном обучении (МО) происходит так быстро, что иногда может показаться, что любая идея или алгоритм старше 2 лет уже устарели или заменены чем-то лучшим. Однако старые идеи иногда остаются актуальными даже тогда, когда от них отвернулась значительная часть научного сообщества. В конкретном случае глубокого обучения (ГО) рост как доступности данных, так и вычислительной мощности возродил интерес к этой области и значительно повлиял на направления исследований.

Хорошим примером этого явления является статья NIPS 2007 года «Компромиссы крупномасштабного обучения», написанная Леоном Ботту (тогда он работал в NEC Labs, а теперь работает в Facebook AI Research) и Оливье Буске (Google AI, Цюрих). Эта основополагающая работа исследовала взаимодействие между данными и вычислениями в ML, показав, что если кто-то ограничен вычислительной мощностью, но может использовать большой набор данных, более эффективно выполнять небольшой объем вычислений на множестве отдельных обучающих примеров, а не выполнять обширные вычисления на подмножестве данных. Это продемонстрировало мощь старого алгоритма стохастического градиентного спуска, который в настоящее время используется практически во всех приложениях глубокого обучения.

Награда за лучшую статью: Нейронные обыкновенные дифференциальные уравнения

Основная идея заключается в том, чтобы определить глубокую остаточную сеть как постоянно развивающуюся систему и вместо обновления скрытых элементов слой за слоем определить их производную по глубине. Я думаю, что наиболее интересным аспектом является то, что рассмотрение нашей системы как модели с непрерывным временем позволяет нам прогнозировать системы с непрерывным временем. Они показывают способ получения данных, которые поступают в произвольное время, а не через фиксированные интервалы, и могут предсказывать выходные данные в произвольные моменты времени в будущем. Они проверяют это на довольно простых синтетических данных, предсказывая траектории спиралей, но получают действительно хорошие результаты. Я определенно хочу увидеть больше такого рода работы в будущем, над более крупными реальными проблемами, чтобы увидеть, как это работает.

Приглашенный доклад: О чем думают тела: биоэлектрические вычисления вне нервной системы, примитивное познание и синтетическая морфология — Майкл Левин

Биология занималась вычислениями задолго до того, как развился мозг. Принятие соматических решений и память опосредованы древними преднейронными биоэлектрическими сетями во всех клетках. Несмотря на то, что их мозг разжижается во время метаморфоза, гусеницы сохраняют свои воспоминания как бабочки.

Планарии (плоские черви, которые могут регенерировать части своего тела) также восстанавливают свои воспоминания, когда им удаляют мозг. Если планарию разрезать на части, каждая часть отрастает от остальной части тела. Регенерация — это вычислительная задача. Огромные возможности применения машинного обучения в регенеративной медицине. Соматические ткани (клетки в организме) образуют биоэлектрические сети, такие как мозг, и принимают решения об анатомии. Это был невероятный разговор.

Приглашенная беседа: воспроизводимое, многоразовое и надежное обучение с подкреплением — Джоэль Пино

Было показано, что обучение с подкреплением (RL) является эффективным механизмом обучения.

сложные задачи через взаимодействие с окружающей средой. Недавние достижения в объединении глубоких нейронных сетей с RL привели к появлению мощных инструментов, которые превосходят предыдущие современные методы во многих областях, включая робототехнику, видеоигры и настольные игры. Однако из-за интерактивного характера этих алгоритмов, а также внутренней и внешней стохастичности эффективность обучения может сильно различаться и ее трудно воспроизвести. Кроме того, повторное использование информации между задачами с использованием этих методов может быть проблематичным, поскольку они могут слишком подходить для одной задачи или среды. Джоэль Пино из FAIR рассказывает о воспроизводимом, многоразовом и надежном обучении с подкреплением

Приглашенная лекция: Проектирование компьютерных систем для программного обеспечения 2.0 — Кунле Олукотун

Кунле Олукотун объяснил, что, несмотря на отмену закона Мура, для ИНС будет создана новая архитектура. Они будут более эффективными (больше вычислительной мощности на ватт). Так что не волнуйтесь, огромные модели сегодня будут выглядеть маленькими завтра. Использование машинного обучения для создания моделей на основе данных заменяет традиционную разработку программного обеспечения для многих приложений. Этот фундаментальный сдвиг в том, как мы разрабатываем программное обеспечение, известный как Software 2.0, обеспечил значительное улучшение качества и простоты развертывания этих приложений. Дальнейший успех и расширение подхода Software 2.0 должны обеспечиваться наличием мощных, эффективных и гибких компьютерных систем, адаптированных для приложений машинного обучения. Подход к проектированию с полным стеком объединяет алгоритмы машинного обучения, оптимизированные для характеристик приложений и возможностей современного оборудования, предметно-ориентированные языки и передовые технологии компиляции, разработанные для программируемости и производительности, а также аппаратные архитектуры, обеспечивающие как высокую гибкость, так и высокое энергопотребление. эффективность.

Неконтролируемое обучение

Алекс Грейвс говорит о том, что машинное обучение без учителя имеет более высокий сигнал, чем машинное обучение с учителем, но цель обучения не очень ясна. Широкие категории целей неконтролируемого обучения: 1. Обучение моделированию данных. 2. Обучение моделированию представлений.

Другие

Экосистема разработчиков PyTorch расширяется, теперь доступна стабильная версия 1.0

Экосистема и сообщество PyTorch продолжают расти благодаря новым интересным проектам и образовательным ресурсам для разработчиков. Последняя версия включает в себя такие возможности, как функции, ориентированные на производство, и поддержку основных облачных платформ.

Выводы

Как видно из многих докладов и статей на NeurIPS 2018, многие из лучших исследователей мира работают над улучшением основных алгоритмов, и мы вступили в золотую эру обучения с подкреплением. Мы увидим больше об использовании имитационного обучения, когда агенты учатся непосредственно у человека-руководителя. Также мы увидим, как эволюционные стратегии используются для решения проблем, с которыми сталкивается обучение с подкреплением. Я уверен, что мы увидим больше в этом направлении на ICLR 2019 и ICML 2019.

Наконец, вот мой список для чтения с NeurIPS 2018:

  1. FishNet: универсальная магистраль для прогнозирования изображений, областей и пикселей Шуян Сунь · Цзянмяо Пан · Цзяньпин Ши · Шуай И · Ванли Оуян
  2. Дендритные кортикальные микросхемы аппроксимируют алгоритм обратного распространения Жоао Сакраменто · Руи Понте Коста · Йошуа Бенжио · Уолтер Сенн
  3. Pelee: Система обнаружения объектов в режиме реального времени на мобильных устройствах Джун Ван, Таннер Бон, Чарльз Линг
  4. Диалог-к-действию: ответы на разговорные вопросы с использованием обширной базы знаний Дайя Го, Дуюй Тан, Нань Дуань, Мин Чжоу, Цзянь Инь
  5. Нейронные обыкновенные дифференциальные уравнения Тянь Ци Чен, Юлия Рубанова, Джесси Бетанкур, Дэвид К. Дювено
  6. На пути к надежной интерпретации с помощью самообъясняющих нейронных сетей Дэвид Альварес Мелис, Томми Яаккола
  7. Нормализация Калмана: нормализация внутренних представлений на сетевых уровнях Гуангрун Ван, Цзефэн Пэн, Пинг Луо, Синьцзян Ван, Лян Линь
  8. HitNet: гибридная троичная рекуррентная нейронная сеть Пэйци Вана · Синьфэн Се · Лэй Дэн · Гоци Ли · Дуншэн Ван · Юань Се
  9. ГИЛБО: одна метрика для измерения их всех Александр А. Алеми, Ян Фишер
  10. Важность выборки в обучении с метаподкреплением Брэдли Стэйди · Ге Ян · Рейн Хоутхуфт · Питер Чен · Ян Дуан · Юхуай Ву · Питер Аббель · Илья Суцкевер
  11. О размерности встраивания слов Цзы Инь · Юаньюань Шэнь
  12. Mesh-TensorFlow: Deep Learning for Supercomputers Ноам Шазир · Юлонг Ченг · Ники Пармар · Дастин Тран · Ашиш Васвани · Penporn Koanantakool · Питер Хокинс · Хёк Джун Ли · Мингшэн Хонг · Клифф Янг · Райан Сепасси · Блейк Хехтман
  13. Обучение роботов в домашних условиях: улучшение обобщения и уменьшение предвзятости набора данных, Абхинав Гупта, Адитьявайраван Мурали, Дхирадж Пракашчанд Ганди, Леррел Пинто
  14. Размер шага имеет значение в глубоком обучении, Камил Нар · Шанкар Шастри
  15. Точность и полнота для временных рядов Несиме Татбул · Тэ Джун Ли · Стэн Здоник · Мейбах Алам · Джастин Готшлих
  16. Масштабируемое комплексное тестирование автономных транспортных средств с помощью моделирования редких событий, Мэтью О’Келли, Аман Синха, Хонсок Намкунг, Расс Тедрейк, Джон Дучи.
  17. Исследование в структурированном обучении с подкреплением Юнгсыль Ок · Александр Прутьер · Дамианос Транос
  18. Гамильтоновский вариационный автокодировщик Энтони Л. Катерини · Арно Дусе · Дино Сейдинович
  19. Как начать обучение: эффект инициализации и архитектуры Борис Ханин · Дэвид Ролник
  20. Обучение с обратным подкреплением на протяжении всей жизни Хорхе Армандо Мендес Мендес, Шашанк Шивкумар, Эрик Итон
  21. Доказуема ли эффективность Q-Learning? Чи Джин, Зеюань Аллен-Чжу, Себастьен Бубек, Майкл Джордан
  22. Обучение с подкреплением для решения задачи маршрутизации транспортных средств Мохаммад Реза Назари, Афшин Ороджлой, Лоуренс Снайдер, Мартин Такак
  23. Узнайте, чему не следует учиться: устранение действий с помощью глубокого обучения с подкреплением, Том Захави, Матан Харуш, Надав Мерлис, Дэниел Дж. Манковиц, Ши Маннор
  24. Улучшение стратегий исследования в эволюции для глубокого обучения с подкреплением с помощью популяции ищущих новизну агентов Эдоардо Конти · Вашишт Мадхаван · Фелипе Петроски Суч · Джоэл Леман · Кеннет Стэнли · Джефф Клун
  25. Обучение с подкреплением на основе логических выводов для разработки механизмов стимулирования в краудсорсинге Цзэхун Ху, Итао Лян, Цзе Чжан, Чжао Ли, Ян Лю
  26. Борьба со скукой в ​​рекомендательных системах с помощью линейного обучения с подкреплением Ромен ВАРПОП · Алессандро Лазарик · Джереми Мэри
  27. К рекомендациям по глубокому разговору Рэймонд Ли · Самира Эбрахими Кахоу · Ханнес Шульц · Винсент Михальски · Лоран Чарлен · Крис Пал
  28. Обнаружение выхода за пределы распределения с использованием множественных представлений семантических меток Габи Шалев · Йосси Ади · Джозеф Кешет
  29. Дифференциальная конфиденциальность для растущих баз данных Рэйчел Каммингс, Сара Кребил, Кевин А. Лай, Утайпон Тантипонгпипат
  30. Охлаждение центра обработки данных с использованием модельно-предиктивного управления Невена Лазик, Крейг Бутилье, Тайлер Лу, Эхерн Вонг, Бинз Рой, МК Рю, Грег Имвалле