Эрик Аллен и Рафаэль Тена, Tulco Labs

Нынешняя пандемия Covid-19 изменила социальные взаимодействия во всем мире, и научные встречи не стали исключением. Конференцию ICLR в этом году (главное мероприятие по научным исследованиям в области машинного обучения) планировалось провести в Аддис-Абебе, столице Эфиопии. Однако из-за текущего кризиса мероприятие было срочно переработано, чтобы стать, возможно, первой полностью виртуальной академической конференцией высшего уровня. Несмотря на то, что мы упустили личный интенсивный обмен идеями и состоянием ума, возникающее при полном погружении в физическое место, в целом впечатление было превосходным и дало участникам некоторые явные преимущества. Виртуальный формат позволил участникам со всего мира асинхронно получать доступ к предварительно записанному контенту по запросу, посещать сеансы вопросов и ответов в прямом эфире с основными докладчиками и ведущими, а также участвовать в сеансах онлайн-чата с участниками, и все это за небольшую часть стоимости физического присутствия. Мы надеемся, что виртуальный формат останется постоянным дополнением к физическим конференциям. В постпандемическом будущем поддержка виртуальных конференций может повысить посещаемость студентов и исследователей из менее богатых частей земного шара и помочь демократизировать научные исследования. ICLR собрал более 5600 участников из почти 90 стран, что более чем вдвое превышает прошлогодний показатель в 2700 человек. Хотя трудно оценить, какая часть этого роста была обусловлена ​​виртуальным форматом, снижение как стоимости, так и дефицита неоспоримо. Программа конференции состояла из 8 основных докладчиков, 4 выставочных сессий, 20 постерных сессий, 15 семинаров, 20 социальных мероприятий, чата и виртуальных комнат отдыха для дискуссий. Кроме того, ICLR принял 687 из 2594 заявок. Это много контента! Мы изучили многое из этого, чтобы представить вам наши любимые. Итак, в произвольном порядке и без претензии на какую-либо объективность, вот части, которые нам запомнились.

Символические манипуляции

Обучение с подкреплением на основе моделей для Atari

Лукаш Кайзер, Мохаммад Бабаизаде, Петр Милош, Блажей Осинский, Рой Х. Кэмпбелл, Конрад Чеховский, Дмитрий Эрхан, Челси Финн, Петр Козаковски, Сергей Левин, Афроз Мохиуддин, Райан Сепасси, Джордж Такер, Хенрик Михалевски

Google Brain, deepsense.ai, Польская академия наук, Варшавский университет, Иллинойсский университет в Урбане-Шампейне и Стэнфордский университет

Сообщество, занимающееся обучением с подкреплением, активно использовало игры для Atari 57 в качестве стандартного эталона для сравнения алгоритмов. Хотя Deep RL добился больших успехов в достижении высокой производительности в этих играх, используемые алгоритмы RL требуют огромных объемов данных, намного больше, чем требуется людям для достижения той же производительности. Авторы предполагают, что люди способны учиться так быстро, потому что они узнают, «как работает игра»; по сути, они образуют модель. Затем авторы применяют форму обучения с подкреплением на основе моделей, которую они называют Simulation Policy Learning (SimPLe). игра), гораздо более реалистичный объем опыта для тренировок по сравнению с человеческой игрой.

Изучение стрелы времени для решения проблем в обучении с подкреплением

Насим Рахаман, Штеффен Вольф, Анируд Гоял, Роман Ремме, Йошуа Бенжио

Мила, MPI, и Рупрехт-Карлс-Университет

Это действительно хорошая идея, которая дает нам еще один способ получить внутреннее вознаграждение в задачах обучения с подкреплением. В марковском процессе принятия решений (MDP) представьте, что у нас есть способ узнать, какие действия необратимы. Такой график может быть полезен при выборе между двумя действиями; При прочих равных условиях мы, вероятно, предпочли бы действия, которые не «загоняют нас в угол» и не мешают нам вернуться к тому, с чего мы начали. Идея в этой статье состоит в том, чтобы использовать глубокую сеть для изучения потенциальной функции наблюдаемых состояний: входные данные — это состояния, а метки (т. е. значения потенциальной функции) — временные шаги, в которых возникло состояние. С помощью такой функции мы можем сформировать ожидание относительно того, достижимо ли одно состояние из другого, сравнивая их потенциальные значения функции. Как следует из названия статьи, мы можем рассматривать нашу сеть как закодированную идею стрелы времени и использовать ее для руководства нашими изученными политиками.

Сверточные нейронные сети

Глубокое обучение символьной математике

Гийом Лэмпл, Франсуа Шартон

Исследования искусственного интеллекта в Facebook

Предпринимается все больше попыток связать нейронные сети с символическими вычислениями, что является важной областью внимания, если глубокое обучение должно повлиять на многие более широкие проблемы ИИ. Эта работа решает несколько фундаментальных символических задач: Символьное интегрирование и решение обыкновенных дифференциальных уравнений (первого и второго порядка). Формулы однозначно представляются в префиксной нотации как последовательности операций и переменных и передаются довольно стандартному преобразователю. Итак, для задачи интегрирования в преобразователь вводятся формулы и считываются соответствующие интегралы. Генерируются обучающие и тестовые данные, и большая часть усилий, направленных на то, чтобы этот подход работал, включает в себя построение данных наилучшим образом. Простые подходы (такие как просто случайное генерирование формул в качестве выходных данных и вычисление производных в качестве соответствующих входных данных) приводят к однобоким наборам данных: входные данные намного больше, чем выходные, что приводит к плохому обобщению преобразователя. Авторам удается построить более сбалансированные наборы данных, используя интегрирование по частям. Для дифференциальных уравнений они также используют поиск луча, чтобы генерировать и проверять несколько потенциальных выходных данных, пока не будет найден правильный. Результаты превосходят современные подходы, основанные на правилах, в коммерческих инструментах.

Neural Symbolic Reader: масштабируемая интеграция распределенных и символьных представлений для понимания прочитанного

Синьюн Чен, Чен Лян, Адамс Вэй Ю, Денни Чжоу, Доун Сонг, Куок В. Ле

Google Brain и Калифорнийский университет в Беркли

Вы когда-нибудь задумывались об автоматическом решении математических задач, основанных на словах, которые вы можете найти в школьном учебнике? Авторы представляют NeRD (Neural symbolic ReaDer), систему, принимающую на вход математические задачи в тексте на английском языке. Он не только выводит ответы, но и, как любой хороший ученик, показывает свою работу. Сначала BERT подключается к входу, а выход подключается к программатору, по сути, LSTM, который выводит программы расчета, написанные на маленьком языке программирования. Язык программирования включает примитивы для ссылок на объекты и количества в тексте; эти примитивы оцениваются с использованием различных методов НЛП, таких как разрешение объектов. Более того, их язык поддерживает рекурсивную композицию, что позволяет использовать все более сложные методы решения. Затем программа выполняется для получения ответа. Обучение проводится на некоторых стандартных наборах данных для понимания прочитанного (MathQA и DROP). Конечно, наборы данных включают только вопросы и ответы, а не программы NeRD, поэтому обучение проводится частично под наблюдением; исследователи предоставляют некоторые аннотации к программе, а затем тренируются с использованием максимизации ожиданий. Результат превосходит базовые показатели; на MathQA он превосходит на 25,5%.

Теория глубокого обучения

Контрастное изучение моделей структурированного мира

Томас Кипф, Элиз ван дер Поль, Макс Веллинг

Амстердамский университет

Если система ИИ должна понимать и взаимодействовать с нашим миром так, как это делаем мы, ей нужно будет сделать следующее: i) разбить среду на составные объекты, ii) предвидеть взаимодействия между объектами. Авторы делают шаг к созданию этих объектов, внедряя системы, которые они называют Структурированные модели мира с контрастным обучением (C-SWM). Исходя из необработанных пикселей, они используют CNN для создания набора векторных представлений набора объектов в сцене. (Важным ограничением является то, что количество представленных объектов фиксировано.) Выходные данные CNN подаются в MLP, который создает скрытые представления каждого объекта. Затем они передают эти скрытые представления в модель перехода, реализованную в виде графовой нейронной сети, которая предсказывает следующее состояние для каждого объекта. Обучение проводится полностью в скрытом пространстве, чтобы сосредоточиться на усвоенных функциях, имеющих отношение к переходам. Оценка включает тестирование в различных физических симуляторах, а также в Pong и Space Invaders. Качественно функция перехода отражает многие аспекты тренировочной среды. Например, в своей физической среде объекты движутся по кругу, и скрытые переменные также перемещаются по кругу в переходном пространстве. Количественные характеристики улучшаются по сравнению с предыдущими результатами с мировыми моделями (см. Ha and Schmidhuber, 2018).

На пересечении с нейронаукой

Кризис идентичности: запоминание и обобщение при чрезмерной параметризации

Чиюань Чжан, Сэми Бенджио, Мориц Хардт, Майкл С. Мозер, Йорам Сингер

Google Brain, Калифорнийский университет в Беркли и Принстонский университет

Одной из самых захватывающих загадок глубоких нейронных сетей является их способность преодолевать обычный компромисс между предвзятостью и дисперсией. Большие сети, с одной стороны, способны запоминать свои обучающие данные, а с другой стороны, обобщать то, чему они научились. В этой статье это явление исследуется как для полносвязных сетей, так и для сверточных сетей в чрезвычайно простом случае, когда имеется только один обучающий пример: изображение MNIST, помеченное самим собой. С одним обучающим примером две естественные функции, которые сеть может изучить, это: i) постоянная функция (всегда выводить обучающий пример) или ii) функция идентичности. Оказывается, однослойные полносвязные сети обобщаются своеобразным образом, основанным на их инициализации. Между тем, глубокие сети с активациями ReLU смещаются в сторону функции идентичности. Интересно (и несмотря на хорошо известную выразительную эквивалентность однослойных линейных сетей и глубоких линейных сетей), глубокие линейные сети имеют индуктивное смещение, больше похожее на глубокие сети: они смещаются в сторону функции идентичности. С другой стороны, мелкие консети, как правило, изучают функцию идентичности, тогда как глубокие консети снова склоняются к постоянному отображению.

Правда или обратная пропаганда? Эмпирическое исследование теории глубокого обучения

Мика Голдблюм, Йонас Гайпинг, Ави Шварцшильд, Майкл Меллер, Том Гольдштейн

Университет Мэриленда, Зигенский университет

После выступления Али Рахими на церемонии вручения награды Испытание временем на NIPS 2017 все больше внимания уделялось искоренению алхимии в глубоком обучении. Эта статья развеивает некоторые из самых устойчивых мифов о нейронных сетях. Например, крайне субоптимальные локальные минимумы действительно существуют в ландшафтах потерь реалистичных нейронных сетей при решении реальных задач. Они не только обеспечивают доказательство при реалистичных предположениях; они также обеспечивают эмпирическое исследование. Оказывается, для избежания этих локальных минимумов важна тщательная инициализация веса. Подобным образом неожиданный анализ предоставляется для эффективности снижения веса, нейронных тангенциальных ядер и минимизации ранга.

Временные ряды

Появление функциональных и структурных свойств системы направления головы путем оптимизации рекуррентных нейронных сетей

Кристофер Дж. Куэва, Питер Ю. Ван, Мэтью Чин, Сюэ-Синь Вэй

Колумбийский университет

Многие исследователи глубокого обучения задаются вопросом: насколько то, что мы узнаем об искусственных нейронных сетях, дает представление о биологическом мозге? В этой статье мы немного продвинулись в этом вопросе, рассматривая одну из немногих биологических нейронных цепей, которые мы понимаем (схема навигации у мух), и выясняя, можем ли мы заставить структуру этой цепи появиться в искусственной нейронной сети. И оказывается, что мы можем: авторы обучили RNN предсказывать направление головы мух и заметили, что многие из тех же навигационных структур в мозгу мух возникли в RNN! Это говорит не только о том, что искусственные нейронные сети действительно охватывают важные аспекты биологической нейронной структуры, но и о том, что многие из этих аспектов обобщаются за пределы конкретного биологического воплощения.

Применение глубокого обучения

N-BEATS: анализ расширения нейронной базы для прогнозирования интерпретируемых временных рядов

Борис Н. Орешкин, Дмитрий Карпов, Николя Чападос и Йошуа Бенжио

Элемент AI и Мила

Прогнозирование временных рядов (TS) является важной бизнес-задачей. Он лежит в основе важнейших областей современного бизнеса, таких как управление запасами, управление клиентами, планирование, финансы и маркетинг. Хотя каждая точка полученной точности прогнозирования может стоить миллионы долларов, ограниченный интерес к этой теме привел к тому, что ML и DL уступают классическим статистическим подходам к прогнозированию TS. Недавний успех гибрида, сочетающего стек LSTM с классической статистической моделью Холта-Винтерса, подтвердил идею о том, что гибридные подходы — это путь вперед. Эта статья бросает вызов этому предположению, предоставляя чистую архитектуру DL, которая не использует компоненты, специфичные для временных рядов, и превосходит гибридные и хорошо зарекомендовавшие себя статистические подходы, а также может быть интерпретирована для получения информации «на уровне сезонности-тенденции». Базовый строительный блок имеет разветвленную архитектуру, состоящую из двух частей: i) полностью связанная сеть, которая производит прямое и обратное предсказание базовых коэффициентов, и ii) прямые и обратные базисные уровни, которые используют базисные коэффициенты для получения выходных данных ретроспективного и прогнозного анализа, где backast — это реконструкция ввода с учетом ограничений функционального пространства, которое блок может использовать для аппроксимации сигналов.

Новые идеи

Глубокий двойной спуск: большие модели и большие объемы данных мешают

Притум Наккиран, Гал Каплун, Ямини Бансал, Тристан Янг, Боаз Барак и Илья Суцкевер

Гарвардский университет и открытый ИИ

Определение оптимального размера глубокой модели и количества эпох для обучения — сложный эмпирический процесс. В этой статье показано, что различные современные задачи глубокого обучения демонстрируют то, что авторы называют явлением «двойного спуска», когда по мере увеличения размера модели производительность сначала ухудшается, а затем улучшается. Кроме того, двойное происхождение также проявляется как функция тренировочных эпох. Эксперименты показывают, что это явление является устойчивым и встречается в различных задачах, архитектурах и методах оптимизации. Затем авторы получают то, что они называют эффективной сложностью модели (EMC) процедуры обучения, как максимальное количество выборок, на которых модель может достичь почти нулевой ошибки обучения. Наконец, хотя в большинстве случаев увеличение количества выборок уменьшает ошибку, авторы показывают ситуации, в которых больше данных на самом деле хуже.

Дистанционное обучение на основе ошибок для калибровки достоверности

Чэнь Син, Серкан Арик, Цзычжао Чжан и Томас Пфистер

Облачный ИИ Google

Оценка достоверности или «калибровка достоверности» по-прежнему остается сложной проблемой для DNN. Для «хорошо откалиброванной» модели более достоверные прогнозы должны быть более точными. Однако исследования показали, что традиционное обучение для минимизации потери энтропии softmax приводит к плохо откалиброванным моделям, которые являются чрезмерно уверенными, даже если классификация неточна. В этой статье предлагается дистанционное обучение на основе ошибок (DBLE), метод обучения для создания более точно откалиброванных DNN. DBLE изучает пространство представления на основе расстояний посредством классификации и использует расстояния в пространстве для получения хорошо откалиброванной классификации. В этом пространстве расстояние тестового образца до его центра истинного класса может откалибровать производительность модели. Однако во время логического вывода расстояние до центра истинного класса неизвестно. Это решается путем обучения отдельной модели достоверности вместе с моделью классификации, которая оценивает это расстояние при выводе. Модель достоверности обучается на образцах, неправильно классифицированных во время обучения модели классификации. DBLE обеспечивает превосходную доверительную калибровку для нескольких моделей и наборов данных DNN.

Инсайты основных докладчиков

Сверточные условные нейронные процессы

Джонатан Гордон, Вессел П. Бруинсма, Эндрю Ю. К. Фунг, Джеймс Рекейма, Янн Дюбуа, Ричард Э. Тернер

Кембриджский университет и Microsoft Research

Условные нейронные процессы (CNP) — это подход к очень общей проблеме: при заданном конечном наборе наблюдаемых пар x,y создать модель для предполагаемой функции. Включите неопределенность в модель, рассматривая функцию как случайную величину Гаусса. CNP основаны на понятии глубоких наборов (представленном Zaheer et al. на NIPS 2017) для встраивания каждой наблюдаемой пары в векторное пространство, объединения вложений и подачи объединенного вложения в многослойный персептрон вместе с новыми x значений для прогнозирования. Выход MLP представляет собой среднее значение и дисперсию ожидаемого результата. Здорово! Но авторы этой статьи отмечают, что результат оставляет желать лучшего: он часто приводит как к недообучению, так и к невозможности экстраполировать на новые обучающие пары x,y. Они предлагают устранить этот недостаток путем встраивания пар x,y в пространство функций,сопоставляя значения x с расстояниями, а не с абсолютными значениями, и передача результата сверточной сети, а не MLP. Эти изменения позволяют им применять важное индуктивное смещение: выведенные функции являются эквивариантными для перевода: выведенные функции похожи для входных данных, которые похожи, за исключением простого перевода. Это важное индуктивное смещение, которое справедливо для многих популярных приложений CNP, таких как, скажем, анализ временных рядов (мы можем не захотеть, чтобы выведенные функции для последовательности точек зависели от абсолютного времени, в которое эти точки произошли).

Плавные рынки: базовый механизм организации учащихся на основе градиента

Дэвид Бальдуцци, Войцех М. Чарнецкий, Том Энтони, Ян Гемп, Эдвард Хьюз, Джоэл Лейбо, Георгиос Пилиурас, Тор Грэпель

Deep Mind и Сингапурский университет технологий и дизайна

Мы находим все больше и больше способов, в которых обучение нейронной сети выигрывает от помещения нескольких сетей в состязательные отношения. Генерация изображений и видео с помощью GAN и защита сетей от атак — вот лишь несколько примеров. И нам не нужно ограничиваться двумя сетями; конкуренция с тремя или более сетями одновременно может быть полезной. Но из теории игр мы также знаем, что общий класс игр с n участниками сложен для анализа и понимания. Авторы этой работы исследуют, как мы можем создавать виды игр, которые могут нас заинтересовать при совместном обучении сетей. Они формализуют понятие гладких рынков, класса игр, в которых 1) все взаимодействия попарны, 2) ресурсы обмениваются, но никогда не создаются и не уничтожаются, 3) цели каждого игрока различны. Оказывается, этот класс игр охватывает множество различных способов использования сетей для обучения друг друга. Более того, такие игры обладают очень хорошими свойствами, такими как наличие устойчивых равновесий по Нэшу, и окрестности решений этих равновесий могут быть найдены с помощью таких стратегий, как восхождение на холм. Будем надеяться, что определение этого класса игр приведет к новым идеям о том, как объединить обучение нескольких состязательных сетей.

Модули активации Паде: сквозное изучение гибких функций активации в глубоких сетях

Алехандро Молина, Патрик Шрамовски и Кристиан Керстинг

ТУ Дармштадт

Важным строительным блоком глубокого обучения являются нелинейности, вносимые функциями активации. Они играют важную роль в успешном обучении глубоких нейронных сетей как с точки зрения времени обучения, так и с точки зрения эффективности прогнозирования. Однако на практике функции активации выбираются эмпирически, следуя рекомендациям предшествующего уровня техники, и применяются ко всей сети. Напротив, в этой статье предлагается сделать функции активации обучаемыми. С этой целью авторы вводят блоки активации Паде (ПАУ). Аппроксимация Паде — это наилучшее приближение функции рациональным полиномом порядка m в числителе и n в знаменателе. Чтобы использовать сети Паде, нужно сделать параметры полинома Паде изучаемыми и плавно оптимизировать их с остальной частью сети. Чтобы уменьшить влияние на время обучения, можно изучить один PAU на слой, а коэффициенты PAU инициализируются значениями, которые приблизительно соответствуют стандартным функциям активации.

От вариационных к детерминированным автоэнкодерам

Парта Гош, Мехди С. М. Саджади, Антонио Вергари, Майкл Блэк и Бернхард Шолкопф

MPI и Калифорнийский университет в Лос-Анджелесе

Генеративные модели лежат в основе машинного обучения. Они позволяют рассуждать о данных вероятностно, получать доступ и перемещаться по низкоразмерному многообразию, в котором, как предполагается, живут данные, и в конечном итоге генерировать новые данные. Вариационные автоэнкодеры (VAE) — это популярный генеративный подход, который оптимизирует качество реконструкции закодированных сэмплов, поощряя латентное пространство следовать фиксированному априорному распределению. Тем не менее, VAE, как правило, находят неудовлетворительный компромисс между качеством выборки и качеством реконструкции, и их трудно обучить на практике. В этой статье авторы предлагают альтернативную структуру генеративного моделирования, которая является более простой, легкой в ​​обучении и детерминированной, но при этом обладает многими преимуществами VAE. Они отмечают, что выборку стохастического кодировщика в гауссовском VAE можно интерпретировать как простое введение шума на вход детерминированного декодера, а затем исследуют, как заменить этот механизм введения шума другими схемами регуляризации в предлагаемых детерминированных регуляризованных автокодировщиках (РАЭ). Авторы приступают к оснащению RAE генеративным механизмом с помощью простого шага постфактум оценки плотности в изученном скрытом пространстве, чтобы их можно было использовать в качестве замены для многих распространенных архитектур VAE. RAE сравниваются с VAE на нескольких стандартных наборах данных изображений и в более сложных структурированных областях, таких как генерация молекул.

«AutoPrognosis: автоматизированное клиническое прогностическое моделирование с помощью байесовской оптимизации со структурированным ядром обучения»

Машинное обучение: изменение будущего здравоохранения

Михаэла ван дер Шаар

Кембриджский университет, Институт Алана Тьюринга и Калифорнийский университет в Лос-Анджелесе

Профессор Михаэла ван дер Шар выступила с основным докладом, посвященным конкретным проблемам, которые медицинские проблемы создают для методов машинного обучения. В дополнение к качеству технического материала работа ван дер Шаар и ее сотрудников в области здравоохранения является прекрасным примером того, как проводить целенаправленные исследования, чтобы каждая отдельная часть работы не только способствовала улучшению состояния здоровья. - искусство технической области, но строится на основе предыдущих для достижения долгосрочной цели. Среди многих проблем, которые медицина ставит перед МО, выделяются следующие: 1) сложность проверки эффективности алгоритмов в реальном мире из-за важности контрфактических данных, т. е. если алгоритм предписывает лечение, даже если результат успешен, он невозможно узнать, дало бы другое лечение лучший результат, ii) наборы данных ограничены и необъективны, и iii) результаты алгоритма должны быть понятны многим заинтересованным сторонам, имеющим разные цели, т. е. пациент может захотеть понять, какие факторы способствовать заданному прогнозу, исследователь может захотеть эмпирически подтвердить закономерности, обнаруженные алгоритмом, а врач может захотеть понять факторы риска, чтобы адаптировать конкретное лечение. Хотя работа ван дер Шаар сосредоточена на здравоохранении, нетрудно представить, как ее работа может быть обобщена на другие приложения, связанные с индивидуальными рисками, такими как страхование. Вот список работ, представленных на основном докладе, посвященных четырем важным вопросам применения в здравоохранении:

Как делать прогнозы результатов лечения?

Как обеспечить интерпретируемость моделей здравоохранения, делающих прогнозы?

Как динамически прогнозировать прогрессирование заболевания?

Как индивидуализировать эффекты лечения, чтобы знать, когда лечить, как и когда прекратить?

Способ принятия решений в машинном обучении: вычислительные, логические и экономические перспективы

Майкл И. Джордан

(Калифорнийский университет в Беркли)

Профессор Майкл Джордан выступил с основным докладом на стыке экономики, науки принятия решений и машинного обучения. Работа Джордана и его сотрудников по машинному обучению, рассматриваемая с точки зрения экономики, позволила увидеть перспективу, необычную для технических собраний по машинному обучению, таких как ICLR. Джордан утверждает, что машинное обучение созрело как наука, и теперь это новая область инженерии, и в том же духе, что и химическая инженерия принесла преимущества химии в промышленных масштабах, инженерия машинного обучения начинает делать то же самое. Однако если мы собираемся строить системы планетарного масштаба с данными, нам нужно думать не только об одной системе прогнозов, но и о том, как взаимодействуют системы принятия решений.

В реальном мире недостаточно принимать решения, устанавливая порог для классификатора или предиктора. Для решений, имеющих последствия в реальном мире, важны происхождение, диалог и контрфакты. Результаты редко приходят из одного решения, но обычно из множества решений одного человека или многих людей, и все они взаимодействуют друг с другом.

Еще одно понимание, лежащее в основе работы Джордана, заключается в том, что рынки можно рассматривать как децентрализованные алгоритмы. Они выполняют сложные задачи, такие как доставка товаров в город, с невероятной надежностью. Они адаптируются к изменениям в социальной и физической структуре, масштабируемы и могут иметь очень долгую жизнь. Что происходит при работе с алгоритмами ML, когда в игру вступает дефицит? Что происходит, когда рекомендатель трафика рекомендует всем один и тот же лучший маршрут? В этих случаях то, что считается «хорошим решением», зависит от того, что делают другие лица, принимающие решения, и хороший человек, принимающий решения, должен моделировать это взаимодействие. Вот список работ, представленных на основном докладе, направленном на решение проблем с развертыванием машинного обучения для принятия последовательных решений в реальном мире:

  • Онлайн-контроль частоты ложных открытий при ухудшении памяти
  • Асинхронное онлайн-тестирование нескольких гипотез
  • Конкурирующие бандиты на парных рынках
  • Доказуемо ли эффективность Q-обучения?
  • Ray: распределенная платформа для новых приложений ИИ
  • Янн ЛеКун, Йошуа Бенжио и Джеффри Хинтон были награждены премией Тьюринга в 2018 году за их работу по развитию глубокого обучения. В этом программном докладе ЛеКун и Бенжио изложили свои мысли о текущем состоянии дел в области искусственного интеллекта и о предстоящих задачах. Хотя было интересно услышать, как они говорят о будущих направлениях исследований, некоторые из самых проницательных мыслей пришли из сессии вопросов и ответов, которая последовала после их основных выступлений. Хотя глубокое обучение оказалось грозным инструментом, вопреки шумихе в СМИ, маловероятно, что искусственный интеллект человеческого уровня появится за углом. Масштабирование контролируемого обучения и обучения с подкреплением, которые в настоящее время являются столпами этой области, не даст интеллекта крысы или кошки, не говоря уже о человеческом интеллекте. ЛеКун считает, что прогресс в зарождающейся области самоконтролируемого обучения и, в частности, регулярных моделей, основанных на латентно-переменной энергии, может привести к интеллекту на уровне животных; в конце концов, животные учатся через самонаблюдение. Бенжио любит рассматривать прогресс через призму работы экономиста-бихевиориста и лауреата Нобелевской премии Дэниела Канемана. Мозг использует систему 1 для задач быстрого мышления, которые можно выполнять бессознательно, и современные достижения в области глубокого обучения хорошо справляются с этой задачей. И наоборот, система 2 используется для медленных задач, которые являются сознательными и требуют рационального мышления, и это то, что должно уметь делать следующее поколение алгоритмов глубокого обучения. Основным компонентом сознательной обработки является внимание, а другие важные темы — обобщение вне распределения, систематическое обобщение и модульные низкоразмерные представления знаний, которые можно рекомбинировать на лету. Чтобы решить некоторые из этих проблем, сообществу машинного обучения необходимо лучше отслеживать прогресс, достигнутый в области нейробиологии и психологии, чтобы понять интеллект. Хотя опасения по поводу опасностей, которые сверхчеловеческий ИИ представляет в ближайшем будущем, кажутся преувеличенными, сообщество должно быть более внимательным к вреду, который уже может нанести нынешняя технология машинного обучения. Возможно, одно из самых интересных открытий пришло из темы объяснимости и того, как помочь людям доверять системам машинного обучения, которые не поддаются интерпретации. Хотя могут быть случаи, когда объяснимость может быть фундаментальной, в целом не должно быть различий между доверием к системам ML и доверием к людям. Мы доверяем людям, потому что кажется, что они хорошо справляются с поставленной задачей. Есть много вещей, которые мы принимаем сегодня в обществе, которым у нас нет объяснений. Отличным примером является то, что литий в настоящее время является лучшим лекарством, которое у нас есть для контроля биполярного расстройства, и все же мы не знаем, как оно работает. Однако десятилетия эмпирических научных результатов на миллионах людей показали нам, что это эффективное лечение. Соответственно, надежное всестороннее тестирование является лучшей моделью для долгосрочного доверия, чем неуловимая объяснимость.

Отзывы лауреатов премии Тьюринга

Ян ЛеКун и Йошуа Бенжио

(NYU, Facebook AI Research, MILA и Монреальский университет)

Наши любимые доклады с ICLR 2020