В этом году программа NIPS только началась в Лонг-Бич, штат Калифорния, и завершила мое пребывание в Калифорнии. Я прекрасно провел время в Институте Саймонса в Беркли и многому научился. Теперь пора возвращаться - после NIPS.

Как и в прошлом году, билеты на NIPS были распроданы за несколько недель до начала, и поэтому на месте не было регистрации (а также все спонсорские места были распроданы). Это сильно отличается от некоторых других конференций, на которые я был в прошлом: многие регистрировались бы только на месте, оставляя открытыми свои варианты, участвовать или нет, и нужно было бы просить спонсоров поддержать мероприятие, если бы кто-то был организатором. . Существенное изменение: это эффект машинного обучения и искусственного интеллекта ... Помимо эффекта машинного обучения, я считаю, что NIPS привлекает широкий круг людей, привлекая как академические круги, так и промышленность, а также таланты и рекрутеров. Более того, с научной точки зрения программа довольно разнообразна, и хотя я согласен с тем, что будущее в значительной степени глубокое, мне весьма любопытно посмотреть, что еще есть. Я помню, что в прошлом году я был очень рад найти несколько очень инновационных комбинаций дискретной оптимизации и машинного обучения (что мне очень близко), и я готов снова удивляться!

Продолжая тенденцию последних NIPS и ICML, присутствие Georgia Tech и ML @ GT снова очень велико: принято 16 документов, охватывающих самые разные области, и я рекомендую вам ознакомиться с некоторыми из работ (в произвольном порядке; скобки указывают школу в GT. ):

[1] О локальной квадратичной сходимости DC проксимального алгоритма Ньютона для невыпуклого регуляризованного разреженного обучения в больших размерностях. Синго Ли, Линь Ян, Джейсон Ге, Джарвис Хаупт, Тонг Чжан и Туо Чжао (ISyE)

[2] Глубокое гиперсферическое обучение. Вэйян Лю (CSE), Ян-Мин Чжан, Синго Ли, Чжидин Ю, Бо Дай (CSE), Туо Чжао (ISyE) и Ле Сон (CSE).

[3] Гомотопно-параметрический симплекс-метод для разреженного обучения. Хаотянь Пан, Роберт Вандербей, Хан Лю и Туо Чжао (ISyE)

[4] Имитационное обучение с учетом состояния. Янник Шрёкер и Чарльз Л. Исбелл (IC)

[5] Лучшее из обоих миров: передача знаний от дискриминационного обучения к генеративной модели визуального диалога. Цзясен Лу (CS), Анита Каннан, Цзянвэй Ян (CS), Деви Парикх (CS), Дхрув Батра (CS)

[6] О сложности обучения нейронных сетей (в центре внимания). Ле Сонг (CSE), Сантош Вемпала (CS), Джон Уилмс (CS), Бо Се (CSE).

[7] Смесь Дирихле для процессов Хокса для кластеризации последовательностей событий. Хунтэн Сюй (ЕЭК), Хунюань Чжа (ЕЭК)

[8] Вассерштейн изучает модели процессов глубокой генерации. Шуай Сяо, Мехрдад Фараджтабар (CSE), Xiaojing Ye, Junchi Yan, Le Song (CSE), Hongyuan Zha (CSE)

[9] Прогнозирование уровня активности пользователя в моделях точечных процессов с помощью уравнения массового транспорта. Ичэнь Ван, Сяоцзин Е, Хунюань Чжа, Ле Сон (CSE)

[10] О Франк-Вульфе и вычислении равновесия. Джейкоб Абернети (CS), Джун-Кун Ван (CS)

[11] Изучение комбинаторных алгоритмов оптимизации по графам (в центре внимания). Hanjun Dai * (CSE), Элиас Халил * (CSE), Yuyu Zhang (CSE), Bistra Dilkina (CSE), Le Song (CSE), * равный вклад

[12] Рекуррентные нейронные сети с прогнозированием состояния. Карлтон Дауни, Ахмед Хефни, Бою Ли, Байрон Бутс (IC) и Джеффри Гордон

[13] Предиктивные декодеры состояний: кодирование будущего в рекуррентных сетях. Арун Венкатраман, Ник Райнхарт, Вен Сан, Леррел Пинто, Байрон Бутс (IC), Крис Китани и Дж. Эндрю Бэгнелл.

[14] Вариационный вывод для гауссовских моделей процессов с линейной сложностью. Чинг-Ань Ченг (IC) и Байрон Бутс (IC)

[15] Net-Trim: выпуклое сокращение глубоких нейронных сетей с гарантией производительности. Алиреза Агаси (ЕЭК, IBM и штат Джорджия), Афшин Абди (ЕЭК), Джастин Ромберг (ЕЭК)

[16] Обучение с подкреплением при несоответствии моделей. А. Рой (SCS, теперь Google Research), Х. Сюй (ISyE), С. Покутта (ISyE)