Это была относительно более спокойная неделя, и крайний срок NIPS ’17 уже позади. Вот основные моменты: AlphaGo AI от Google выигрывает серию из трех матчей у лучшего в мире игрока в го; Как компьютеры учатся понимать язык; Понимание и реализация CycleGAN в TensorFlow; Предельная ценность методов адаптивного градиента в машинном обучении

Новости

AlphaGo AI от Google выигрывает серию из трех матчей у лучшего в мире игрока в го



AlphaGo AI от Google еще раз доказал, что машины теперь умнее людей - по крайней мере, когда дело доходит до стратегических игр.

Apple работает над выделенным чипом для поддержки ИИ на устройствах - Bloomberg



После аналогичных заявлений Qualcomm и Google Apple объявляет о работе над процессором, предназначенным для задач, связанных с ИИ.

Статьи

Встречайте самого шустрого робота



Ловкий многопалый робот практиковался в использовании виртуальных объектов в моделируемом мире, показывая, как машинное обучение и облако могут революционизировать ручную работу.

Революция искусственного интеллекта пожирает программное обеспечение: ее поддерживает NVIDIA



На конференции GTC в этом году NVIDIA показала, как она предлагает ИИ для каждой вычислительной платформы, для каждой платформы глубокого обучения.

Крис Мэннинг: Как компьютеры учатся понимать язык



Крис Мэннинг обсуждает эволюцию компьютерной лингвистики и ее дальнейший путь. Недавно он был назначен профессором Томаса М. Зибеля в области машинного обучения.

Учебники, инструменты и советы

Понимание и реализация CycleGAN в TensorFlow



Прочтите очень подробное объяснение статьи CycleGAN вместе с реализациями различных компонентов CycleGAN в Tensorflow.

Zillow Prize: прогноз стоимости дома Zillow



Kaggle только что запустил серию соревнований с Zillow на $ 1 200 000, чтобы предсказать цены на продажу жилья и улучшить Zestimate.

Применение глубокого обучения к реальным проблемам



Расмус Роте делится тремя ключевыми выводами, которые помогли им в Merantix при применении глубокого обучения к реальным проблемам.

Все, что работает, работает, потому что оно байесовское: зачем глубокие сети обобщать?



Так что же, как не сама сеть, делает глубокое сетевое обучение универсальным? Что ж, читайте дальше!

Исследовательская работа

Базовые показатели OpenAI: DQN



OpenAI с открытым исходным кодом OpenAI Baselines, их внутренние усилия по воспроизведению алгоритмов обучения с подкреплением с производительностью, сопоставимой с опубликованными результатами. Они выпустят алгоритмы в ближайшие месяцы, начиная с DQN и трех его вариантов на этой неделе.

Предельная ценность методов адаптивного градиента в машинном обучении

Методы адаптивной оптимизации, такие как Adam, AdaGrad и RMSProp, которые выполняют локальную оптимизацию с метрикой, построенной на основе истории итераций, становятся все более популярными для обучения глубоких нейронных сетей. Но это исследование показывает, что методы адаптивного градиента обобщают хуже, чем SGD, даже когда эти решения обеспечивают лучшую эффективность обучения.

Если вам нравится то, что вы читаете, обратитесь к своим друзьям или расскажите о них в социальных сетях! Рад услышать ваши предложения и рекомендации @deephunt_in или в комментариях ниже!