Недавно я посетил Конференцию по искусственному интеллекту O’Reilly 2018. Я пишу этот пост, чтобы поделиться своим опытом и некоторыми уроками, которые я извлек, с друзьями и коллегами. Я комментирую то, что, по моему мнению, было основными темами конференции: ИИ для поддержки клиентов, Человек в курсе событий и влияние ИИ на рабочую силу, глубокое обучение (DL) и обучение с подкреплением (RL), облако для развертывания ИИ и автоматическое машинное обучение (Auto-ML). В заключение приведу несколько заставляющих задуматься цитат, которые я собрал у выступающих.

Также вот слайды многих презентаций.

Основные темы конференции

AI для поддержки клиентов

Большая часть компаний, которые фактически используют AI или ML для работы своих данных, делают это в области поддержки клиентов и настройки или взаимодействия с пользователем. Яркие примеры этого:

  • Uber, который использовал глубокое обучение для разработки моделей обработки естественного языка, чтобы классифицировать и предлагать ответы на запросы клиентов, как это воплощено в их помощнике по запросам на одержимость клиентами (COTA-v2).
  • AT&T, разработавшая сеть LSTM (тип рекуррентной нейронной сети) для создания модели последовательности точек соприкосновения (каналов), которым будет следовать клиент при взаимодействии с компанией, а также результатов этих взаимодействий. (купили ли они товар или услугу и через какой канал).
  • Голубой щит Калифорнии, который рассматривает созданного ими чат-бота как неотъемлемую часть своей стратегии омниканального обслуживания клиентов. Однако они подчеркнули, что самые успешные чат-боты не работают сами по себе. Они всегда строятся на хорошей основе инфраструктуры данных, которая включает хорошо разработанные API и микросервисы.

Человек в контуре и влияние ИИ на персонал

Было много сказано о том, что ИИ не должен (полностью) заменять людей, а должен делать их работу более эффективной, мощной и приносящей удовлетворение. Кроме того, по крайней мере в настоящее время, люди по-прежнему играют важную роль в разработке решений искусственного интеллекта в связи с тем простым фактом, что большая часть экспертных знаний содержится в мозгах экспертов-людей, и они являются единственными те, которые способны точно выполнять дорогостоящую маркировку тысяч точек данных, необходимых для обучения алгоритмов машинного обучения.

Существуют также промежуточные подходы, такие как активное обучение, основанное на идее сотрудничества между людьми и машинами в условиях полууправления. То есть позволить машинам обрабатывать простые рутинные дела, одновременно передавая сложные / крайние случаи экспертам-людям. Конечно, это практично в приложениях, в которых сложные случаи, не поддающиеся автоматизированному решению, легко идентифицировать и составляют меньшинство всех случаев.

Глубокое обучение и обучение с подкреплением в моде

Для большинства читателей, вероятно, не новость, что глубокое обучение позиционирует себя как де-факто архитектуру для моделей машинного обучения. Возможно, из-за конференции, проходящей в Калифорнии, и того факта, что Google был одним из спонсоров конференции, было проведено множество презентаций о TensorFlow. Между прочим, после конференции я поговорил с некоторыми своими хорошими друзьями, которые на самом деле являются исследователями DL, и они очень поручились за PyTorch как более приятный фреймворк для проведения экспериментов.

Питер Норвиг выступил с замечательной основной презентацией об удивительных приложениях DL к научным проблемам, которые не являлись экспертами в области DL в последние годы. Было все: от приложений в астрономии (гравитационные линзы, обнаружение экзопланет) до приложений в медицине (оценка факторов риска сердечно-сосудистых заболеваний с помощью сердечно-сосудистых заболеваний, выявление рака у школьников и так далее. в сельское хозяйство (выявление больных растений маниоки с помощью приложения на базе DL, отслеживание коров).

Два молодых исследователя Microsoft (Даниэль Дин и Ви Хён Ток) вели очень приятный разговор о самом секрете глубокого обучения: трансферном обучении. Короче говоря, трансферное обучение - это метод использования знаний, закодированных в глубокой сети, которая была тщательно и кропотливо обучена экспертами по большому набору данных, для решения другой проблемы. Например, глубокая сеть, обученная решению задачи классификации объектов, может быть обновлена ​​с относительно небольшими затратами усилий для решения другой задачи компьютерного зрения, такой как классификация текстур. Это достигается за счет использования сети в качестве featurizer и повторного обучения только последнего уровня на возможно небольшом наборе данных.

Облако - (в значительной степени) единственное место для развертывания решений AI / ML.

Учитывая сложность аппаратного обеспечения и конфигураций программного обеспечения, необходимых для большинства передовых решений машинного обучения и искусственного интеллекта, неудивительно, что облачные инфраструктуры преобладают.
Одним из самых приятных вкладов в этом отношении стал программный доклад Левента Бесика от Google, в котором он обрисовал усилия компании по демократизации ИИ, чтобы сделать его простым и полезным для всех разработчиков и пользователей, независимо от того, степени их компетентности в технических или научных аспектах ИИ. Предложение Google включает три уровня абстракции. На самом нижнем уровне находится уровень платформы (ml-engine, dataflow и dataproc) и уровня библиотеки (TensorFlow, Keras, Spark). , для разработчиков, которые хотят создавать решения с нуля. Затем идут строительные блоки ИИ, которые, по сути, представляют собой зрелые API-интерфейсы для решения четко определенных задач, таких как языковой перевод, транскрипция речи или распознавание изображений. На самом высоком уровне мы можем найти шаблонные решения, такие как система рекомендаций по продуктам или контакт-центр с клиентами.

Amazon Web Services (AWS) предлагает набор сервисов и платформ для разработки и развертывания машинного обучения по тем же основным направлениям. Однако у меня возникло ощущение, что некоторые компоненты предложения AWS, такие как Amazon Sagemaker, более зрелые, полные и в целом лучше разработаны, чем их аналоги от Google.

Авто-ML

Если вы специалист по анализу данных или разработчик решений искусственного интеллекта, есть вероятность, что в не столь отдаленном будущем вас тоже заменит машина. Технологии Auto-ML обещают абстрагироваться и автоматизировать от начала до конца самые сложные аспекты построения ML-модели, начиная от предварительной обработки данных и заканчивая настройкой гиперпараметров, выбором и развертыванием модели. Короче говоря, служба Auto-ML принимает в качестве входных данных набор данных (который может быть грязным и даже не должен включать метки) и выводит уже развернутую ML-модель с REST-API и всем остальным!

H2O - еще одна компания, показавшая интересные разработки в этом направлении.

Учитывая, что я считаю себя практиком машинного обучения (я ненавижу термин специалист по данным), вас не удивит, что я все еще очень скептически отношусь к технологиям автоматического машинного обучения. Трудно представить себе полностью автоматизированный процесс, позволяющий выполнять все сложные решения, основанные на опыте и интуиции, связанные с созданием модели машинного обучения. К примеру, гениальную разработку функций особенно сложно автоматизировать. Однако недавние достижения в Auto-ML, продемонстрированные Google, в ходе которых им удалось разработать нейронные сети, которые проектируют другие нейронные сети, заставляют меня сомневаться в себе.

Цитаты

В заключение я оставлю вам несколько цитат, которые я нашел интересными, просветляющими или провоцирующими:

Многие из тех вещей, которые мы делаем, не имеют ценности для бизнеса, кроме маркетинга - Бен Тейлор.

«Восемь из десяти всех рабочих нагрузок машинного обучения выполняются на AWS», - Хагай Лупесго, AWS.

«[Из] 20 миллионов разработчиков 1 миллион - специалисты по данным и 1000 исследователей глубокого обучения» - Левент Бесик, Google Cloud.

У некоторых компаний есть много« хороших идей [для использования AI / ML], но они не могут количественно оценить ценность. Если идея начинается со слов не будет ли это круто…?, Это, вероятно, плохая идея ». - Бен Тейлор.

82% организаций находятся на той или иной стадии рассмотрения вопроса о внедрении ИИ. Очень легко проводить пилотные проекты, но очень сложно их развернуть ... Руководители сосредоточены на удержании и удовлетворении клиентов, сокращении затрат на привлечение клиентов. - Маниш Гоял, IBM

Препятствия для внедрения ИИ: отсутствие квалифицированных ресурсов или технических знаний, нормативные ограничения. Проблемы с законом, безопасностью и конфиденциальностью при использовании данных и информации . - Маниш Гоял, IBM

В будущем вы увидите доступные, интеллектуальные, облачные, персонализированные протезы - Джозеф Сирош, Microsoft

Мы переходим в мир, где машины и программное обеспечение могут анализировать (видеть шаблоны, которые раньше всегда были скрыты); оптимизировать (указывать самолету, на какой высоте лететь каждую милю, чтобы получить максимальную топливную экономичность); пророчествовать (сказать вам, когда ваш лифт сломается, и починить его раньше); настраивать (адаптировать любой продукт или услугу только для вас), оцифровывать и автоматизировать практически любую работу. Это меняет каждую отрасль . - Том Фридман, автор книги« Земля плоская , New York Times»

«Все, что делает ML, - это делает выводы. Научный метод в дело. Деловым людям легко делать выводы… Наука о данных плохо поддается гибким методологиям », - Карлос Эскапа, AWS