В эти выходные я наконец-то посмотрел фильм «Из машины» (откровение: я не любитель кино и всегда отстаю от фильмов на десятилетия!). Довольно впечатляющий сюжет, хотелось бы, чтобы сценарий был немного лучше. Но что особенно выделялось для меня, так это применение теста Тьюринга для преодоления границ — не только для проверки человеческих действий, но и для человеческого сознания. Отныне я буду с подозрением относиться к симпатичным киборгам.

Тем не менее, я пытался разобрать для себя, почему ИИ сегодня популярнее, чем, скажем, десять лет назад. Я твердо верю, что настало золотое время для коммерциализации ИИ, чтобы сделать его более доступным для человека (без каламбура!) и сделать его более демократизированной технологией, чем конструкцией исследовательской лаборатории. Тремя движущими силами готовности ИИ к работе в корпоративных приложениях в режиме реального времени сегодня являются доступность вычислительных мощностей, доступность больших объемов данных для принятия решений и появление экосистемы алгоритмов, инструментов и сред. Давайте немного изучим это.

Доступность вычислительной мощности

Если целью ИИ является увеличение когнитивных способностей человека с помощью компьютеров, то нам нужно много (параллельных) вычислительных мощностей, которые к тому же недороги. Конечно, закон Мура способствовал более эффективному использованию ресурсов процессора и позволял делать большие вещи в маленьких упаковках. Сегодня графические процессоры — это аппаратная архитектура для выполнения более сложных задач ИИ. Все, что было сказано и сделано, больше повлияло не только на наличие более быстрых технологий, но и на доступность вычислений через наших поставщиков общедоступных облаков.

15 лет назад, чтобы создать часть программного обеспечения для ИИ, вам нужно было владеть большим количеством вычислительного оборудования, вам нужно было его настроить, настроить, поддерживать и, по сути, иметь только эти базовые навыки для начала работы. Пережив революцию виртуализации и облачных вычислений на предприятиях, я знаю, что это непростая задача! Сегодня, благодаря облачным вычислениям, вы можете арендовать эти возможности за небольшие деньги и не беспокоиться об остальной головной боли. Облачные вычисления стали важным фактором, позволившим сделать вычислительную мощность дешевой и, что более важно, доступной. Сегодня AWS и Azure предлагают не только дешевую вычислительную мощность, но и специальные предложения для ваших проектов машинного обучения:

Машинное обучение AWS: https://aws.amazon.com/machine-learning/pricing/

Azure: https://azure.microsoft.com/en-us/services/machine-learning/

Благодаря этому важнейший класс технологий обучения, известный как нейронные сети, превратился из непомерно дорогого в относительно дешевое (подробнее об этом позже!).

Наличие (обильных) данных

В своей статье 2012 года Большие данные: революция в управлении профессор Массачусетского технологического института Эрик Бриньолфссон и ведущий научный сотрудник Эндрю Макафи отметили, что каждый день создается 2,5 экзабайта данных, и это число удваивается примерно каждые 40 месяцев. Петабайт — это один квадриллион байтов, или эквивалент текста на 20 миллионов картотечных шкафов. Эксабайт в 1000 раз больше, или 1 миллиард гигабайт. С тех пор каждый день мы создаем 2,5 квинтиллиона байтов данных — столько, что 90% данных в мире сегодня были созданы только за последние два года. Но дело не только в объеме данных, доступных сегодня, само разнообразие этих данных, генерируемых людьми, носимыми устройствами, ИТ-системами, взаимодействием между машинами, социальными сетями и электронной коммерцией, делает невозможным для людей понимание, анализ и действия. их без помощи машины.

В настоящее время доступно не только количество и разнообразие данных. Если все инвестиции в инфраструктуру данных за последнее десятилетие в предприятия должны окупиться, организациям придется найти способ использовать такие технологии, как машинное обучение и обработка естественного языка, чтобы понять смысл. все эти данные.

Зрелая и быстрорастущая экосистема — алгоритмы, платформы и инфраструктура

Хотя термина искусственный интеллект не существовало до 1956 года, достижения и идеи предыдущих десятилетий пробудили многие темы будущего. Итак, мы говорим о технологии, которая выпекалась долгое время с некоторыми всплесками быстрого роста на протяжении более шести десятилетий (вот временная шкала: https://en.wikipedia.org/wiki/Timeline_of_artificial_intelligence). Более занимательное чтение — Суперинтеллект: пути, опасности, стратегии Ника Бострома.

Эти шесть десятилетий были ключевыми для разработки алгоритмов и потребовали фреймворков для демократизации развития ИИ. Возьмем, к примеру, глубокое обучение. Цифровые нейронные сети были изобретены в 1950-х годах, но специалистам по информатике потребовались десятилетия, чтобы научиться вычислять астрономически огромные комбинаторные отношения между миллионом — или 100 миллионами — нейронов. . Ключевым моментом было организовать нейронные сети в составные слои, где прогрессивные слои выполняли частичные функции, которые объединялись в общую картину. Это заняло некоторое время, и в 2006 году Джефф Хинтон, тогда работавший в Университете Торонто, внес ключевую поправку в этот метод, который он назвал «глубоким обучением». Он смог математически оптимизировать результаты каждого уровня, чтобы обучение накапливалось быстрее по мере продвижения вверх по стеку слоев. Одного только кода глубокого обучения недостаточно для создания сложного логического мышления, но он является важным компонентом всех современных ИИ, включая Watson от IBM, поисковую систему Google и алгоритмы Facebook.

Еще одной параллельной разработкой стали замечательные фреймворки, упрощающие разработку алгоритмов машинного обучения разработчиками с использованием популярных элементов с открытым исходным кодом. Сочетание языков программирования высокого уровня с простыми в использовании платформами, такими как Spark/MLLib, Apache Singa, Caffe, Neon или Tensorflow, или даже готовой к развертыванию инфраструктурой разработки с Azure и AWS сделало возможным разработку коммерческих приложений ИИ.

Это золотой век для ИИ, однако большой вопрос заключается в том, что нам все еще нужно подождать и посмотреть, кто победит, а кто проиграет в долгосрочной перспективе. Основное внимание должно быть сосредоточено на решении реальных проблем, которые приносят ощутимые бизнес-результаты для предприятий, а не на религиозных или спекулятивных ставках на определенных игроков или поставщиков — эта часть в конечном итоге вытряхнет сама себя!

Хотел бы услышать, что думают ваши умные читатели?