Искусственный интеллект получает плохую репутацию, и как человек, который последние десять лет применял ИИ, я полностью понимаю, почему. Наука искусственного интеллекта и машинного обучения прочна, оправдана и чрезвычайно полезна. То, как мы применяем эту науку, редко имеет смысл.

Это не новое явление, и оно началось не с ИИ. Мы находимся на стадии эволюции искусственного интеллекта, в которой технология превзошла наши прежние ожидания. Когда это происходит, как это происходило с другими развивающимися технологиями в прошлом, мы начинаем преодолевать эти ожидания, чтобы вызвать две проблемы:

  1. Мы создаем антиутопические истории о будущем государстве. В данном случае: машины уничтожают нас или правят нами.
  2. Мы начинаем стремиться заработать, применяя новую технологию самым случайным образом.

Оба эти результата ожидаемы и необоснованны, поэтому вот что мы с ними делаем.

Наши новые повелители машин

Я не хочу слишком много говорить о мрачном будущем ИИ, я просто хочу убедиться, что мы все на одной странице в отношении того, что такое ИИ на самом деле, чтобы мы могли лучше понять, как его использовать. Это начинается с того, что мы все соглашаемся с тем, что это не так.

Компьютеры не думают. Большая часть того, что вы читаете о машинах, которые поднимаются и решают, что человечество должно быть уничтожено, - чушь. Все, что делает компьютер, в конечном итоге спроектировано и запрограммировано человеком. С научной точки зрения, самосознание - это не вариант. Мы даже не знаем достаточно о нашем самосознании, чтобы составить машинное уравнение. Мы догадываемся. Вот почему мы создаем то, что кажется самореализующимися пророчествами о гибели.

Но имейте в виду, что та же временная мера - машины должны программироваться людьми - также является его самой большой слабостью. Вот что действительно беспокоит Илона Маска и ему подобных. Мы, люди, несомненно, можем разрабатывать системы с достаточной автоматизацией и достаточно глупостью, чтобы приводить к ужасным результатам.

Это не новая концепция. На самом деле, уже давно ставший уже давно фильм Военные игры почти идеально подошел к глупому человеческому сценарию, когда наш военный компьютер решил, что игра против советского военного компьютера - игра, которая запускает ядерные ракеты, а затем мир бьет вверх - нужно закончить. В конце концов, наш компьютер пришлось научить, что в этой игре никто не выигрывает. С крестиками-ноликами.

Ой. Осторожно, спойлеры. Все равно смотри. Он все еще держится.

Но реальная проблема с таким сценарием судного дня намного проще (и менее дружественна к голливудским блокбастерам). Если мы собираемся разрабатывать ядерные запуски, управляемые компьютерами, давайте позаботимся о том, чтобы запускать ракеты требовалось два человека, а не два человека, чтобы ОСТАНОВИТЬ автоматический запуск.

Это сделали War Games. Что бы взорвало мир, так это быстрая сцена, где один ключевой человек военного запуска направляет пистолет на другого ключевого человека военного запуска, который не решается повернуть свой ключ запуска. Если есть проблема с этим фильмом, то это то, что эта сцена не была исследована, потому что следующие три секунды того, что делают эти два человека, решают, развернется ли фильм огромным левым поворотом и испарится всех нас.

И ЭТО, в преувеличенных словах, является проблемой того, как мы сегодня применяем ИИ.

Ну, опять две проблемы:

  1. Искусственный интеллект, машинное обучение, автоматизация, чат-боты, Alexa и все это лучше всего применять, и, вероятно, применять только с пользой, когда мы автоматизируем только те части, которые можно полностью автоматизировать.
  2. AI, ML, бла-бла-бла лучше всего ПРОДАВАТЬ как магию, которая может автоматизировать любую задачу, которую может выполнить любой человек, потому что люди дороги и делают ошибки.

Неужели мы так далеки от «ада голосовой почты», что забыли о боли полной автоматизации?

Мы могли бы быть. Я постоянно вижу эти обещания. Вы тоже делаете это в любой рекламе Watson.

Почему мы заменяем Эми?

Мы атакуем наши проекты ИИ, пытаясь немедленно и полностью заменить дорогостоящих людей, совершающих ошибки, машинами. Приведу отличный пример: помощники по планированию AI. Отличная идея, сомнительно исполненная.

Любой, кто пытался собрать двух или более людей в одном месте в одно и то же время, имел дело с планированием ада, когда ему приходилось несколько раз возвращаться и возвращаться, чтобы определить точное время, в которое каждый сможет встретиться. Вариант использования автоматизации здесь полностью действителен, а решение полностью ценно. Наука также присутствует, так как большая часть наших дней с 9 до 5 задокументирована в цифровом виде, и эти календарные данные, по крайней мере, доступны, если не общедоступны.

Очень, очень легко написать сценарий, который может предлагать варианты, принимать запросы, даже определять приоритеты некоторых предпочтений и указывать отрезок времени в двух цифровых календарях.

Так почему же это чаще всего терпит неудачу, чем удается?

Потому что дорогостоящий, ошибочно совершающий ошибки исполнительный помощник не был проблемой. Эта часть системы не была ни дорогой, ни ошибочной. Фактически, я обычно сталкиваюсь с одними и теми же проблемами планирования, независимо от того, является ли исполнительный помощник машиной или человеком.

Потому что проблема на самом деле в исполнительной власти.

Что ж, опять несколько проблем. Но вот тройка лидеров:

  1. Руководители редко блокируют в своих календарях все время, которое нужно заблокировать. Если это не специальная встреча, ее, скорее всего, нет в его календаре. И этого никогда не будет.
  2. Вокруг руководителя слишком много движущихся частей. Графики документируются, но меняются. Приоритеты недокументированы, и они тоже меняются.
  3. Выбросы редко программируются в системе. Однажды я попытался провести конференц-звонок с кем-то из-за границы, и его помощник по искусственному интеллекту не понял, что мне неинтересно звонить с 1:00 до 4:00 по моему времени. Вместо того, чтобы дать мне в качестве опции полночь или 5:00 утра, он просто продолжал отодвигать одно и то же время дальше в календаре.

Десять секунд, чтобы написать своему коллеге, десять секунд, чтобы он мне ответил. Задача решена. Фактически, он был достаточно любезен, чтобы назначить 6:00 утра в мое время.

Это человек (манекен)

Недостаток - это то, что я обычно называю логической инженерией или проектированием решений для сложной системы. Ни одна из этих концепций не нова, но они приобретают новую актуальность в применении к ИИ, решая те же проблемы, что и в Интернете, на мобильных устройствах и т. Д.:

  1. ИИ (и так далее) - это новая наука. Люди, обладающие всем опытом в области искусственного интеллекта, практически не имеют опыта применения приложений.
  2. Люди с приложением и опытом ведения бизнеса могут либо пренебрегать наукой, либо бояться ее, либо у них просто нет времени разбираться в ней.

Вот почему подростку Мэтью Бродерику пришлось обучить военный военный компьютер, чтобы он не взорвал мир, в то время как старый осел профессор Фалькен должен был стоять позади него, давая указания и самодовольно улыбаясь, в то время как мир был в секундах от взрыва.

Хорошо, некоторые части фильма не выдерживают критики.

Особенно если подумать о том, что профессор Фалькен должен был кодировать эту непредвиденную ситуацию в первую очередь (см. Проблему с выбросами бота-планировщика выше) или, по крайней мере, НЕ АВТОМАТИРОВАТЬ эту часть процесса.

Этот пробел в мудрости - лишь одна из возможных причин пропуска стадии логики и разработки решений, что приводит к сбою приложения ИИ. Есть множество других. Деньги - другое дело. FOMO - еще один. Правонарушение. Невежество. И так далее. Как ни странно, это та же борьба, которая происходит вокруг блокчейна и Биткойна, с таким же количеством недоразумений и мифов и двумя очень разными, очень укоренившимися сторонами по обе стороны жизнеспособности.

Я хочу сказать, что будь то глобальная термоядерная война или кофе с коллегой, здесь есть новая наука в области инженерии решений и логики, которая играет в догонялки в мире искусственного интеллекта. Это вокруг приложения. Дело не в том, автоматизируем ли мы, а в том, где и как мы выбираем автоматизацию.

Автоматизация, искусственный интеллект, машинное обучение, наука о данных - лучшие из них всегда будут включать правило 80/20, и вы можете применять это правило повсюду. Системы должны быть на 80% автоматизированы, на 20% - людьми. Путь к достижению этой цели должен начинаться с обратного и сначала разрешать самые сложные проблемы. Подсистемы следует анализировать как на 80% автоматизируемые, на 20% - нет. Правила жизнеспособности должны быть 80% норм, 20% выбросов.

Эти числа неточные, и линии деления постоянно меняются, но это начало логической инженерии. Когда мы забываем подходить к решениям искусственного интеллекта с учетом подобных проблем с приложениями, тогда мы получаем мрачные (или глупые) результаты.

Так как же нам остановить глупые результаты? Мы разрабатываем продуманную стратегию внедрения ИИ, которая устраняет разрыв между наукой и применением. Подробнее читайте в моем следующем посте: Понимание того, как реализовать стратегию искусственного интеллекта.