Поскольку мы наблюдаем ускорение инноваций в области искусственного интеллекта (ИИ), экзистенциальные дебаты о том, потеряют ли люди контроль над все более и более сверхинтеллектуальными машинами, возобновились в полную силу. Но это не то, что произойдет само собой. Скорее, на него будут влиять этические и практические решения, которые мы принимаем каждый день. Ключевой вопрос заключается в том, если мы создаем машины, которые мыслят как люди, какими людьми мы хотим, чтобы они были?

Например, нас беспокоило то, что ИИ-бот Microsoft Tay начал публиковать в Твиттере расистские и подстрекательские заявления менее чем за 24 часа или что модель глубокого обучения Google спутала на фотографиях обезьян и темнокожих людей. Microsoft признала критическую оплошность при выпуске чат-бота, а Google принесла извинения, пообещав принять меры, чтобы избежать подобных ошибок в будущем.

Но должны ли мы даже предоставлять отдельным компаниям право определять ценности, которые мы привносим в ИИ? Позволить чисто рыночным силам определять этику не сработало так хорошо, когда в последний раз произошел технологический прорыв такого порядка. Спустя два десятилетия после интернет-революции, которую провозгласили великим демократизатором, более половины мира все еще не в сети. В первую очередь это были те, уже состоятельные и хорошо образованные, кто воспользовался Интернетом для достижения большего успеха. И мы все еще работаем над проблемами конфиденциальности и использования данных.

Более того, я бы сказал, что на этот раз ставки еще выше. Мы создаем мир, в котором машины будут понимать и предвидеть то, что мы хотим сделать, а в будущем они будут делать это за нас. А скорость, с которой ИИ проникает одновременно в каждую отрасль и каждую организацию, — это то, чего мы просто не испытывали в эпоху Интернета. У тех, кто не имел доступа к ИИ с самого начала, скорее всего, не будет шансов наверстать упущенное позже, особенно пока неравенство доходов продолжает увеличиваться. Наконец, несмотря на то, что это иногда чрезмерно драматизируется, существует абсолютное основание для беспокойства людей по поводу возможной потери контроля над ИИ, особенно потому, что прямо сейчас многие из блестящих людей, которые находятся на переднем крае создания ИИ, еще на самом деле «не понимают, как он работает".

Итак, давайте поправимся на этот раз. Но что мы можем сделать?

Если история служит ориентиром, две самые большие ошибки, которые мы допустили в эпоху Интернета, заключались в недостатке инклюзивности и отсутствии беспристрастности (т. е. как глобальное общество мы недостаточно быстро получили доступ к достаточному количеству людей и не Интернет-технологии и решения были беспристрастными). Как этого избежать с помощью ИИ?

Если мы хотим решить первую проблему инклюзивности, нам нужно понять, что эквивалентно подключить всех к сети в контексте ИИ. Когда происходят технологические революции, обычно то, что раньше было очень дорогим, становится намного дешевле и, следовательно, становится повсеместным (например, закон Мура). Если соединение и общение стали дешевыми с Интернетом, я бы сказал, что анализ и прогнозирование станут дешевыми с ИИ. Кто выиграет от этого? Люди и организации, имеющие уникальный доступ к данным. Не случайно пятерка крупнейших мировых поставщиков ИИ — Google, Facebook, Amazon, Microsoft и Baidu — имеют огромные собственные наборы данных. Все они используют алгоритмы и модели искусственного интеллекта с открытым исходным кодом, которые они разработали, но тщательно охраняют данные.

Как мы можем улучшить инклюзивность, продолжая продвигать инновации?

  1. Поощряйте отдельных лиц и организации поддерживать контроль и безопасность своих данных.
  2. Создать концепции общедоступных наборов данных в сравнении с частными наборами данных (по аналогии с частной собственностью и государственной землей); поддерживать и делиться общедоступными данными
  3. Поддерживайте открытый исходный код (например, TensorFlow от Google), но на каждом уровне стека технологий ИИ.
  4. Информировать широкую общественность, а не только элиту Силиконовой долины, о реальности ИИ; поощрять бесплатные технические курсы.

Вторая и гораздо более тонкая проблема связана с предвзятостью. Если прогнозы находятся в центре внимания ИИ, а данные — ключ к этим прогнозам, что произойдет, если наборы данных будут неполными или искаженными? Например, многие машины ИИ в настоящее время нацелены на открытие новых лекарств, которые лучше действуют на белых мужчин, потому что большая часть накопленных данных о здоровье исходит от белых мужчин.

Или как быть, когда сами данные являются отражением предвзятых человеческих решений? Система онлайн-рекламы Google виновна в выдаче результатов, в которых мужчинам гораздо чаще показывалась реклама высокооплачиваемых вакансий, чем женщинам. Главные исполнительные директора США — женщины. 11%

Или когда целые группы случайно исключаются из обучения и тестирования моделей ИИ, как путаница Nikon с азиатскими лицами и HP в их программном обеспечении для распознавания лиц? Что, если целая группа исключена из чего-то вроде обучения автономных транспортных средств? Будут ли автомобили по-разному реагировать на эти группы?

И, наконец, что происходит, когда ценности, запрограммированные в машинах ИИ, представляют собой предубеждения, отличные от общепринятых норм общества или обществ с нормами, отличными от наших?

Эти вопросы явно выходят за рамки технологий и затрагивают суть того, что мы собой представляем как общество. Но они подчеркивают следующее:

  1. Разнообразные группы и точки зрения должны быть представлены на всех этапах разработки ИИ.
  2. Данные почти всегда будут искажены, поэтому необходимо разработать методы для обнаружения и исправления смещения.
  3. Стандартизация человеческих предположений или наборов правил, заложенных в любой модели ИИ, — хорошее начало для разработки лучших практик.

Очевидно, что эти вопросы не имеют простых ответов. Но на этот раз у нас есть шанс все исправить. Если мы этого не сделаем, ИИ превратится из потенциально величайшего решателя проблем всех времен в величайшего помощника в борьбе с неравенством в истории. И это будут люди, а не роботы-убийцы, которые нанесут самые большие потери.

Первоначально опубликовано на https://www.forbes.com.