Изучая O’Reilly, я наткнулся на книгу Карен Килрой «Искусственный интеллект и закон». Конкретные моменты, сделанные автором, меня заинтересовали.

Мой iPhone использует отслеживание лица Apple, и это одно из удобств искусственного интеллекта, заставляющее меня задуматься, не появится ли моя фотография где-нибудь в Интернете?

Для любой системы ИИ есть несколько существенных зависимостей. Давайте взглянем.

Зависимость 1: данные
Данные — это основа ИИ. Без него алгоритмы ИИ бесполезны.
Вы когда-нибудь задумывались, какие данные используются для обучения систем, обеспечивающих работу современного мира?

Что ж, давайте погрузимся в них.

Грязные данныеотносятся к неточным, неполным или противоречивым, особенно в компьютерной системе или базе данных. Что ж, 2020 год принес недавние доказательства того, что в случае систем ИИ, которые нас охраняют, грязные данные и ошибочные алгоритмы могут разрушить жизни, а наша зависимость от ИИ ставит нашу свободу под большую угрозу.

Отмытые расовые предубеждения, за которыми следует Ошибочные данные поиска.

Ваша система хороша настолько, насколько хороши данные, которые вы используете для ее обучения.

Зависимость 2: Алгоритмы

Мы все знакомы с термином «алгоритм». Не так ли? Автор упоминает «Убедительный ИИ» при обсуждении различных алгоритмов, лежащих в основе передовых систем ИИ. Я посмотрел, потому что не был уверен, что это значит.

Это означает, что существует наука, которая изучает, что заставляет нас хотеть делать определенные вещи, и применительно к предсказательным компьютерным алгоритмам она становится убедительным ИИ. Технология убеждения используется в социальных сетях, чтобы предсказать и убедить нас совершить наиболее выгодное действие. Все, что нужно для моделирования, — это правильные алгоритмы и данные. И, благодаря социальным сетям, мы добровольно предоставили огромное количество личных данных, которые можно использовать для создания нашего цифрового образа.

Мусор на входе, мусор на выходе — это первая основа вычислений, с которой знаком каждый программист. В этой книге подчеркивается, что в ИИ, дисциплине, которая считается очень сложной, об этом фундаментальном правиле часто забывают. "Хотя их алгоритмы и данные обязательно приведут к несовершенным результатам, когда мы видели, чтобы человек принимал идеальное решение?" — спрашивает автор.

Автор выделяет интересный пример: Sz Hua Huang против Tesla Inc, возникший в результате функции автономного вождения Tesla, автопилота. Возникает вопрос: Если человек знает, что ИИ может быть опасен, и все равно использует его, кто несет ответственность за этот риск? Поэтому правильно будет сказать, чторезультат является продуктом намерения. Необходимо изучить намерения индустрии программного обеспечения, чтобы добиться лучшего результата.

ИИ имеет решающее значение, но также крайне важно разработать основы для ответственных инноваций.

Итак, как мы можем ответственно внедрять инновации?

  • Используйте ИИ только по мере необходимости.
  • Требовать управления для ИИ
  • Создавайте лучшие пользовательские интерфейсы
  • Удобство использования для уязвимых групп населения в первую очередь
  • Регулировать предвзятость ИИ

Предвзятость, которой разрешено оставаться в моделях ИИ, будет расти вместе с системой. Одним из широко разрекламированных случаев предвзятого ИИ стал чат-бот Microsoft Tay. В течение 24 часов после дебюта Тая в Твиттере Тэй научилась делать расистские, сексистские и непристойные комментарии из твитов других пользователей. В ответ Microsoft пришлось закрыть Tay.

Дело в том, что почти каждый может создать ИИ. Мы были бы очень обеспокоены, если бы кто-то мог легко собрать оборудование, материалы и знания для создания ядерной бомбы.

Тем не менее, мы, похоже, вообще не придаем этому значения с помощью ИИ. Почему ?