Мучение непредвиденных последствий

Мы приветствуем обещание искусственного интеллекта, поскольку мы страдаем от непредвиденных последствий социальных сетей. Эти состояния связаны во времени.

В те дни, когда мы только зарождались, мы говорили о социальных сетях с тем же ярким энтузиазмом, который сейчас проявляется в искусственном интеллекте. С юношеским оптимизмом нам просто нужно было всех сплотить. Основное внимание уделялось технологиям, новым медиа, а не старому социальному порядку. Если вы этого не поняли, вы, вероятно, были слишком старыми или слишком тупыми, или и тем, и другим.

Видите ли, это было очевидно: социальные сети неизбежно соединят и преобразуют мир. Более широкие последствия следовало обнаружить, а не рассматривать.

Теперь мы слишком хорошо знаем, что социальные сети отражают как лучшие , так и худшие из наших социальных инстинктов. Вместо того, чтобы исправлять, социальные сети усиливают эти тенденции. Они укрепляют перспективы до такой степени, что серьезные люди считают социальные сети оружием войны и опасаются, что даже сама демократия может стать непреднамеренной жертвой. Такова мука непредвиденных последствий.

Честно говоря, мог ли кто-нибудь реально представить себе последствия? Как Кара Свишер вспоминает историю Facebook, большинство из них даже не пытались. Дело не только в наивности или умышленной слепоте основателей. Это была непоследовательная позиция. Facebook оказался благосклонным. Facebook был утилитой. Свишер вспоминает: Facebook« вероятно, был слишком сосредоточен только на положительных моментах и ​​недостаточно сосредоточен на некоторых отрицательных моментах ».

«Я не думаю, что допустимо повторять одни и те же ошибки снова и снова». - Марк Цукерберг

Что еще хуже, было высокомерие, ощущение, что только архитекторы социальных сетей по-настоящему понимали свои инструменты. Прогресс может быть достигнут только так, без каких-либо препятствий. Девизом было действовать быстро и ломать. Марк Цукерберг сказал: «Управляя компанией, если вы хотите быть новаторским и продвигать вещи вперед, я думаю, вы должны быть готовы ошибаться в некоторых вещах. Но я не думаю, что допустимо повторять одни и те же ошибки снова и снова ».

И все же мы снова находимся на пороге еще более глубоких технологических изменений, основанных на искусственном интеллекте. Мы повторяем одни и те же ошибки? Редко бывает и день без очередной шумихи о будущем ИИ, которая по иронии судьбы перемежается с очередным разоблачением злоупотреблений и упадка социальных сетей. И опять же, вокальное меньшинство выражает тот же необузданный оптимизм, то же чувство неизбежности и, да, то же высокомерие, с которым они одни понимают свои инструменты.

Что, конечно, верно: только эксперты в области ИИ понимают ИИ. Но непредвиденные последствия не поддаются экспертам, как штормы не поддаются метеорологам. Непредвиденные последствия охватывают гораздо более широкий спектр факторов, которые, в свою очередь, требуют более инклюзивного разговора.

В следующий раз ставки будут еще выше. Возможно, самые серьезные последствия лежат на пересечении ИИ и здравоохранения. Здравоохранение, не случайно, является областью, которую больше всего высмеивают из-за медленного внедрения ИИ. И, как и наша социальная природа, медицина воплощает в себе ту же неопределимую смесь добра и зла, которая делает ее особенно уязвимой для непредвиденных последствий.

В ходе недавней дискуссии за круглым столом в New York Times, посвященной влиянию технологий и медицины, Регина Барзилай выразила мнение, отражающее моральное затруднение. Он называет ИИ моральным императивом, причем очевидным. Для меня, как ученого-информатика, работающего в области искусственного интеллекта, казалось очевидным обучить машину делать такие прогнозы. У медицины есть проблемы, которые ИИ должен решать. Как А.И. исследователь, я был ошеломлен, увидев, что все эти возможности помочь пациентам упущены. С точки зрения пациента, это было жестоко .

Как подчеркивает Барзилай, бездействие - это моральный выбор, а отказ от возможности сознательно применять ИИ для решения проблем здравоохранения - это моральный недостаток. Но когда это чувство распространяется с претензиями на очевидность, я нервничаю.

Понятно, что технологи сосредотачиваются на стратегии сдерживания. Барзилай продолжил: «Мы говорим о хорошо изученных технологиях, коммерчески используемых в других отраслях, а не о совершенно новых исследованиях». Но, к сожалению, последствия не ограничиваются только решениями. Вспомните, что мы узнали из социальных сетей и об огромном влиянии 140-символов, должным образом объединенных в сеть. Что может предотвратить подобную вспышку непредвиденных последствий в сфере здравоохранения, среди самых ужасных обстоятельств, в самых сложных условиях?

К сожалению, когда мы рассуждаем о узконаправленных решениях, расплывчатые опасения по поводу непредвиденных последствий кажутся разжигающими страх. Если с помощью контролируемых экспериментов можно доказать, что системы искусственного интеллекта превосходят людей, что может быть обратной стороной? Именно в этом суть: непредвиденные последствия обнаруживаются, как только эти системы фактически развертываются в реальном мире.

Подумайте, могут ли улучшения чувствительности диагностики опережать улучшения вмешательств. Улучшенная диагностика может привести к большему количеству диагнозов, но также и к большему количеству лечения сомнительной ценности. Автоматизация может переместить диагностику от специалистов к специалистам широкого профиля, устранив систему сдержек и противовесов экспертов-людей. Это может высвободить внимание и ресурсы для решения других проблем, но также повлияет на бдительность, терпимость к риску и восприятие ответственности у врачей. Обратите внимание, как эти эффекты быстро выходят за рамки первоначальных намерений диагностической системы. И это лишь краткий список эффектов, которых можно ожидать, даже если они обычно неизвестны за пределами сообщества медицинских экспертов.

Несомненно, на этот раз осведомленность о рисках гораздо больше. Том Симонайт назвал 2018 год годом, когда технологии ограничили возможности ИИ. Это хроника прогресса. Но есть огромная разница между реактивными и проактивными политиками. Сейчас мы реагируем. У нас есть политики управления данными, потому что мы пострадали от утечки данных. Мы требуем большей прозрачности, потому что секретность - это корпоративная норма. Если мы собираемся справиться с непредвиденными последствиями, нам нужно занять активную позицию.

Чтобы оценить разницу, компьютерный ученый Томас Дж. Диттерих предлагает модель упреждающего управления ИИ в концепции организаций с высокой надежностью (или СПЧ). Он подчеркивает такие качества, как озабоченность ошибками и нежелание упрощать интерпретации в качестве ограждения для безопасных автономных систем. Это разительный отход от двигайся быстро и ломай вещи.

Урок социальных сетей и их непредвиденных последствий заключается не в том, что мы должны препятствовать прогрессу, а скорее в том, что прогресс более вероятен, если к нему подходить осторожно и смиренно. У нас больше шансов на успех, если мы бдительно предвидим проблемы.

В недавнем интервью очень вдумчивого профессора Калифорнийского университета в Беркли Майкла И. Джордана спросили, что упускается из виду или недостаточно упоминается в обсуждениях искусственного интеллекта:

Неопределенность. На самом деле машинное обучение - это идеи из статистики, смешанные с идеями из информатики. Но в этом слиянии было потеряно несколько вещей. И одна из них - беспокойство о неопределенности.

Исследователи знают об этом, но иногда не уделяют этому достаточного внимания. Исследователи предполагают, что если у вас есть огромный объем данных, алгоритм в большинстве случаев будет просто выводить правильные ответы.

Неужели через десять лет будет ли перед Конгрессом приведена кучка лидеров ИИ, лишенных ореолов, обнаженных лишь с обещанием быть более внимательными к непредвиденным последствиям? «В большинстве случаев алгоритм просто выводит правильные ответы». Им понадобится более сильная защита.

Из Объяснимого стартапа, посвященного науке и философии решения проблем.