Несколько лет назад мой опыт работы в социальных и гуманитарных науках (антропология, философия, социология, что у вас есть…) считался необычным, мягко говоря, в индустрии высоких технологий. Сегодня это все, о чем люди хотят говорить. Отношения меняются от Кремниевой долины к лондонскому Кремниевому кольцу.

Причина очевидна: методы искусственного интеллекта (ИИ), такие как машинное обучение, начинают оказывать значительное влияние на общественном уровне. В настоящее время различные типы алгоритмов машинного обучения широко используются в коммерческих условиях: от оптимизации доставки посылок до рассмотрения заявлений о приеме на работу в сфере найма и влияния на то, какую информацию мы потребляем через социальные сети. В настоящее время они также широко применяются в государственном секторе. Настолько, что мэр Нью-Йорка Билл де Блазио только что создал целевую группу, которая проверяет, как алгоритмы влияют на принятие решений в государственных службах Нью-Йорка.

Хотя в последнее время в СМИ было много дебатов о будущем ИИ между оптимистами, такими как Демис Хассабис из Google Deepmind, и не менее известными пессимистами, такими как Илон Маск из Tesla и SpaceX, эти дебаты скорее упускает из виду главное.

Дебаты связаны с предполагаемым будущим поколением алгоритмов ИИ, которые могли бы модифицировать свой собственный исходный код, развиваясь за пределы первоначального намерения программиста (и затем продолжая учиться в геометрической прогрессии, пока они, возможно, не захватят мир). Это то, что называется Seed AI, разновидность общего искусственного интеллекта. Проблема в том, что стабильный Seed AI считается многими невозможным в соответствии с сформулированными в настоящее время законами математической логики из-за того, что известно как парадокс бутерброда. Прекрасное, хотя и немного техническое, объяснение Seed AI и этого парадокса можно найти в отличной статье Ямпольского (2015).

Ключевая проблема заключается в том, что акцент на крутости семенного ИИ и общего искусственного интеллекта в СМИ скрывает более важные и гораздо более острые дискуссии, которые необходимо провести. А именно, что нынешнее гораздо более глупое поколение ИИ, на котором работает Amazon Alexa или поиск изображений Google, создается без особого надзора, а затем развертывается слишком быстро. Этот Узкий ИИ, возможно, не сможет вызвать легендарную Сингулярность, но он уже влияет на некоторые чувствительные области нашей жизни так, как никто не предполагал.

Одна назревающая проблема заключается в том, что алгоритмы Узкого ИИ слишком часто обучаются на нерепрезентативных наборах данных, что приводит к необъективным результатам. Например, использование нерепрезентативных наборов изображений для обучения ИИ распознаванию лиц приводит к появлению целого ряда машин, от автоматических дозаторов мыла до считывателей электронных паспортов в аэропорту, которые не распознают темную пигментную кожу, как указывает Джой Буоламвини из Массачусетского технологического института. Медиа-лаборатории.

К другим печально известным случаям непредвиденных последствий Узкого ИИ относятся алгоритмы, передающие все ресурсы богатым районам при определении приоритетов инвестиций в содержание дорог в Бостоне, как описано Барокасом и Селбстом (2016) в их великой статье о влиянии алгоритмов и больших данных, или предубеждения, проникающие в автоматизацию рекомендаций по вынесению приговоров и условно-досрочному освобождению, влияющие на решения о свободе человека или продолжении тюремного заключения, как анализируется в этой интересной редакционной статье New York Times, или алгоритмы, не предлагающие доставку посылок в тот же день в ключевые районы, где проживает большинство чернокожих. Города США, но предлагающие его соседним районам с белым большинством, как объясняется в этой статье Bloomberg Ингольда и Сопера (2016).

Эти примеры касаются некоторых глубоких социальных линий разлома вокруг расы, пола, экономического равенства и социальной справедливости, которые непреднамеренно усугубляются бездумным применением Узкого ИИ. И вышесказанное касается только непредвиденных последствий алгоритмической предвзятости. К этой проблеме можно добавить законные опасения по поводу других аспектов революции искусственного интеллекта, таких как фальшивые новости, манипуляции, монопольная власть, игнорирование конфиденциальности и проблемы, связанные с привыканием интерфейсов, за которыми скрываются алгоритмы. Этот список можно продолжать, и в нем будет много засыпки для мельницы пессимистов в области искусственного интеллекта.

Оптимисты ИИ ответят, что сосредоточение внимания только на том, что пошло не так и что предположительно может пойти не так, несправедливо, поскольку не учитывает другую сторону уравнения: ценность, когда все идет хорошо, и неиспользованный потенциал будущих вмешательств. В самом деле, можно утверждать, что не использовать узкое ИИ текущего поколения само по себе неэтично из-за улучшений, которые он может внести.

Этот аргумент особенно силен, если учесть, что в сфере здравоохранения уже начинают спасаться жизни, например, благодаря лучшей идентификации опухолей груди путем применения алгоритмов машинного обучения к маммограмме. Сколько еще жизней можно было бы спасти, если бы эти изолированные эксперименты можно было распространить на все наши службы здравоохранения? И как мы можем сбалансировать альтернативные издержки отказа от этого и непредвиденные последствия плохо спроектированного или развернутого узкого ИИ?

Нейтральный прагматик может добавить, что какую бы сторону аргумента вы ни выбрали, стоит признать, что ИИ - одна из редких технологий, преобразующих мир, как печатный станок, порох или электричество, которые просто невозможно сдержать. потому что в нем так много соблазнительного потенциала. Если Америка решит остановить развитие, Китай продолжит. Если Китай решит прекратить поставки, Индия получит конкурентное преимущество. AI - это яблоко в нашем Эдемском саду.

Настоящий вопрос заключается в следующем: как мы можем учесть социальные последствия этой технологии, чтобы с самого начала создавать алгоритмы ИИ более этичным и социально ответственным образом? Это большой вопрос, над которым мы все должны бороться. Как я надеюсь продемонстрировать в следующих нескольких публикациях, у социологов есть инструменты, которые помогут ответить на этот вопрос, но только если они будут работать в тесном сотрудничестве с разработчиками программного обеспечения и специалистами по обработке данных, которые в первую очередь создают алгоритмы.