Мнения в этой статье отражают личное мнение автора.

Страх апокалипсиса часто приводит к отсутствию разума и, что еще более печально, отвлекает внимание от актуальных проблем современных технологий. Хотя я надеялся на более вдумчивое и обстоятельное обсуждение социальных последствий искусственного интеллекта, протест СМИ, организованный вокруг обновленного исследования OpenAI GPT-2, вернул головную боль, которую я испытывал раньше, среди прочего, осенью 2008 г. 2017 после того, как DeepMind опубликовал впечатляющие результаты AlphaGo Zero.

Тогда я ответил в голландском блоге на наивную дискуссию в средствах массовой информации о том, чтобы взять верх над нечеловеческим сверхразумом и следует ли нам рассмотреть вопрос о наделении этой технологии правами человека . Поскольку на этой неделе ходят аналогичные внеземные рассказы, ​​я решил более или менее перевести свои аргументы с голландского на английский, чтобы предложить более эффективный путь вперед для оценки воздействия технологий и взаимодействия с исследованиями и средствами массовой информации. сообщества.

К сожалению, в своей работе в качестве исследователя в области техники управления, машинного обучения и юридических последствий я слишком часто сталкиваюсь с учеными и руководителями искусственного интеллекта, которые приняли антропоморфный взгляд на работу своей жизни; Проще говоря, тенденция навязывать человеческие характеристики машинам или алгоритмам. Чтобы затем также наделить его темными человеческими качествами жадности и разрушения.

Голливуд и средства массовой информации в целом усердно способствовали широко распространенному заблуждению о том, что машины могут в конечном итоге развить свои собственные чувства и интуицию и, ради выживания, желание перехитрить человеческого тирана (вспомните недавние фильмы, такие как Ее (2014), Transcendence (2014) или Ex Machina (2015)).

Но хотя научная фантастика заслуживает своего места в обществе, я бы сказал, что исследователям следует более внимательно относиться к средствам массовой информации. Классический пример безответственного «экспертного мнения», который я видел несколько раз - я не буду показывать пальцем - это экстраполяция уменьшающейся стоимости и увеличения масштаба вычислений, возможных на современных компьютерах, и сравнение этих цифр с их человеческими аналогами: стоимость человеческого труда и «количество вычислений, производимых человеческим мозгом» (весьма сомнительное сокращение для всей человеческой деятельности). Затем, основываясь на предварительных расчетах, можно сделать вывод, что вся человеческая деятельность может быть взята под контроль в ближайшие несколько десятилетий. Суперудобный рассказ, позволяющий руководителям ИИ включить свою работу в безопасный, надежный и совместимый с людьми ИИ.

На мой взгляд, такое построение (признанными экспертами и заслуживающими доверия СМИ) только способствует тому, что общественность воспринимает людей и технологии как мы и / против их, а не как тесно связанных друг с другом, что вызывает еще больший страх и необоснованное недоверие. Акцент на апокалиптических сценариях отвлекает внимание от огромного воздействия, которое технология уже оказывает.

Это не для прямой критики команды OpenAI, поскольку они, похоже, сосредоточены на некоторых важных проблемах неправомерного использования потенциально злоумышленниками. Однако тот факт, что релиз исследования был организован с помощью СМИ, ищущих сенсации, а не беседы с более широким сообществом ученых и затронутыми сообществами, действительно вызвал значительное разочарование. И при таком большом внимании общественности к такой важной теме кажется неуместным заканчивать сообщение в блоге объявлением о найме - последняя строчка гласит: И если вам нравится работать над передовыми языковыми моделями (и продумывать их значение для политики), «мы нанимаем ».

Но больше всего меня не устраивает то, что я не знаю, как и кем опрашиваются опровергнутые модели и определяются «последствия для политики». Честно говоря, команда Open AI в основном состоит из технических специалистов. Они наняли некоторых политиков. Однако на сайте нет ни имен, ни лиц. Вместо этого перечислены имена миллиардеров, инициировавших институт. По иронии судьбы, некоторые из этих сторонников имеют опыт распространения антиутопических представлений об ИИ, имея при этом доли в крупных компаниях, которые извлекают выгоду из развертывания нынешних технологий сомнительными способами, часто не имея в виду безопасность и достоинство пользователей и затронутых сообществ.

Давайте сначала напомним себе, что за технологиями, которые мы создаем и внедряем в мир, есть люди и организации, которые запекают свои ценности в алгоритм, делая многочисленные выборы и предположения. Искусственный интеллект - это не алхимия, а технология, подобная любой другой, разработанная с учетом многочисленных компромиссов, которые в чувствительных условиях следует разрабатывать так же тщательно, как мосты, электростанции или процессы здравоохранения.

Потенциально разрушительная сила обработки естественного языка в наших средствах массовой информации и, косвенно, в наших демократических процессах, инфраструктурах и институтах требует, чтобы мы пересмотрели вопрос о том, как обеспечивается ответственность за безопасность и справедливость. Это также вызывает фундаментальные вопросы о том, стоит ли вообще разрабатывать технологию.

Это безвозвратно означает интеграцию социальных перспектив и актуальных для политики знаний в предметной области внутри и на всем протяжении процесса разработки и интеграции новых алгоритмических усилий, вместо того, чтобы рассматривать вопросы, связанные с подтекстом, как второстепенное. Но самое главное, он должен вовлекать и уполномочивать демократически легитимные органы власти, которые могут конструктивно разрабатывать правила и положения, необходимые для противодействия неизбежному злоупотреблению технологиями.

Я знаю, что последний пункт может показаться наивным, особенно в Соединенных Штатах. Недавно созданное Партнерство по ИИ объединяет более 80 организаций, из которых ›50% являются некоммерческими. Но слова юридический или регулирование не упоминаются ни разу, и ни один государственный орган не фигурирует в списке организаций. Передового опыта и политических позиций будет недостаточно. Давайте посмотрим, что принесут Руководящие принципы этики и политические рекомендации, которые в настоящее время разрабатываются группой экспертов высокого уровня для Европейской комиссии. Будем надеяться, что ему удастся указать, как следует дополнить Общий регламент по защите данных (GDPR) для контроля злонамеренного использования технологий искусственного интеллекта.

Тем временем, чтобы OpenAI был по-настоящему открытым и чтобы более широкое исследовательское сообщество могло оказывать значимое влияние на реальные социальные последствия, давайте активно взаимодействовать с учреждениями, которые несут или должны отвечать за охрану и регулирование использования ИИ. Давайте будем мотивировать исследования не с точки зрения технологии общего назначения, а с точки зрения критически важной инфраструктуры. Давайте не будем наивными в том, что технологии являются нейтральным средством, а обосновываем наши научные вопросы ценностями, отражающими общество, в котором все мы хотим жить. Но сначала давайте зададимся вопросом структуры, в которых мы работаем, и то, как они могут помешать нам внести какой-либо значимый вклад.