Теория рационального выбора является краеугольным камнем традиционного экономического мышления. В нем говорится, что:

«Люди всегда принимают взвешенные и логичные решения. Эти решения приносят людям наибольшую пользу или удовлетворение — учитывая доступный выбор — и также отвечают их высшим личным интересам».

Предположительно Стивен Хокинг, Илон Маск и Билл Гейтс имели в виду что-то подобное, когда опубликовали открытое письмо в январе 2015 года, призывая к тому, чтобы исследования и разработки в области искусственного интеллекта были сосредоточены не только на том, чтобы сделать ИИ более способным, но и на том, чтобы максимизировать пользу для общества. Чтобы выполнить этот императив, они призвали к междисциплинарному сотрудничеству между экономикой, правом и философией. компьютерная безопасность, формальные методы и, конечно же, различные ответвления самого ИИ. (С момента публикации письмо собрало еще 8000 подписей — вы тоже можете подписать, если хотите.)

Четкие, рациональные четыре абзаца письма восхваляют, какую пользу технологии принесли человечеству, и предвидят еще больше того же в будущем, но его восприятие и комментарии авторов в других контекстах не столь взвешены. В результате письмо стало разделом поддержки для тех, кто думает, что человечество проигрывает свою гонку против роботов.

Рассмотрим, например, следующее из статьи Observer:

Успех в создании ИИ станет крупнейшим событием в истории человечества, — написал Стивен Хокинг в статье, которая «появилась в The Independent в 2014 году. , если мы не научимся избегать рисков». Профессор Хокинг добавил в 2014 году в интервью BBC, что люди, ограниченные медленной биологической эволюцией, не могут конкурировать и будут вытеснены искусственным интеллектом.

Илон Маск назвал перспективу искусственного интеллекта нашей величайшей экзистенциальной угрозой в интервью со студентами Массачусетского технологического института в 2014 году на симпозиуме AeroAstro Centennial Symposium. Я все больше склоняюсь к мысли, что должен быть какой-то регулирующий надзор, может быть, на национальном и международном уровне, просто чтобы убедиться, что мы не делаем что-то очень глупое. Г-н Маск ссылается на свое решение инвестировать в компанию DeepMind, занимающуюся искусственным интеллектом, как на средство, чтобы просто следить за тем, что происходит с искусственным интеллектом. Я думаю, что это потенциально опасный исход».

Соучредитель Microsoft Билл Гейтс также выразил обеспокоенность по поводу искусственного интеллекта. Во время сеанса вопросов и ответов на Reddit в январе 2015 года г-н Гейтс сказал: Я нахожусь в лагере, который обеспокоен сверхразумом. Во-первых, машины будут делать за нас много работы и не будут суперумными. Это должно быть позитивно, если мы справляемся с этим хорошо. Спустя несколько десятилетий после этого интеллект достаточно силен, чтобы вызывать беспокойство. Я согласен с Илоном Маском и некоторыми другими в этом и не понимаю, почему некоторые люди не обеспокоены.

Или посмотрите на этот комментарий Илона Маска в Vanity Fair:

«В поразительном публичном упреке в адрес своих друзей и коллег-технарей Маск предупредил, что они могут создавать средства собственного уничтожения. Он сказал Эшли Вэнс из Bloomberg, автору биографии Илона Маска, что опасается, что его друг Ларри Пейдж, соучредитель Google, а ныне генеральный директор, своей материнской компании Alphabet, может иметь совершенно благие намерения, но все же «случайно создать что-то злое» — включая, возможно, «парк роботов с улучшенным искусственным интеллектом, способных уничтожить человечество».

Другими словами, Хокинг, Гейтс и Маск беспокоятся не только о том, что машины займут рабочие места, но и о конце света или, по крайней мере, человечества. Автор статьи Washington Post считает, что это не так уж и плохо:

Когда технология настолько явно опасна — как «ядерная энергия или синтетическая биология — человечеству просто необходимо учитывать антиутопические предсказания будущего. Но у него также есть императив, чтобы двигаться вперед, чтобы полностью раскрыть свой потенциал. Хотя страшно, конечно, что люди могут перестать быть самыми умными формами жизни в комнате через поколение, должны ли мы действительно беспокоиться об этом? Похоже, мы уже неплохо покончили с планетой. Во всяком случае, мы должны приветствовать наших мастеров ИИ, которые прибудут скорее раньше, чем позже».

Или рассмотрите это открытое письмо, написанное в ответ Хокингу, Гейтсу и Маску, в котором, по сути, говорится, забудьте о нагнетании страха — это произойдет независимо от того, что вы думаете:

«Прогресс неизбежен, даже если он достигнут случайно и случайно. Даже если мы не собираемся этого делать, разумный ИИ неизбежно будет создан, будь то в процессе эволюции обучающегося ИИ или в качестве побочного продукта некоторых исследований. Никакой договор или коалиция не могут остановить это, что бы вы ни думали. Я просто молюсь, чтобы вы не перешли от образованных людей к торговцам страхом, когда это произойдет».

Как обычно, мы находимся в идеологическом тупике, когда обе стороны реагируют не столько в соответствии с плюсами и минусами, сколько в соответствии со своими предрасположенностями. Эта статья предлагает выход из тупика:

«В начале этой статьи мы задались вопросом, правы будут пессимисты или оптимисты.

«Однако есть и третий вариант: мы переходим от создания рабочих мест вокруг процессов и задач, решения, которое не является оптимальным ни для человека, ни для машины, к созданию рабочих мест вокруг проблем».

Статья длинная, хорошо проработанная и… ну, очень рациональная. Жаль, что мы редко действуем с рациональной точки зрения, когда дело касается рабочих мест и экономики… или чего-то еще в этом отношении.

Подробнее об этом в следующий раз.

Первоначально опубликовано на странице http://theneweconomyandthefutureofwork.wordpress.com 15 марта 2018 г.