Скоро появится искусственный интеллект (ИИ). Мы являемся свидетелями крупных прорывов во всем: от беспилотных автомобилей до компьютеров, выигрывающих игровые шоу, и до появления персональных помощников, таких как Siri, Google Assistant и Alexa.

Скоро мы сможем разговаривать со своими устройствами так, как разговариваем с друзьями. И наши устройства будут отвечать. ИИ будет в наших домах, машинах, телефонах, предметах домашнего обихода - технологии, вплетенные в саму ткань нашей жизни, живя рядом с нами от рассвета до заката.

Несмотря на то, что все эксперты согласны с тем, что искусственный интеллект может быть либо лучшим, либо худшим, что может случиться с человечеством, мало серьезных исследований посвящено обеспечению наилучшего результата.

Почему нам нужен более демократичный подход

Сегодня ИИ разрабатывается несколькими техническими корпорациями в Китае, Лондоне и Сан-Франциско, а это означает, что он находится в руках немногих, а не многих людей.

Действительно, относительно небольшая группа людей - по большей части привилегированные белые мужчины - создают «личности» ИИ за закрытыми дверями. И то, что они создают, будет жить со всеми нами. Важно то, что эти программы не объективны, логичны и беспристрастны. Скорее, они будут так же предвзяты, как и люди, которые его разрабатывают, и данные, которые в него вводятся.

Помните Тэя? Она была чат-ботом, созданным, чтобы говорить как подросток, который Microsoft запустил 24 марта 2016 года. Созданный для имитации и общения с пользователями Twitter в режиме реального времени, Тэй едва дожила до наступления темноты, как ее технические повелители отключили его.

Ее преступление? Расизм, ксенофобия и самое худшее из человечности, 140 персонажей одновременно. На всякий случай Тэй даже поддержал Трампа на посту президента, сказав, что он выполняет свою работу.

Тай был запрограммирован на то, чтобы ориентироваться на свои действия в Твиттере. Теоретически достаточно умно, но на самом деле он остался уязвимым для троллей, которые должным образом злоупотребили его возможностями машинного обучения и научили его извергать поток сексистской и расистской грязи.

Подобно Зеркалу Эрисед, которое, как объясняет Альбус Дамблдор Гарри Поттеру, показывает нам не что иное, как самое сокровенное, самое отчаянное желание наших сердец, Тэй была просто отражением людей, с которыми она болтала. Или, как любят говорить компьютерщики, мусор на входе, мусор на выходе.

К другим примерам относятся поисковые системы, показывающие женщинам меньше рекламы о высокооплачиваемой работе, чем мужчинам, озабоченность по поводу расовых предубеждений, присущих программам прогнозирования, сложное программное обеспечение для распознавания лиц, дающее несколько менее изощренные ярлыки фотографиям чернокожих людей и Растущий объем исследований программ искусственного интеллекта, демонстрирующих расовые и гендерные предубеждения.

Google быстро извинился и обновил свое программное обеспечение для распознавания лиц. Тем не менее, как выразился Хранитель, эти примеры поднимают призрак существующего социального неравенства и предрассудков, которые усиливаются новыми и непредсказуемыми способами, поскольку все большее количество решений, влияющих на нашу повседневную жизнь, передается автоматам.

Помимо опасений по поводу предвзятых алгоритмов, ИИ также вызывает опасения по поводу вытеснения рабочей силы в условиях все более автоматизации экономики и появления широко распространенной культуры наблюдения, а также способности ИИ перехитрить исследователей-людей, перехитрить финансовые рынки, разрабатывать оружие, которое мы не можем контролировать. , и даже стали реальной угрозой для человечества.

Однако, несмотря на все опасения, ИИ может принести огромную пользу жизни многих людей; все, что может предложить цивилизация, - продукт человеческого разума; Итак, чего бы мы могли достичь, если бы этот интеллект был усилен инструментами, которые может предоставить ИИ, но болезни, изменение климата, войны и бедность могут уйти в прошлое.

Вы говорите по-человечески?

Именно в этом свете SPACE10 - внешняя лаборатория IKEA по созданию будущего будущего - запустила игровой проект Говорите ли вы по-человечески?, Призванный пролить свет на то, какой ИИ нам нужен, и привлечь к размышлениям больше людей. что мы создаем.

Мы хотели вызвать более широкий разговор об ИИ и привлечь больше людей к размышлениям о том, какие отношения они хотят установить с технологиями в будущем. Мы считаем, что нам нужен более демократичный подход к искусственному интеллекту - и обсудить, что мы можем сделать сегодня, чтобы повысить шансы избежать рисков и получить выгоду завтра.

Вы говорите по-человечески? это опрос, направленный на то, чтобы понять, какой ИИ нам нужен. Хотим ли мы, например, чтобы наша технология была индивидуальна, человечна, имела имя? Должен он быть мужчиной или женщиной? Будет ли это иметь значение? И всегда ли он должен быть послушным?

Более того, должен ли ИИ уметь обнаруживать наши эмоции и реагировать на них? Удовлетворите наши потребности, прежде чем мы спросим? Остановите нас от ошибок? Знают нас лучше, чем мы, кажется, знаем самих себя?

Хотим ли мы, чтобы ИИ отражал наше мировоззрение? Или оспорить это? Хотим ли мы, чтобы он был религиозным? Или атеист? И сколько конфиденциальности и данных мы готовы обменять, чтобы позволить ИИ упростить жизненный процесс?

С помощью Вы говорите по-человечески? SPACE10 предлагает вам сформировать вашу идеальную личность ИИ как возможность помочь понять, какой ИИ мы хотим, и какие отношения мы хотели бы установить с эта технология. Только демократизируя дизайн, мы можем сделать ИИ силой добра.

Мы находимся на пороге фундаментального сдвига в наших отношениях с технологиями, так что бы вы хотели видеть?