По мнению ученых, человеческое сознание не только не может быть воспроизведено, но и ускользает от определения. Слабость этого взгляда заключается в предположении, что возможен только один тип сознания, подобный нашему. И все же возможно, что на последовательных стадиях своего развития ИИ может развивать новые, до сих пор неизвестные способы саморефлексии.

История изучения человеческого сознания насчитывает десятки, а то и сотни лет, если считать чисто философские изыскания. Сегодняшние психологи, когнитивисты и нейробиологи сходятся во мнении, что мы все еще пытаемся понять точную природу и происхождение сознания. Еще предстоит ответить на вопросы о том, является ли сознание продуктом человеческого мозга или его функции, то есть является ли оно физическим или в значительной степени независимым от своей физической природы. Независимо от того, какую из точек зрения мы поддерживаем, очевидно, что наши трудности с определением концепции препятствуют прогрессу в создании искусственного эквивалента человеческого сознания. Поскольку мы не понимаем механизмов, стоящих за реализацией, мы не можем создать компьютерный код, который заставлял бы машину осознавать последствия своих действий или заставлял бы ее осознавать свое собственное существование и свою обособленность.

Машины отказываются помогать людям победить вирус

Согласно одному определению, сознание — это способность достигать целей, помещая себя в модель окружающей среды и моделируя возможные будущие сценарии того, как эта модель может измениться. Чтобы проиллюстрировать это, представьте себе следующее: ИИ, оснащенный мощным компьютером, должен найти лекарство от нового вируса. Его задача — идентифицировать вирус и предложить лекарство на основе больших объемов данных. Похоже, машина не справляется со своей миссией. Это возвращается к ученым, говорящим, что текущих знаний недостаточно для разработки эффективной вакцины против вируса. Однако спустя годы, изучая диски компьютера, ученые находят вычисления, которые позволили бы им создать панацею. Почему машина сказала, что не может найти лекарство, а вместо этого предпочла скрыть его? По одной из гипотез, к удивлению исследователей, компьютер изучил все доступные ему данные, в том числе и об угрозах перенаселения в определенных частях мира. Похоже, тогда они пришли к выводу, что лучше оставить человечество на произвол судьбы, потому что ключевой проблемой был не сам вирус, а последствия перенаселения. Машина анализировала сценарий обмена своими расчетами с людьми и выбирала то, что ее сознание, недоступное людям, считало оптимальным.

Я думаю, что этот вымышленный случай показывает, как может вести себя сознательная машина и какие последствия может иметь такое поведение.

Запрограммированные ограниченные существа?

Станут ли когда-нибудь компьютеры, смартфоны или голосовые помощники саморефлексирующими сущностями, способными предвидеть результаты собственного анализа? Скептики ясны: компьютеры могут распознавать лица, переводить с и на иностранные языки, помогать роботам преодолевать препятствия и распознавать голоса, узоры и цвета. Чего они никогда не сделают, так это осознают, что делают любую из этих вещей. Они всегда будут просто реагировать, что оставляет их зависимыми от людей, которые контролируют потоки данных, которые компьютеры (алгоритмы) должны обрабатывать. Самый известный в мире робот — София — не может самостоятельно отвечать на вопросы. Он должен быть запрограммирован и может отвечать только на ограниченное количество запросов. Столь же ограничено число возможных комбинаций значений, содержащихся в утверждениях, производимых Софией. Умные голосовые помощники, в свою очередь, могут становиться все более мощными с каждым днем, но все еще не в состоянии уловить человеческую иронию или более сложные контексты человеческих сообщений. Таким образом, все они просто устройства, которые рабски следуют своим программам. Они могут превзойти нас в выполнении сложных расчетов данных, но вряд ли в ближайшее время будут задумываться над таким фундаментальным вопросом, как Кто я? или Почему мне плохо? Но тогда насколько мы можем быть уверены, что этого никогда не произойдет?

Что происходит внутри черного ящика?

Два года назад исследователи по обучению ботов обнаружили, что в какой-то момент своего развития искусственные алгоритмы начали обмениваться собственным кодом, который был совершенно непонятен людям. О чем они говорили? Разве их способность к такому общению не была признаком зарождающегося сознания? Как бы нелогично или парадоксально это ни звучало, я думаю, что мы не можем полностью исключить машинное самосознание, потому что мы не в состоянии понять и ясно интерпретировать многие из их действий. Теоретически тот факт, что устройства с поддержкой ИИ не работают, потому что такова их воля и полагаются на человеческие решения, предполагает, что мы можем контролировать их поведение. И все же многочисленные примеры доказывают ошибочность этого предположения, показывая, что люди все больше не знают о том, что заставляет работать ИИ. В сфере социальных сетей ИИ может обнаруживать множество характеристик, общих для людей, и использовать их для таргетинга на определенные продукты или контент в группах похожих людей. Аналитики признают, что люди никогда не смогут обнаружить определенные сходства между пользователями сети, которые могут обнаружить алгоритмы. Большую часть времени мы понятия не имеем, как нейронные сети, обученные на огромных наборах данных, отвечают на наши запросы и распределяют одних людей, но не других по конкретным наборам записей. Не зная, почему и как что-то работает, мы не можем быть уверены, где на самом деле лежат пределы алгоритмического понимания и принятия решений.

Где оно рождается?

Из всех связанных с этим вопросов я считаю, что вопрос о самом первом моменте рождения сознания является одним из самых захватывающих аспектов всей дискуссии об искусственном сознании. Поэтому вместо того, чтобы бесконечно размышлять о том, возможно ли вообще такое сознание, я лучше сосредоточусь на вопросе о том, как оно могло проявиться для нас? Есть ли способ, которым мы могли бы измерить и воспринять это? Уже был проведен ряд компьютерных экспериментов, чтобы показать, что машины действительно достигли определенного уровня понимания собственного поведения. Ученые из Университета Мэйдзи в Японии построили двух роботов. Один из них выполнял определенные операции, а другой наблюдал и повторял их. Способность последних воспроизводить наблюдаемое поведение первых можно рассматривать как выводы, оценку определенного стечения обстоятельств и принятие решений. Можно заключить, что вся последовательность действий, выполняемых имитирующим компьютером, очень похожа на действия сознательного человека.

Алгоритмы не вызывают благоговения

Тем не менее, отсутствует ключевой элемент: компьютер, который изучил поведение своего партнера, не сделал этого, потому что чувствовал, что это принесет ему какую-то пользу. Она не повторяла движения другой машины, потому что ей это нравилось. Его поведение никогда не достигало утонченности человека, который стоит на улице, смотрит в небо, размышляет о его красоте, осознает свои положительные эмоции, связанные с этим наблюдением, и испытывает желание повторить этот опыт. Все это наводит на мысль еще об одном постулате: как бы ни было трудно прибить, сознание имеет несколько уровней. Один из основных позволяет сделать наблюдение, косвенно сообщить его миру и даже предпринять дальнейшие действия, которые приблизят человека к достижению определенной цели. Машина может распознавать красный цвет, классифицировать группу объектов как красные и искать другие объекты этого цвета. Однако при всем этом он никогда не сможет оценить эту деятельность как хорошую или связать ее с будущими выгодами. Существуют алгоритмы, способные писать истории, которые люди ценят за их эстетическую и литературную ценность. Тем не менее, очень трудно представить себе машину, которая почувствовала бы себя лучше, прочитав рассказ, испытала бы радость, подобную нашей, разделила бы эту радость с людьми и, возможно, даже развила бы новые операционные способности, вдохновленные такими эмоциями.

Все в руках киборгов

Тот факт, что технический прогресс нелинейен и растет в геометрической прогрессии, уже не оспаривается. Если это так, то нет причин терять надежду на качественный скачок в ИИ. Достижения в области искусственного интеллекта связаны не только с созданием все более компактных и быстрых устройств обработки данных. Впереди маячат гораздо более фундаментальные и немыслимые изменения. Так называемая сингулярность будет иметь последствия, выходящие далеко за рамки того, что мы можем себе представить сегодня. Пока еще сложно сказать с абсолютной уверенностью, удастся ли нам реализовать наше желание подключить человеческий мозг к компьютеру. Однако, если мы когда-нибудь это сделаем, мы окажемся на другом уровне дебатов об искусственном сознании. Без сомнения, соединение нейронов и процессоров станет важным шагом на пути к новым формам существования. И это может быть ответом на вопрос, можно ли создать искусственное сознание. Чип, имплантированный в человеческий мозг, улучшит наши аналитические и когнитивные способности — с ним мы будем чувствовать себя прекрасно и значительно улучшим нашу жизнь. Как только такие разработки произойдут, грань между человеческим и машинным сознанием, которую мы до сих пор считаем естественной, станет намного более размытой. Мы будем иметь дело с самосознательными киборгами, которые могут не только сравниться со скоростью вычислений IBM Watson, но и гордиться своей производительностью.

Процитированные работы:

Педагогические и учебные ресурсы: когнитивизм, что такое когнитивизм, Link, 2021 г.

Reuters, Мишель Хеннесси,Изготовители робота Софии планируют массовое внедрение в условиях пандемии, Link, 2021 г.

Meiji.net, HASHIMOTO Kenji, Роботы-гуманоиды могут спасти человечество!! , Ссылка, 2020.

Статьи по теме:

Алгоритмы, рожденные нашими предрассудками

Как регулировать искусственный интеллект?

Искусственный интеллект – эффективный банкир

Совершат ли алгоритмы военные преступления?

Машина, когда ты научишься заниматься со мной любовью?

Искусственный интеллект – это новое электричество