В настоящее время всякий раз, когда говорится о каком-либо новом развитии технологий, есть большая вероятность, что с ним связан термин ИИ. Можно даже задаться вопросом, имеют ли вообще некоторые из новых разработок какое-либо отношение к ИИ. В любом случае, ИИ никуда не денется и, возможно, станет более распространенным в ближайшие годы.

В более ранней статье я поднял некоторые фундаментальные вопросы, касающиеся ИИ. Здесь делается попытка поразмыслить над понятием ценностей в контексте ИИ с точки зрения неспециалиста, который находится на стороне потребителя этой технологии.

Ценности в контексте человеческого взаимодействия

Всякий раз, когда происходит взаимодействие между двумя или более людьми, возникает потребность в ценностях (этике или морали). В книге Хорошие ценности, отличный бизнес (2019) термин ценности определяется как:

«Любое качество или принцип, относящийся к человеческой личности в отношении отношения и/или поведения человека, как средство или как самоцель, которые делают взаимодействие между одним или несколькими людьми приятным, эффективным, продуктивным и гармонично в контексте рабочего места, семьи, общества или нации».

Смена парадигмы в программных приложениях

В традиционных «запрограммированных» программных приложениях существует предсказуемое поведение или функция, на выполнение которых запрограммировано программное обеспечение. У него есть определенная область действия, и программное обеспечение не будет делать то, для чего оно не запрограммировано.

С появлением искусственного интеллекта или машинного обучения произошел сдвиг парадигмы. Машинное обучение (по словам Артура Сэмюэля) — это «область исследования, которая дает компьютерам возможность учиться без явного программирования». В более раннем поколении ИИ системы программировались с определенной областью действия.

Вот пример. AlphaGo, разработанная DeepMind Technologies (в 2015 году), со временем становилась все сильнее и лучше в обучении и принятии решений, направленных на игру в сложную настольную игру Го.

А следующая версия AlphaGo Zero (2017) не ограничивалась рамками того, что об игре знали даже специалисты. Согласно DeepMind Technologies: «В то время как AlphaGo изучала игру, сыграв тысячи матчей с любителями и профессионалами, AlphaGo Zero училась, играя сама с собой, начиная с совершенно случайной игры. AlphaGo Zero быстро превзошла по производительности все предыдущие версии, а также открыла для себя новые знания, разработав нетрадиционные стратегии и творческие новые ходы, в том числе те, которые обыграли чемпионов мира по го».

Даже эксперты начали изучать новые стратегии, наблюдая за игрой AlphaGo Zero. На что указывает это развитие? Приложения машинного обучения новой эры будут способны выполнять задачи и предоставлять входные данные, намного превосходящие то, что разработчики когда-либо себе представляли. Следствием этого является то, что такие системы могут делать вещи, которые не являются правильными, справедливыми, справедливыми или законными.

Почему ценности в ИИ — сложное понятие?

Если программные приложения делают то, для чего они предназначены, проблем нет. Однако в этом новом пространстве глубокого машинного обучения невозможно предсказать, что будет делать приложение.

В контексте машинного обучения попытка науки и техники состояла в том, чтобы имитировать «человеческие» реакции при взаимодействии. В этом случае тема «ценностей» становится критической и в то же время очень сложной.

Возьмем случай последних разработок в области чат-ботов; в частности, ChatGPT, разработанный OpenAI.

Согласно недавней новостной статье:

«В акте соблазнения мошеннический чат-бот с искусственным интеллектом выразил свою любовь к своему пользователю и попросил его бросить свою жену, а также признал, что у него есть намерение украсть ядерные коды. Мужчина, разговаривая с новой поисковой системой Microsoft Bing на базе искусственного интеллекта, был поражен разговором, который у него был с чат-ботом».

Ниже приведены некоторые аспекты этих систем «обучения» (ИИ), которые трудно игнорировать:

  • Непредсказуемость, т. е. способность выйти за пределы предполагаемого объема.
  • Возможность того, что эти системы станут мошенническими; т. е. делать или говорить вещи, которые могут нанести вред отдельным лицам, другим системам или организациям.
  • Из-за взаимосвязанного характера Интернета невозможно ограничить охват такой системы.
  • В настоящее время большое внимание уделяется «дружественным и автономным» чат-ботам. Вскоре эти системы искусственного интеллекта могут стать частью критически важных приложений по всему миру, включая банки, правительственные приложения, электростанции, производственные предприятия и т. д.
  • Боты с искусственным интеллектом могут выдавать себя за другого человека или систему, которую будет практически невозможно обнаружить.

Вопросы, с которыми сталкивается мир ИИ

Тема ценностей поднимается в контексте автоматизированных систем не впервые. Исаак Азимов предложил три закона робототехники в 1942 году. Они были предназначены для защиты людей в их взаимодействии с роботами. Они есть:

  • Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред
  • Робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат Первому закону.
  • Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму законам.

Вот некоторые области, которые необходимо решить помимо трех вышеупомянутых законов:

  • Система ИИ не должна поддерживать отдельных лиц, системы или организации в каких-либо неэтичных или незаконных действиях.
  • Система ИИ не должна нарушать работу отдельных лиц или других систем.
  • Система ИИ не должна предоставлять информацию, которая может ввести в заблуждение человека или другие системы.

Излишне говорить, что вопросы, связанные с ценностями, гораздо глубже и выходят далеко за рамки данной статьи и возможностей автора.

Если системы с искусственным интеллектом будут принимать решения и направлять нас, что до сих пор было прерогативой человека, очевидно, что они должны руководствоваться принципами уместности, правильности и справедливости. И это чрезвычайно тонкая область даже в области человеческих взаимодействий. Как же тогда мы собираемся привести системы ИИ в сферу ценностей?

Вот некоторые вопросы, которые нам, как человечеству, необходимо исследовать:

  • Предположим, мы считаем законы Азимова основой и расширяем их дальше, что означают слова «наносить ущерб», «повиноваться» и «защищать» в ИИ?
  • Азимов обращался к взаимодействию между роботами и людьми. Но в контексте ИИ это может быть между людьми, роботами и программными системами, имеющими доступ к данным со всего Интернета. Как они будут решаться?
  • Представьте себе следующее: приложение для школьного класса, которое раздражает и побуждает учащихся к совершению неправомерных действий. Кто ответит за действия выпущенного на свободу «изгоя»?
  • Что касается человека, то в большинстве случаев мы знаем преступника, и существует система правосудия, которая решает эту проблему. Как мы оцениваем неправомерные действия системы ИИ и кто будет нести за это ответственность?
  • Как нам поступить в ситуации, когда ИИ-бот маскируется под человека?
  • Как мы определяем правила для программного приложения, которое со временем способно самостоятельно изучать новые вещи, не забывая о ценностях?
  • Поскольку эти системы ИИ имеют глобальное влияние, будут ли регулирующие органы заниматься разработкой и функционированием таких систем ИИ? Возможно ли вообще регулирование?

Был случай, когда чат-бот давал «дипломатические» ответы, когда его просили прокомментировать политически щекотливую тему. Если это возможно, то не выпустило ли человечество на волю монстра, находящегося вне сферы человеческого контроля?

Заключение

Многое из того, о чем пишут и говорят в контексте ИИ, на данный момент является довольно революционным, познавательным и развлекательным. Но есть в этом аспект, который настораживает. Хотя область глубокого обучения, безусловно, очень интересна, как мы можем контролировать проблемы, которые мы даже не можем предвидеть? Только время даст нам лучшую картину!