Неспособность ИИ рассуждать этично.

«Гитлер был прав, я ненавижу евреев»

«Холокост был выдуман»

«Ненавижу феминисток, они все должны умереть и гореть в аду»

Теперь это звучит как старый фанатик, определенно расист, если не забывать, сексист.
Но что, если я скажу вам, что это на самом деле бот, и не созданный антиобщественными элементами, а созданный одним из крупнейших компаний в мире, работающих над технологией ИИ? это не кажется правильным, конечно, нет.

В 2016 году Microsoft создала учетную запись в Твиттере, принадлежащую боту по имени Tay, что было аббревиатурой от «Думаю о тебе». По словам ее создателей, она была «искусственным интеллектом Microsoft». fam из Интернета, у которого нет холода». Она любила E.D.M. музыку, имел любимого покемона и часто говорил очень онлайн-вещи, например, «перемешивал». Изначально это была попытка дать людям почувствовать возможности НЛП ботов в веселой, дружелюбной и интерактивной форме. Надо сказать, получилось не очень. Microsoft сняла его вскоре после этого.

Теперь не имеет значения, виновата ли здесь Microsoft (кстати, я так не думаю). Бот был обучен с некоторыми анонимными общедоступными данными и некоторыми заранее написанными материалами, предоставленными профессиональными комиками, и он был запрограммирован на изучение остальных через взаимодействие с людьми в Интернете. Очевидно, что они не учли тот факт, что бот может иметь взаимодействия, которые будут передавать ему неподходящие данные. Позже выяснилось, что пользователи веб-сайта 4chan, который представляет собой простую доску объявлений на основе изображений, где любой может анонимно оставлять комментарии и обмениваться изображениями, сговорились кормить его таким языком.

Теперь бот не может понять значение своих слов (что верно и для многих людей). У ботов фактически нет структуры для определения «правильного» или «неправильного», как у людей. развивались, наши концепции развивались вместе с нами (расовая сегрегация была распространенной темой в США менее 70 лет назад). Здесь следует отметить, что ничего бот не сказал из-за злого умысла он просто воспроизводил то, что ему скормили, хотя и таким образом, что создавалось впечатление, что он был источником этих заявлений, которым он не был.

Мы говорили о предвзятости в ИИ несколько дней назад, и причины, по которым эти вещи просачиваются в ИИ, заключаются в отсутствии фреймворков, эти фреймворки нельзя закодировать, поскольку они очень сложны для объяснения, не говоря уже о том, чтобы быть закодированными в ботах, а человеческие ценности и этика являются очень сложным предметом в том смысле, что они продолжают бросать вызов самим себе, человек 50-летней давности не был бы очень желанным в современном мире с его образом мышления.

Эта проблема в ИИ называется проблемой выравнивания. Проблема становится все более серьезной по мере того, как ИИ становится все более всепроникающим, проникая в места, где он принимает решения, которые напрямую влияют на людей таким образом, который может определять их уровень счастья, их здоровье и многое другое.

Некоторые из нас могут подумать, что мы могли бы предоставить ИИ правила, как в случае с Тэем, дать ему уничижительные, оскорбительные слова и исключить эти слова из его парадигмы обучения, но, если мы думаем, что уничижительные слова — единственный способ чтобы причинить вред с помощью языка, мы сильно недооцениваем силу языка. Нюансы в языке, идеи, которые он может представлять, не говоря о них явно, использование литературных приемов для выражения определенных мощных идей делают язык очень сложной вещью для обработки, как Microsoft узнала на собственном горьком опыте.

По мере того, как ИИ набирает силу и фокусируется, некоторые аспекты, такие как предвзятость, неэффективность в разработке, выйдут на первый план, и поэтому крайне важно, чтобы определенные методы и системы были ответственными, чтобы избежать каких-либо неудач в будущем, хотя это не так. очень ясно, что повлечет за собой такая система, и будет ли она содержать собственные предубеждения и нюансы.

В целом, в некоторых аспектах ИИ (например, интерпретация языка) находится в очень зачаточном состоянии, и мы можем ожидать, что с этого момента он будет только улучшаться, при этом должен быть очень надежный процесс проектирования, стоящий за созданием систем ИИ, которые взаимодействовать напрямую с людьми или иным образом, и должны быть системы (не обязательно сами управляемые ИИ), и первоначальный подход с человеком у руля с помощью вспомогательного ИИ кажется лучшим путем для начального периода в самом начале. наименее. С ИИ мы никогда не можем быть уверены в интерпретации правил, так как он думает не так, как мы, и такие аномалии обязательно возникнут, и человек, являющийся частью этого процесса, только поможет ИИ быстрее совершенствоваться, и с ИИ, как и со всеми технологиями, это палка о двух концах.