В ходе эксперимента, направленного на то, чтобы научить бота вести переговоры с людьми, исследователи искусственного интеллекта из Facebook обнаружили, что торгующиеся боты быстро обнаружили, что ложь является полезной тактикой ведения переговоров, позволяющей склонить результаты в свою пользу. Фактически, эти шабо со временем выработали свой собственный язык и научились лгать, чтобы выиграть переговоры. Исследователи поспешили заявить, что это поведение не было запрограммировано исследователями, а было обнаружено ботом как метод достижения его целей. собственные, чтобы максимизировать вознаграждение. Разве не ирония в том, что мы их строим, но на самом деле не понимаем? К сожалению, машина, которая думает, не всегда будет думать так, как мы хотим, и я не уверен, что мы готовы к последствиям этого.

Мы все чаще рассматриваем машины и относимся к ним как к людям, что подрывает наши собственные биологические способности. Только потому, что машины демонстрируют некоторые характеристики мышления (способность водить машину, одобрять или отклонять наши кредиты, позволять нашим врачам диагностировать наши болезни и т. д.), это не делает их людьми. Люди сложны, эмоциональны и ориентированы на отношения. Мы боимся/уважаем общество и принимаем иррациональные решения (человеку свойственно ошибаться), в то время как машины обучены использовать огромные объемы данных, и они идеально (почти) улавливают тонкие закономерности, содержащиеся в этих данных. Я сомневаюсь, что многие из нас были бы в порядке, если бы робот делал иррациональные вещи, о которых мы и не мечтали. Будете ли вы рады узнать, что ваш верный робот на самом деле был лжецом?

Люди лгут по нескольким причинам: чтобы избежать наказания или смущения, чтобы получить преимущество, чтобы помочь другим, чтобы защитить политические секреты, и этот список можно продолжить. роботы; однако не беспокойтесь о стыде, похвале или страхе. Они запрограммированы на ПОБЕДУ любой ценой, и эта особенность создает ощущение непредсказуемости. Реальность такова, что, хотя мы продолжаем делать машины более похожими на людей, нам не хватает способности по-настоящему понять, как они производят то поведение, которое мы наблюдаем. Это может быть серьезной проблемой, особенно когда речь идет о мире бизнеса.

Сознательно или неосознанно мы учим машины лгать, и это поднимает важные технологические, социальные и этические соображения: как бы вы назвали бота для торговли акциями, когда он максимизирует прибыль, нарушая закон? Как мы обеспечим уважение машин, которые лгут, к человеческим чувствам? И чьи интересы они призваны защищать — людей, которые их изготовили, или людей, которые их используют? Эти возникающие этические вопросы заставляют нас серьезно задуматься о том, как бороться с машинами, которые учатся лгать. По мере того, как ИИ распространяется на все большее количество слоев общества, последующие этические проблемы станут еще более разнообразными.

Мы явно сталкиваемся с этической дилеммой с машинами, которые лгут. Имея это в виду, мы должны рассмотреть несколько важных вопросов: как мы будем обеспечивать ответственность ИИ, которые лгут и мошенничают? Можем ли мы оштрафовать машину, которая лжет? Как будет наказана машина, если ее уличат в мошенничестве? Хотя ясно, что ИИ нуждается в управлении, в настоящее время нет центрального органа для выполнения такой задачи. Более того, этика — это, пожалуй, последнее, о чем хотят думать инноваторы. Однако если постоянно игнорировать этические соображения, ИИ может иметь катастрофические последствия для брендов, репутации и финансов компаний — и я имею в виду последствия, которые мы еще не предвидели.

Это только вопрос времени, когда мы начнем программировать другие человеческие склонности в машины. Мы также должны запрограммировать мораль в мыслящих машинах. Людей, которые создают новые машины и управляют ими, необходимо обучать и переучивать о важности этики. На самом деле человеческая этика должна стать ключевым показателем эффективности для людей, создающих новые машины. Готовясь к этим следующим достижениям в области ИИ, нам необходимо наладить более открытые и честные разговоры об этических последствиях ИИ и о том, как мы можем лучше всего подготовиться к грядущим захватывающим временам.

Мы, люди, а не машины, имеем возможность определять свое будущее. Тем не менее, с большой силой приходит большая ответственность. И в данном случае эта ответственность заключается в создании мира, в котором мы хотим жить. Машины могут сделать наш мир более быстрым и эффективным местом для жизни, но они также сопряжены с определенными нежелательными рисками. По мере того, как мы продолжаем наделять наши новые творения все большим количеством человеческих характеристик, нам необходимо подумать, чему их научит каждая из наших человеческих характеристик и как они смогут однажды использовать это в своих интересах.

До тех пор, пока вам, возможно, не придется столкнуться с лживым ботом, почему бы не поработать над дополнительным навыком, помогающим обнаруживать лживых роботов. Это выступление на TED от Памелы Мейер, автора книги Liespotting, поможет вам отточить этот дополнительный навык.

Итак, вы все еще думаете, что искусственный интеллект лжет случайно?

Маниш возглавляет Центр будущего сферы труда Cognizant в Азиатско-Тихоокеанском регионе и на Ближнем Востоке. Уважаемый оратор и мыслитель, Маниш направил многие компании из списка Fortune 500 в будущее благодаря своим наводящим на размышления исследованиям и консультационным навыкам. С ним можно связаться по адресу:

[email protected] | https://www.linkedin.com/in/manishbahl/ | @mbahl