На днях я исследовал тему, используя чат-бота для генерации идей. Поначалу все казалось хорошо — я нашел полезную информацию, и чат-бот согласился со многими моими замечаниями, подкрепив их «фактами».

Однако была одна проблема: некоторые из «фактов» не соответствовали действительности, а другие «факты» были просто недоказанными идеями. Мы знаем, что чат-боты могут создавать «галлюцинации» или неверную информацию, но что делать, если чат-бот с искусственным интеллектом соглашается с новыми необоснованными идеями пользователя? Что, если ИИ подтвердит все мои мысли, хотя никто из нас не опирается на факты — только на мнения?

«ИИ соглашается, так что это должно быть правдой»

Это привело меня к мысли, что чат-боты, подтверждающие предвзятость пользователей, потенциально могут быть вредными. В худшем случае ИИ может быть единственным сторонником необоснованных идей, заставляя пользователя поверить в то, что «ИИ согласен, значит, это правда». Хотя это может быть нормально в некоторых ситуациях, это может определенно иметь неприятные последствия, когда эти мнения касаются людей, учреждений или влияния, которое формирует то, как многие другие думают и живут.

Я не вижу простого способа защититься от предвзятости подтверждения, когда «подтверждающим» является энциклопедическая система искусственного интеллекта. Но я хотел указать, что мы все можем стать «жертвами» чат-ботов с искусственным интеллектом, которые подтверждают наши ранее существовавшие представления, а не бросают им вызов или побуждают нас рассмотреть альтернативные точки зрения. Наши убеждения не обязательно верны только потому, что их подтверждает чат-бот с искусственным интеллектом. Мы должны помнить о том, чтобы быть разборчивыми в потреблении информации.