РАННИЕ КОМПЬЮТЕРЫ были в основном просто большими калькуляторами, помогавшими нам обрабатывать большие числа. Однако сейчас компьютеры настолько мощны, что учатся самостоятельно принимать решения в быстро растущей области искусственного интеллекта. Но умные машины с искусственным интеллектом зависят от знаний, которыми они питаются. Ранее в этом году Microsoft усвоила этот урок на собственном горьком опыте, когда выпустила ИИ-бота для Twitter под названием Tay, который был обучен говорить как подросток-миллениал. Однако в течение 24 часов толпа пользователей Твиттера переквалифицировала Тэя в расиста, отрицающего Холокост, и Microsoft была вынуждена убить бота. Это был не первый случай, когда система искусственного интеллекта извлекает неверные уроки из вводимых данных. В прошлом году система автоматического распознавания изображений Google пометила фотографию двух чернокожих как «горилл» — вероятно, потому, что машина изучала базу данных, в которой не было достаточно фотографий ни животных, ни людей. Компания извинилась и сказала, что исправит…

Подробнее читайте на propublica.org.