Следует ли позволить ИИ делать наши ставки? Facebook и Карнеги-Меллон. Исследователи ИИ только что создали ИИ, который может побеждать людей в покере. Это грандиозное достижение. В покере нет оптимального ответа, нет выигрышной серии ходов. Вместо этого есть лучший вариант, чтобы максимизировать вознаграждение и минимизировать риск. Но можем ли мы ответственно применять агентов, обученных добиваться успеха в сценариях с неполной информацией? Каким образом эти типы сверхчеловеческого ИИ могут делать плохие ставки и как мы можем создать на их основе системы для общественного блага?

Давайте посмотрим на мысленный эксперимент. Медицинская диагностика и лечение - одна из наиболее развитых и плодотворных областей исследований в области машинного обучения. Диагноз - это, по большей части, проблема классификации. У вас есть большой объем входных данных от пациента, таких как данные о симптомах, данные об окружающей среде и т. Д. Алгоритмы машинного обучения применяются для поиска закономерностей среди огромных объемов данных для диагностики пациента. Часто алгоритмы находят шаблоны настолько запутанными, что профессионалы не всегда понимают их. Диагностика - это классическое приложение для машинного обучения, в котором есть этические вопросы. Ради эксперимента предположим, что врач очень сообразителен или алгоритм машинного обучения точно поставит правильный диагноз.

Однако рекомендация лечения не является стандартной проблемой классификации. Это игра несовершенной информации. Вы должны сделать ставку на лучшую процедуру, учитывая человека и диагноз. Работа алгоритма состоит в том, чтобы оценить различные шансы на успех лечения, диагноз и человека, а также рекомендовать наилучший курс лечения, чтобы спасти его жизнь. У них может не быть времени на дополнительные процедуры, поэтому каждая рекомендация должна быть качественной. В этой проблеме потенциально могут быть применены исследования Facebook и CMU. В конце концов, если бы всем поставили правильный диагноз и предоставили наилучшее лечение, разве не стоило бы строить этот мир?

К сожалению, это может быть невозможно. Если мы заставим агента ИИ рекомендовать лечение, мы можем обнаружить те же слепые пятна, что и врачи. Агент, рекомендующий лечение, вероятно, должен будет рассматривать показатели успеха различных методов лечения как часть множества функций данных для анализа. Показатели успешности могут быть взломаны или неискренне статистически изменены, чтобы они были выше, чем они есть на самом деле. Например, Липитор, лекарство, которое, как было заявлено, имеет показатель успеха 36%, в то время как на самом деле он имеет показатель успеха 1%. Агент ИИ, рекомендующий лечение и смотрящий на такие показатели, как процент успеха, может сделать неверную ставку.

Врачи также могут стать жертвой ошибочных результатов. Эта слабость и есть проблема. У врачей и сверхчеловеческого ИИ один и тот же недостаток: искаженные или предвзятые данные. Но врачи могут обосновать свой диагноз. Как ни крути, но нереально найти точный образец среди 50 000 матриц, умноженных вместе различными последовательными способами, и правильно определить причину. Возможно, вам удастся создать ИИ, чтобы понимать и переводить идеи ИИ в человеческое понимание, но вы снова столкнетесь с той же проблемой.

Даже имея возможность превзойти людей в областях несовершенной информации, мы по-прежнему зависим от точных и непредвзятых данных о насущных проблемах. Ставка на то, возможно ли это, - ключевой вопрос для будущего ИИ.

Источники изображений: [1] [2] [3] [4]