Следите за предубеждениями в ваших системах искусственного интеллекта: иногда это вопрос жизни или смерти.

Введение

Не знаю, как вы, но мой первый контакт с ИИ был в фильмах, полных интеллектуальных роботов. Их действия заставили меня поверить, что весь мир будет завоеван этими разъяренными машинами.

Но с тех пор моя вера изменилась, потому что теперь я верю, что ИИ может добиться большего, чем попытка уничтожить мир.

ИИ может улучшить здравоохранение и спасти миллионы жизней по всему миру.

Но что такое ИИ 🤖?

Существует несколько определений того, что такое ИИ, и большинство из них сходятся в одном и том же значении. Вот мое определение ИИ в трех пунктах.

  • Это процесс обучения алгоритмов действовать как люди, используя большие и сложные наборы данных.
  • Он учится на данных в процессе обучения, чтобы быть стабильным для лучшего принятия решений.
  • Эти модели, когда-то обученные на очень больших данных о пациентах, могут делать даже более точные прогнозы, чем настоящие люди-эксперты.

Например, в здравоохранении ИИ используется для постановки правильного диагноза и рекомендаций по лечению, и все это сопровождается четким объяснением результатов.

Джеффри Хинтон, известный как крестный отец глубокого обучения, обратил внимание радиологов на это заявление в 2016 году:

Люди должны прекратить обучать рентгенологов прямо сейчас. Совершенно очевидно, что через 5 лет глубокое обучение станет лучше, чем рентгенологи.

Затем, год спустя, CheXNet и 6 рентгенологов из Стэнфордского университета сделали 50 рентген грудной клетки для выявления пневмонии в недавнем тесте после обучения на тысячах изображений (пневмония и отсутствие пневмонии). И угадайте, что: ChexNet выиграл с 81% accuracy против 79% accuracy of the 6 Radiologists .

Модель получила десятки тысяч изображений (пневмония и отсутствие пневмонии) для обучения.

Это один из многих проектов, демонстрирующих, как ИИ может выполнять задачи, обычно выполняемые врачами. Производительность говорит о том, насколько эти алгоритмы становятся лучше в диагностике заболеваний, а иногда даже с гораздо большей производительностью, как показано выше.

Подождите, вы говорите нам, что ИИ — это вершина всех совершенств в здравоохранении?

Нет, ИИ — это не только слава в здравоохранении.

Несмотря на все эти обещания, использование ИИ не лишено юридических рисков. На этих двух примерах мы можем проиллюстрировать, как ИИ привел к дискриминации людей в сфере здравоохранения. Подробнее об этих двух случаях вы можете узнать из новостей Как смягчить алгоритмическую предвзятость в здравоохранении.

Как вы, возможно, знаете, расовая предвзятость все еще остается проблемой, но становится еще хуже, когда она передается в здравоохранение, потому что здесь это вопрос жизни или смерти.

Первый случай → UnitedHealth Group

Optum (группа UnitedHealth) разработала коммерческий алгоритм, чтобы определить, какие пациенты нуждаются в дополнительной медицинской помощи (пациенты с наибольшей медицинской потребностью).

Предвзятость в алгоритме уменьшила количество чернокожих пациентов, нуждающихся в дополнительной помощи, более чем наполовину, и сделала ложный вывод о том, что чернокожие пациенты здоровее, чем такие же больные белые пациенты.

Почему это произошло?

Любая явная расовая информация (например, цвет кожи, почтовый индекс и т. д.) фактически использовалась в процессе обучения алгоритма. Но раса коррелировала с другими факторами, такими как исторические расходы на здравоохранение, для оценки будущих потребностей в здравоохранении, что заставляло ее отражать экономическое неравенство, а не истинные медицинские потребности пациентов.

По данным Kaiser Family Foundation (KFF)…

  • Домохозяйства чаще выделяют около 1% годового бюджета на здравоохранение.
  • Средние расходы на здравоохранение для жилья для малоимущих составляют 235 долларов по сравнению с 2401 долларом на частную страховку.

Зная, что Optum поддерживает здравоохранение, соединяя и обслуживая всю систему здравоохранения в 150 странах, мы уже можем себе представить, какое влияние такое предубеждение может оказать на жизнь людей.

Второй случай → Открытие лекарства от Covid-19

Во время Covid-19 была разработана система искусственного интеллекта для сортировки пациентов и ускорения открытия новой вакцины.

Система искусственного интеллекта смогла с точностью от 70 до 80% предсказать, у каких пациентов может развиться тяжелое заболевание легких.

Проблема с этой системой ИИ заключается в том, что процесс сортировки основывался исключительно на симптомах и существовавших ранее состояниях пациентов, что может быть предвзятым из-за различий, основанных на расе и социально-экономическом статусе.

5 стратегий для уменьшения предвзятости алгоритма

Модели ИИ быстро развивались на протяжении многих лет. В то же время мы также видели много ошибок. Предубеждения в системах ИИ в конечном итоге способствуют созданию несправедливого общества.

Следующие пять стратегий (не исчерпывающий список) могут быть адаптированы для смягчения этих предубеждений.

  1. Сбор и использование разнообразных обучающих данных. Одной из основных причин систематической ошибки в алгоритмах является использование обучающих данных, которые не являются репрезентативными для реального населения. Чтобы смягчить это, важно собирать и использовать разнообразные обучающие данные, которые точно отражают демографию, происхождение и характеристики населения, для которого будет использоваться алгоритм.
  2. Проверка алгоритма на предвзятость. После обучения алгоритма важно проверить его на предвзятость, чтобы убедиться, что он принимает справедливые и непредвзятые решения. Это можно сделать с помощью различных методов, в том числе путем проведения аудита предвзятости и использования показателей справедливости для измерения производительности алгоритма.
  3. Использование методов алгоритмической справедливости. Существует несколько методов алгоритмической справедливости, которые можно использовать для уменьшения систематической ошибки в алгоритмах, включая алгоритмы предварительной обработки, которые корректируют данные для уменьшения систематической ошибки, алгоритмы обработки, которые вносят коррективы в процессе обучения, и алгоритмы постобработки, которые корректируют вывод алгоритма, чтобы сделать его более справедливым.
  4. Обеспечение прозрачности и подотчетности. Еще один важный шаг в снижении предвзятости в алгоритмах – обеспечение их прозрачности и подотчетности. Это означает предоставление четких объяснений того, как работает алгоритм, регулярный пересмотр и обновление алгоритма для устранения любых предубеждений, которые могли быть введены, и предоставление людям механизмов для оспаривания решений, принятых алгоритмом.
  5. Взаимодействие с различными заинтересованными сторонами. Наконец, важно взаимодействовать с различными заинтересованными сторонами, включая отдельных лиц и сообщества, которые могут быть затронуты алгоритмом, чтобы понять их точки зрения и учитывать их отзывы при разработке и реализации алгоритма. Это может помочь гарантировать, что алгоритм является справедливым и беспристрастным и что он точно отражает потребности и интересы населения, для которого он будет использоваться.

Ограничения этих лучших практик.

Предубеждения существуют в разных формах и формах, с ними может быть сложно справиться, и они могут возникать на разных этапах жизненного цикла разработки.

  • Историческая погрешность: возникает, когда данные, собранные для обучения системы ИИ, больше не отражают текущую реальность. Например, несмотря на то, что гендерныйразрыв в оплате труда по-прежнему актуален, в прошлом он был еще хуже.
  • Смещение представления: этот тип смещения возникает в зависимости от того, как обучающие данные определяются и выбираются из совокупности. Примером этого сценария являются данные, используемые для обучения первой системы распознавания лиц, в основном основанной на белых лицах, что приводит к тому, что модели трудно распознавать черные лица и другие темнокожие лица.
  • Смещение измерения: происходит, когда характеристики данных обучения или измерения отличаются от реальных данных. Это обычная проблема для систем распознавания изображений, когда данные в основном собираются с одного типа камеры, в то время как реальные данные поступают с нескольких типов камер.
  • Кодирование/человеческий фактор: чаще всего это происходит, когда ученые глубоко погружаются в проект со своими субъективными мыслями об исследовании. Например: небелые пациенты получают меньше сердечно-сосудистых вмешательств и реже пересаживают почки и темнокожие женщины чаще умирают после того, как у них диагностирован рак груди. Источник

Заключение

Важно не упускать из виду потенциальные предубеждения в ИИ для любого проекта данных, особенно в здравоохранении.

Раннее внедрение правильных систем и поддержание их на протяжении всего жизненного цикла проекта может помочь быстро выявить основные проблемы и эффективно отреагировать на них.

Помните, давайте будем очень осторожны и преднамеренны в том, как мы проектируем эти системы ИИ.

Если вам нравится читать мои истории и вы хотите поддержать меня, подумайте о том, чтобы стать участником Medium. Взяв 5 долларов в месяц, вы открываете неограниченный доступ к историям на Medium.

Не стесняйтесь подписаться на меня в Medium, Twitter и YouTube или сказать привет в LinkedIn. Всегда приятно обсудить AI, ML, Data Science, NLP и MLOps!

Дополнительные ресурсы

Расовая предвзятость в алгоритмах здоровья

COVID-19 и расовые/этнические различия