В науках о жизни мы быстро приближаемся к тому времени, когда использование искусственного интеллекта и машинного обучения (ИИ/МО) станет отраслевой нормой.

Буквально в прошлом году международная команда продемонстрировала, что разработанная ими система искусственного интеллекта способна выявлять рак молочной железы, а в некоторых случаях превосходила медицинских экспертов. 1Эта технология еще не готова для клинического использования, но ее успех иллюстрирует потенциал ИИ для улучшения нашей работы, поскольку мы стремимся улучшать и спасать жизни.

Влияние искусственного интеллекта будет огромным, и единственное, что вырисовывается выше, — это наша обязанность ответственно относиться к нашему подходу к искусственному интеллекту и машинному обучению.

Как и многие практикующие врачи, которые клянутся не причинять вреда, технические специалисты в области биологических наук должны придерживаться столь же высоких стандартов для ИИ/МО. Поскольку мы устанавливаем планку, она должна быть выше, чем в других секторах — от этого зависят жизни.

Формируйте доверие с помощью ответственного ИИ

Исторически сложилось так, что люди склонны не доверять новым технологиям, и опасения по поводу них растут вместе с увеличением сложности. Хотя проблемы, связанные с тем, чтобы помочь людям доверять новым технологиям и внедрять их, не уникальны, сложности ИИ и последствия того, что ему доверяют множество данных для информирования его процесса обучения, являются неизведанной территорией. Accenture сообщила, что наиболее распространенные опасения, связанные с ИИ, включают:

  • Перемещение рабочей силы
  • Потеря конфиденциальности
  • Возможные предубеждения при принятии решений
  • Отсутствие контроля над автоматизированными системами и роботами2

Ответственный ИИ обеспечивает строительные блоки для фундамента доверия, без которого ИИ никогда не получит широкого распространения. Поскольку доверие имеет такой большой вес, технологические лидеры, включая Google и Microsoft, создали ответственные модели искусственного интеллекта, чтобы помочь организациям найти эффективные методы решения упомянутых выше проблем. Хотя глобального стандарта еще нет, большинство ответственных моделей ИИ обладают качествами, подобными тем, которые обсуждаются здесь, и все они направлены на то, чтобы успокоить страх, создавая преднамеренную структуру, ориентированную на человека, приватную, беспристрастную и прозрачную.

Ориентирован на человека. Распространенное заблуждение состоит в том, что ИИ может заменить людей, но они по-прежнему будут играть важную роль. Например, ответственная модель искусственного интеллекта Accenture требует, чтобы люди следили за работой алгоритмов, чтобы защитить себя от многочисленных проблем, таких как предвзятость и непреднамеренные последствия. 3

Конфиденциальность. Данные необходимы для эффективного машинного обучения, но личная конфиденциальность никогда не может быть нарушена. В биологических науках мы часто имеем дело с конфиденциальными данными, и наша непоколебимая приверженность конфиденциальности и безопасности должна оставаться неизменной.

Беспристрастность. ИИ, опирающийся на предвзятый источник данных, будет делать предвзятые выводы, а принятие решений на основе искаженных данных может быть особенно опасным в нашей области. PwC отмечает, что одним из компонентов ответственного ИИ является более глубокое осознание предвзятости и принятие корректирующих мер для улучшения процесса принятия решений в системе. 4

Прозрачность. Недоверие к технологии может быть вызвано непониманием того, как она работает, поэтому человек или сам инструмент должны быть в состоянии объяснить результаты и то, как был сделан конкретный вывод. Институт этического ИИ и машинного обучения призывает людей разрабатывать инструменты «для постоянного повышения прозрачности и объяснимости моделей машинного обучения там, где это целесообразно». 5

В конечном итоге эти стандарты будут определены и описаны регулирующими органами. На данный момент, однако, для отрасли выгодно установить собственную согласованную структуру и определения общих терминов в рамках модели, чтобы помочь информировать правила, которые будут предложены.

Путь к внедрению ответственного ИИ

Глобальные стандарты для ответственного искусственного интеллекта предрешены. Остальные вопросы касаются масштаба, сроков и того, какой регулирующий орган или органы выпустят руководство, которое заставит остальной мир последовать их примеру. Что касается последнего, то в настоящее время лидерами являются США и Европейский союз (ЕС).

Только в 2021 году и США, и ЕС добились значительных успехов:

  • 12 января — Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) опубликовало свой первый «План действий по использованию программного обеспечения на основе искусственного интеллекта/машинного обучения (AI/ML) как медицинского устройства (SaMD)». 6
  • 31 марта. Как сообщает Harvard Business Review (HBR), «пять крупнейших федеральных финансовых регуляторов в США выпустили запрос на информацию о том, как банки используют ИИ, сигнализируя о появлении нового руководства для финансового сектора». 7
  • 19 апреля — Федеральная торговая комиссия США (FTC) опубликовала то, что в статье HBR было названо «необычно смелым набором руководящих принципов в отношении правды, справедливости и справедливости в ИИ».
  • 21 апреля — Европейская комиссия опубликовала предложение по правилам ИИ.

Правовая база Европейской комиссии является первой в своем роде и призывает к подходу к ИИ, основанному на оценке рисков, и объявление о ее выпуске включало заявление, объясняющее, что они стремятся установить глобальные нормы. 8С созданием Общего регламента по защите данных (GDPR) ЕС установил планку безопасности данных, и вполне возможно, что они смогут повторить эффективность ответственного ИИ.

Их предложение вызвало неоднозначную реакцию. Брукингс отметил, что некоторые части этой структуры верны, но некоторым темам, таким как честность алгоритмов, не уделяется должного внимания, а общее мнение в Силиконовой долине заключается в том, что новые технологии не должны регулироваться. 9Советник по национальной безопасности США Джейк Салливан выразил свою поддержку через социальные сети и написал в Твиттере: «Соединенные Штаты приветствуют новые инициативы ЕС в области искусственного интеллекта. Мы будем работать с нашими друзьями и союзниками над созданием надежного ИИ, который отражает наши общие ценности и приверженность защите прав и достоинства всех наших граждан». 10

Прежде чем предложение станет законом, Европейский парламент и государства-члены должны внести свой вклад, и если GDPR является каким-либо признаком, внедрение правил ИИ будет длительным процессом. GDPR был предложен в 2012 г., одобрен парламентом четыре года спустя и стал законом в 2018 г. 11

Поскольку международное руководство продолжает формироваться, многие страны, включая Канаду, Францию, Россию и Китай, установили свои собственные правила или стандарты. США стремятся сделать то же самое с помощью проекта меморандума под названием «Руководство по регулированию приложений искусственного интеллекта», который был выпущен в 2019 году, и в следующем году были запрошены комментарии. 12Учитывая нынешние темпы, вскоре можно ожидать еще одну итерацию руководства.

Вывод

Находясь на пороге трансформации, вы получаете уникальную выгодную позицию, с которой можно рассматривать наши насущные и будущие потребности. Если ответственный ИИ хочет добиться успеха, наша непосредственная цель должна заключаться в продолжении разработки разумных нормативных указаний, основанных на информации отрасли. После того, как структура ответственного ИИ и нормативных требований будет создана, она должна развиваться вместе с развитием технологий, обеспечивая тем самым непрерывный успех.

В секторе наук о жизни одна из наиболее насущных потребностей для долгосрочного успеха заключается в том, чтобы мы пришли к соглашению сегодня — параметры ответственного ИИ в любой момент времени должны служить только отправной точкой. Характер работы требует, чтобы мы придерживались более высоких стандартов.

Например, нам нужно сохранять бдительность в отношении положительных и отрицательных последствий выбора, сделанного на основе ИИ. Это требует от нас разработки новых подходов к проверке и подтверждению выбора, основанного на ИИ, и обеспечения того, чтобы модели данных, на основе которых принимаются эти решения, были высшего качества. Только высокие идеалы могут гарантировать, что ИИ будет эффективным в нашей работе по улучшению и спасению жизней.

Источники:

  1. Международная оценка системы ИИ для скрининга рака молочной железы, С.М. МакКинни, М. Синек и др., Nature, 1 января 2020 г.
  2. Ответственный искусственный интеллект: основа для укрепления доверия к вашему решению искусственного интеллекта, Доминик Дельмолино и Мими Уайтхаус, Accenture, 2018 г.
  3. Примечание 2 выше.
  4. Ответственный искусственный интеллект PwC, PwC.
  5. Принципы ответственного машинного обучения, Институт этического ИИ и машинного обучения.
  6. FDA выпускает план действий по искусственному интеллекту / машинному обучению, Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США, 12 января 2021 г.
  7. Грядут новые правила ИИ. Готова ли ваша организация?, Эндрю Берт, Harvard Business Review, 30 апреля 2021 г.
  8. Европа, готовая к цифровому веку: Комиссия предлагает новые правила и действия для достижения совершенства и доверия к искусственному интеллекту, Европейская комиссия, 21 апреля 2021 г.
  9. Машины узнают, что Брюссель пишет правила: новый регламент ЕС по ИИ, Марк Маккарти и Кеннет Пропп, Брукингс, 4 мая 2021 г.
  10. Соединенные Штаты приветствуют новые инициативы ЕС…, Джейк Салливан, Твиттер, 21 апреля 2021 г.
  11. Что такое GDPR? Краткое руководство по соблюдению GDPR в Великобритании, Мэтт Берджесс, Wired, 24 марта 2020 г.
  12. Запрос комментариев по проекту меморандума руководителям исполнительных департаментов и агентств «Руководство по регулированию приложений искусственного интеллекта, Федеральный реестр, 13 января 2020 г.

Раджеш Талпаде — старший вице-президент по продуктам в MasterControl. Он отвечает за управление продуктами и дизайн, чтобы позволить глобальным компаниям медико-биологических наук быстрее предлагать продукты, меняющие жизнь, большему количеству людей. До MasterControl Талпаде занимал должность вице-президента по продуктам в Clarifai, компании, занимающейся искусственным интеллектом, которая использует машинное обучение и глубокие нейронные сети для идентификации и анализа изображений и видео. Талпаде также ранее работал в Google в течение почти шести лет, где он работал над мобильными рекламными продуктами, сетями доставки контента и продуктами управления сетью для крупнейшей глобальной IP-сети, которые опирались на опыт Google в области машинного обучения для повышения ценности, предоставляемой клиентам.

Первоначально опубликовано на https://www.mastercontrol.com.