Внедрение ИИ ускорилось в 2020 году, но случаи широко разрекламированных проблем ИИ превзошли те, что были в предыдущие годы. От TikTok и OpenAI до Twitter и Zoom компании все чаще сталкиваются с проблемами PR, возникающими из-за отсутствия прозрачности и строгости в их разработке ИИ - все это в конечном итоге повлияло на доверие клиентов. Быстрая реакция пользователей подтолкнула к быстрым исправлениям и возросшему осознанию важности подотчетности в ИИ.

2021 год станет годом, когда компании примут на вооружение методы ответственного ИИ. Вот основные прогнозы для ответственного ИИ

Прогноз 1. Новые федеральные и государственные правила в отношении алгоритмической отчетности и отчетности в области ИИ

Создание лидерства и подотчетности ИИ было проблемой обеих партий - законодатели-демократы предложили в 2019 году Акт об алгоритмической подотчетности, а Белый дом недавно подписал распоряжение о поддержке заслуживающего доверия ИИ. Ранее в этом году Пентагон принял этические принципы искусственного интеллекта. Поскольку Китай соперничает за глобальное господство ИИ и постоянные проблемы ИИ в новостях, новое правительство будет вынуждено утвердить первые федеральные постановления в отношении подотчетности ИИ. Медиаисточники и сотрудники уже указали, что это в ближайшей повестке дня. В то время как ЕС и другие страны приняли упрощенные правила ИИ, хорошо разработанные американские правила могут ускорить внедрение ИИ и заложить основу для десятилетнего роста.

Предсказание 2: цензура, этические информаторы ИИ и руководители по этике

В 2020 году лидеры ИИ раздвинули границы ИИ для значительного прорыва, от GPT-3 до решения многолетней проблемы сворачивания белка. Однако неограниченный рост без учета его более широкого воздействия на человека вызывает непредвиденные последствия. Если компании не примут более ориентированный на человека подход к разработке ИИ, команды, работающие над этими достижениями, будут все чаще сталкиваться с моральными дилеммами и озвучивать недостатки своих достижений. Компании будут ограничивать эту информацию, чтобы избежать каких-либо негативных последствий для PR, в то время как они надеются смягчить проблему, что приведет к увеличению числа информаторов ИИ. Новаторы рынка наймут руководителей по этике для активного решения этой проблемы.

Прогноз 3: команды машинного обучения будут применять тестирование на предвзятость

Национальные протесты против расового неравенства пролили свет на предвзятость в обществе в 2020 году. На этом фоне множество проблем с предвзятостью ИИ в Twitter, Zoom и других компаниях заставили команды машинного обучения все больше осознавать недостатки ИИ, связанные с сохранением, усилением или даже добавлением предвзятости. Ни одна компания не привносит предвзятость в свои продукты преднамеренно - это результат неадекватных инструментов и процессов. Потребители в подавляющем большинстве требуют изменений. К счастью, в 2020 году было выпущено несколько инструментов справедливости машинного обучения с открытым исходным кодом, например: Fairlearn от Microsoft. При более сильной поддержке экосистемы команды машинного обучения охватят тестирование предвзятости даже для случаев использования, не относящихся к нормативным требованиям, в рамках своей производственной разработки. Принятие начнется с малого, при этом первоначальное внимание, вероятно, будет сосредоточено на оценке систематической ошибки, а не на смягчении ее последствий.

Прогноз 4. Мониторинг становится важной частью MLOps.

Пандемия вызвала резкий сдвиг в поведении потребителей, что повлияло на модели и застало команды врасплох. Отсутствие операционной прозрачности производственных моделей в реальном времени привело к задержке реакции команды, что повлияло на основные бизнес-показатели. По мере того, как ИИ ускоряется из лабораторий в реальном мире, руководители предприятий теперь видят необходимость в прозрачности развернутых систем ИИ, чтобы обеспечить постоянный мониторинг их показателей и отсутствие непреднамеренных обязательств, таких как предвзятость. Таким образом, как и в случае с DevOps, команды ML сделают мониторинг важной частью MLOps в 2021 году.

Прогноз 5: валидация модели машинного обучения выходит за рамки банковского дела

Федеральная резервная система и OCC санкционировали валидацию банковских моделей после финансового кризиса 2008 года. С заменой количественных моделей на модели ИИ банки применяют ту же строгость и процедуры, чтобы гарантировать надежность моделей ИИ. После многих лет исследований и разработок продукты Explainable AI наконец-то созрели для широкого применения в финансовых услугах, что привело к появлению новых ролей, таких как AI Validator в командах управления AI. С помощью этапа проверки модели банки смогли успешно ограничить непреднамеренные проблемы с ИИ и увеличить свою выручку от ИИ. Другие вертикали, такие как страхование, розничная торговля, здравоохранение и рекрутинг, примут некоторые аспекты процесса проверки этой модели, чтобы не только гарантировать надежность своих моделей, но и обеспечить прозрачность машинного обучения для своих партнерских команд в 2021 году.

2021 год станет плодотворным годом ответственного ИИ, когда компании, наконец, начнут внедрять ключевые практики с более широкой экосистемой, поддержкой со стороны правительства и конечных пользователей. Это придаст больше доверия и прозрачности продуктам искусственного интеллекта, что обеспечит их следующий этап роста.

Я пропустил прогноз? Напиши мне в Твиттере на amitpaka