Ответственный искусственный интеллект

Ответственный ИИ — это практика проектирования, разработки и развертывания ИИ с благими намерениями для расширения возможностей пользователей и бизнеса, а также справедливого воздействия на пользователей и общество. Ответственный ИИ — это структура управления, которая помогает организации решать проблемы ИИ с разных сторон — технических, этических, правовых и социальных. Ниже приведены семь ключевых принципов построения ответственной системы искусственного интеллекта.

Справедливость

Мы живем в обществе, которое несправедливо и предвзято по-разному, и системы искусственного интеллекта, которые мы создаем, должны помочь уменьшить несправедливость в обществе, а не усугубить ее. В системах ИИ нет единого определения справедливости, однако на базовом уровне справедливость означает защиту отдельных лиц и групп от дискриминации, предвзятости и жестокого обращения. Справедливость — это не только техническая проблема, но и контекст, в котором система развертывается и работает, имеет огромное значение для обеспечения справедливости в системах ИИ. Несправедливость в системах также может иметь широкомасштабные последствия и может проявляться в разных секторах и обществах, поэтому крайне важно работать над созданием систем, которые являются справедливыми и инклюзивными для всех.

Безопасность

Безопасность и защищенность лежат в основе любой системы ИИ, и хорошо спроектированные системы не должны наносить вред миру и вести себя так, как задумано. Хорошим примером является беспилотный автомобиль, в котором, если развернутая система ИИ не на 100% надежна и безопасна, это может привести к авариям. Другим примером является неправильное предсказание модели в диагностике здравоохранения, которая может привести к гибели пациентов. Системы ИИ — это обучающиеся системы, в которых они учатся на огромном количестве данных и склонны к ошибкам. Системы должны четко определять количество рисков и вреда и информировать об этом конечных пользователей. Хакеры могут атаковать системы ИИ, а в системе ИИ сложно заранее предсказать все сценарии. По мере совершенствования технологий злоумышленники будут находить новые средства атаки, поэтому новые решения необходимо разрабатывать одновременно.

Конфиденциальность

ИИ увеличил зависимость от данных пользователей для обучения и развития и усложнил систему для ответственного и безопасного управления данными пользователей. Системы искусственного интеллекта учатся на обучающих данных, а данные могут быть конфиденциальными и соответствовать различным законам о защите данных, таким как GDPR. Хорошо спроектированная система искусственного интеллекта сводит к минимуму данные, необходимые для обучения, и удаляет данные, когда они больше не нужны, чтобы избежать потенциальных последствий для конфиденциальности. Еще один известный метод снижения зависимости от данных — запуск моделей на периферии или локально на устройстве, чтобы данные оставались ближе к конечным пользователям, что устраняет потенциальную уязвимость. Когда данные перемещаются через различные системы и путь становится длиннее, также возрастает вероятность взлома и уязвимости данных.

Инклюзивность

ИИ может помочь изменить то, как мы работаем, и уменьшить тенденции и предубеждения, которые подрывают способность организаций улучшать разнообразие и инклюзивность. Системы искусственного интеллекта должны расширять возможности мира и гарантировать, что широкий спектр сообществ будет преднамеренно включен, и никто не будет упущен. Хорошо известным примером инклюзивности в ИИ является преобразование речи в текст, охватывающее огромное количество сообществ и языков, особенно когда сообщества недостаточно обслуживаются.

Прозрачность

Прозрачность означает, что люди, создающие системы ИИ, должны быть открытыми в отношении того, почему и как разрабатываются системы ИИ, чтобы завоевать доверие конечных пользователей. Суть прозрачности заключается в том, что результаты работы системы ИИ можно объяснить и сообщить конечным пользователям. Хорошо спроектированная система искусственного интеллекта обеспечивает продуманную отладку и объяснение для конечных пользователей. Это позволяет людям увидеть, были ли модели тщательно оценены и имеют ли смысл, и что они могут понять, почему принимаются те или иные решения. Хорошо известным примером в рекламе является функция «Почему я это вижу», в которой, если реклама отображается пользователям, система ИИ должна помочь объяснить пользователю данные, используемые для таргетинга этой рекламы. «Путь кода» к отладке может включать миллионы параметров и операций, и сложнее выделить одну конкретную ошибку, приводящую к неверным решениям. Однако при хорошем дизайне ИИ эти миллионы значений можно отследить до обучающих данных или смоделировать внимание к конкретным данным или функциям, что приведет к обнаружению ошибки.

Подотчетность

Обучение и разработка систем ИИ сложны, а результат систем может быть непредсказуемым. Несмотря на всю сложность и неопределенность, подотчетность систем особенно важна для создания правильных технологий и инструментов, и кто-то несет ответственность, когда модель машинного обучения предсказывает неверный результат. Подотчетность также ищет убедительные доказательства управления на организационном уровне, включая четкие цели и задачи для системы ИИ, четко определенные роли, обязанности и линии полномочий.

Ориентирован на человека

Искусственный интеллект, ориентированный на человека, включает в себя системы, которые постоянно совершенствуются благодаря человеческому вкладу, обеспечивая при этом эффективный опыт. Разрабатывая машинный интеллект с целью понимания человеческого языка, эмоций и поведения, ИИ, ориентированный на человека, раздвигает границы ранее ограниченных решений искусственного интеллекта, чтобы преодолеть разрыв между машинами и людьми. Этот подход позволяет проводить проверки в системе, в которой ни человек, ни машина не являются полностью автономными, что упрощает определение способов сделать результаты более инклюзивными.