Google начал предлагать новую услугу для «объяснимого ИИ» или XAI, как это модно называется. В настоящее время предлагаемые инструменты скромны, но намерения движутся в правильном направлении.

У ИИ есть проблема объяснимости

Искусственный интеллект призван изменить глобальную производительность, рабочие модели и образ жизни и создать огромное богатство.

Исследовательская компания Gartner ожидает, что глобальная экономика ИИ вырастет примерно с 1,2 триллиона долларов в прошлом году до примерно 3,9 триллиона долларов к 2022 году, в то время как McKinsey считает, что к 2030 году глобальная экономическая активность составит примерно 13 триллионов долларов. .

Технологии искусственного интеллекта, особенно модели D eep L (DL), производят революцию в мире бизнеса и технологий с потрясающими характеристиками в одной области применения за другой - классификации изображений, обнаружение объектов, отслеживание объектов, распознавание позы, видеоаналитика, создание синтетических изображений - и это лишь некоторые из них.

Они используются в - здравоохранении, I.T. услуги, финансы, производство, автономное вождение, видеоигры, научные открытия и даже система уголовного правосудия.

Однако они похожи на что угодно, только не на классические алгоритмы / методы M достижения L заработка (ML). Модели DL используют миллионы параметров и создают чрезвычайно сложные и крайне нелинейные внутренние представления изображений или наборов данных, которые им передаются.

Поэтому их часто называют идеальными методами машинного обучения черного ящика. Мы можем получить от них очень точные прогнозы после того, как обучим их на больших наборах данных, но у нас мало надежды понять внутренние особенности и представления данных, которые модель использует для классификации конкретного изображения на категория.

Google запустил новую службу для решения этой проблемы.

Без сомнения, Google (или ее материнская компания Alphabet) очень заинтересованы в правильном развитии огромной экономики, основанной на искусственном интеллекте, как прогнозируют бизнес-аналитики и экономисты (см. Предыдущий раздел).

Компания Google, как известно, еще в 2017 году провозгласила официальную стратегическую политику« ИИ на первом месте ».

Поэтому, возможно, он испытывает давление, чтобы стать лидером отрасли в стремлении сделать ИИ менее загадочным и более доступным для широкой пользовательской базы - предлагая услуги в виде объяснимого ИИ.

Что такое объяснимый ИИ (или xAI)?

Идея такая простая, как следует из названия. Вы хотите, чтобы ваша модель выдавала не только прогнозы, но и некоторые объяснения, почему прогнозы оказались именно такими.

Но зачем это нужно?

Эта статья освещает некоторые существенные моменты. Основные причины, по которым системы ИИ предлагают объяснимость:

  • Улучшение читабельности
  • Определить обоснованность принятого машиной решения.
  • Чтобы помочь в принятии решения о подотчетности, ответственности, ведущей к правильной разработке политики
  • Избегайте дискриминации
  • Уменьшить социальную предвзятость

Вокруг этого все еще ведется много споров, но все больше приходит к выводу, что оправдание после предсказания - неправильный подход. Цели объяснимости должны быть встроены в модель / систему ИИ на этапе проектирования ядра и должны быть неотъемлемой частью системы, а не приложением.

Было предложено несколько популярных методов.

  • Лучшее понимание данных - интуитивно понятная визуализация, показывающая отличительные особенности
  • Лучшее понимание модели - визуализация активации слоев нейронной сети.
  • Лучшее понимание психологии и поведения пользователей - включение моделей поведения в систему наряду со статистическим обучением и получение / объединение соответствующих данных / объяснений по ходу дела

Даже DARPA запустило целую программу по созданию и разработке этих принципов и алгоритмов XAI для будущих систем защиты, основанных на AI / ML.

Цели объяснимости должны быть встроены в модель / систему ИИ на этапе проектирования ядра.

Прочтите эту статью для подробного обсуждения концепции.



Google Cloud надеется лидировать в xAI

Google - лидер в привлечении талантов в области искусственного интеллекта и машинного обучения, а также бесспорный гигант в современной мировой экономике, основанной на информации. Однако его облачные сервисы занимают третье место по сравнению с Amazon и Microsoft.

Однако, как указывается в этой статье, хотя традиционные войны инфраструктура как услуга в значительной степени решены, новые технологии, такие как AI и ML, открыли перед игроками поле для новых тем, стратегий и подходов к попробуй.

Основываясь на этих взглядах, на мероприятии в Лондоне на этой неделе подразделение облачных вычислений Google представило новый объект, который, как он надеется, даст ему преимущество над Microsoft и Amazon.

Известный исследователь ИИ профессор Эндрю Мур представил и объяснил эту услугу в Лондоне.

Из своего официального блога,

«Объяснимый искусственный интеллект - это набор инструментов и фреймворков, которые помогут вам разработать интерпретируемые и инклюзивные модели машинного обучения и уверенно их развернуть. С его помощью вы можете понять атрибуцию функций в таблицах AutoML и платформе AI и визуально исследовать поведение модели с помощью инструмента What-If ».

Изначально - скромные цели

Изначально цели и возможности довольно скромные. Сервис предоставит информацию о производительности и потенциальных недостатках моделей обнаружения лиц и объектов.

Однако со временем GCP надеется предложить более широкий набор идей и визуализаций, которые помогут сделать внутреннюю работу своих систем искусственного интеллекта менее загадочной и более заслуживающей доверия для всех.

Новые технологии, такие как AI и ML, открыли перед игроками облачных сервисов поле для новых тем, стратегий и подходов, которые можно опробовать.

Профессор Мур откровенно признал, что системы искусственного интеллекта доставили трудности даже лучшим умам в Google в вопросе объяснимости.

«Одна из вещей, которая сводит нас с ума в Google, - это то, что мы часто создаем действительно точные модели машинного обучения, но мы должны понимать, почему они делают то, что делают. И во многих крупных системах, которые мы создали для наших смартфонов, для наших систем ранжирования в поиске или систем ответов на вопросы, мы внутренне упорно трудились, чтобы понять, что происходит. "

Один из способов, которым Google надеется дать пользователям лучшее объяснение, - это использование так называемых модельных карточек.

Google предлагал анализ сценария What-If tool. Они побуждают пользователей объединять новые инструменты объяснимости с этой структурой анализа сценариев.

«Вы можете связать объяснения ИИ с нашим инструментом« Что, если », чтобы получить полное представление о поведении вашей модели», - сказала Трейси Фрей, директор по стратегии в Google Cloud.

А пока это бесплатное дополнение. Объясняемые инструменты AI бесплатно предоставляются пользователям AutoML Tables или AI Platform.

Для получения более подробной информации и исторической перспективы, пожалуйста, прочтите этот замечательный технический документ.

В целом это звучит как хорошее начало. Хотя не все, даже в Google, в восторге от самой идеи xAI.

Предвзятость и аудит?

Некоторые говорят, что предвзятость - большая проблема

В прошлом Питер Норвиг, директор по исследованиям Google, говорил об объяснимом ИИ:

«Вы можете спросить человека, но, знаете ли, когнитивные психологи обнаружили, что когда вы спрашиваете человека, вы на самом деле не принимаете решения. Сначала они принимают решение, а затем вы спрашиваете, а затем они генерируют объяснение, которое может быть не истинным ».

Так что, по сути, наш процесс принятия решений ограничен психологией, и для машины он не будет исключением. Действительно ли нам нужно изменять эту механику для машинного интеллекта, и что, если полученные ответы и идеи не понравятся пользователям?

Вместо этого он утверждал, что отслеживанию и выявлению предвзятости и справедливости в процессе принятия решений машиной следует уделять больше внимания и уделять больше внимания.

Чтобы это произошло, внутренняя работа модели не обязательно является лучшим местом для изучения. Можно посмотреть на совокупность выходных решений, принимаемых системой с течением времени, и выявить конкретную модель механизмов скрытых предубеждений.

Следует ли придавать предвзятость и справедливость больше важности, чем простое объяснение будущих систем искусственного интеллекта?

Если вы подаете заявку на ссуду и получаете отказ, объяснимая служба искусственного интеллекта может выплюнуть заявление вроде: «ваша заявка на ссуду была отклонена из-за отсутствия достаточных доказательств дохода». Однако любой, кто построил модели машинного обучения, знает, что процесс не является таким одномерным, и конкретная структура и веса математических моделей, которые приводят к такому решению (часто в виде ансамбля), зависят от собранного набора данных, который может быть предвзятым. против определенной части общества в том, что касается доходов и экономической мобильности.

Таким образом, будут бушевать дебаты об относительной важности наличия простой системы, демонстрирующей элементарные, размытые объяснения, и построения системы с меньшей предвзятостью и гораздо более высокой степенью справедливости.

Внешний автоматизированный аудит?

Чтобы сделать системы ИИ более понятными (или, по крайней мере, более подотчетными), некоторые предложили автоматизированные, масштабируемые системы внешнего аудита для управления решениями, принимаемыми платформами ИИ черного ящика. Орен Эциони из Института ИИ Аллена предлагает такой подход здесь.



Если у вас есть какие-либо вопросы или идеи, которыми вы хотите поделиться, свяжитесь с автором на tirthajyoti [AT] gmail.com. Кроме того, вы можете проверить в репозиториях GitHub автора код, идеи и ресурсы по машинному обучению и науке о данных. Если вы, как и я, увлечены искусственным интеллектом / машинным обучением / наукой о данных, пожалуйста, не стесняйтесь добавить меня в LinkedIn или подписаться на меня в Twitter.