[Примечание редактора. Это вторая из двух статей блога, посвященных тому, как отрасли адаптируют искусственный интеллект (ИИ). В двух частях мы рассмотрим искусственный интеллект для ИТ-операций (AIOps), этику искусственного интеллекта (этический ИИ), объяснимый ИИ (XAI) и периферийный ИИ.]

В первой части этой состоящей из двух частей статьи в блоге об искусственном интеллекте (ИИ) мы кратко обсудили недавнюю историю ИИ и расширенного искусственного интеллекта для ИТ-операций (AIOps), а также этику искусственного интеллекта (этический ИИ).

Во второй части мы продолжаем разговор, уделяя особое внимание объяснимому ИИ (XAI) и периферийному ИИ.

Объяснимый ИИ

Объяснимый ИИ (XAI) — это когда решение ИИ понимается людьми осмысленно и с доверием. В регулировании алгоритмов, особенно ИИ и машинного обучения (МО), это объяснение результатов алгоритма МО.

По сути, важность XAI заключается в том, чтобы объяснять решения ИИ понятным и интерпретируемым способом. Таким образом, люди могут доверять решениям ИИ.

Кроме того, в нем объясняется, как и откуда поступают данные и как они используются с соблюдением необходимых нормативных требований для завоевания доверия.

Согласно отчету 451 Research’s Voice of the Enterprise: AI/ML Use Cases 2020, «92% предприятий считают, что объяснимый ИИ важен; в то же время немногие из них построили или приобрели инструменты «объяснимости» для своих систем искусственного интеллекта».

Организации и их потребители высказывают много опасений по поводу концепции «черного ящика» в машинном обучении. Здесь даже дизайнеры не могут объяснить, почему ИИ пришел к тому или иному решению, потому что ИИ делает это сам. А параметры или гиперпараметры для достижения решения неизвестны.

Следовательно, при внедрении ИИ возникает много опасений. Организации и их потребители имеют право на объяснение, чтобы они могли понять, понять и довериться решению.

Алгоритмы, используемые в ИИ, можно разделить на алгоритмы машинного обучения «белого ящика» и «черного ящика». Модели белого ящика — это модели машинного обучения, которые обеспечивают понятные результаты для экспертов в данной области. Между тем, модели черного ящика трудно объяснить и редко понимают специалисты в предметной области.

Принципы и домены

Алгоритмы XAI обычно следуют трем принципам прозрачности, интерпретируемости и объяснимости.

Прозрачность. Это происходит, если процессы извлечения параметров модели из данных обучения и создания меток из данных тестирования могут быть описаны и мотивированы разработчиком подхода.

Интерпретируемость. Это происходит, если есть возможность понять модель машинного обучения и представить лежащий в ее основе подход к принятию решений, понятный потребителям или людям.

Объяснимость. Это набор функций интерпретируемой области, которые предоставили пример или вариант использования для принятия решения.

Некоторые из доменов, в которых преобладает XAI, включают:

  • Медицинские диагнозы
  • уголовное правосудие
  • Автономные транспортные средства
  • Текстовая аналитика
  • Торговля на основе машинного обучения

С момента своего появления в середине 20 века ИИ прошел долгий путь. То, что когда-то было чисто научной фантастикой и академическими дискуссиями, теперь стало широко распространенной технологией, используемой организациями по всему миру.

ИИ универсален, и его приложения варьируются от поиска лекарств и анализа данных пациентов до обнаружения мошенничества, привлечения клиентов и оптимизации рабочих процессов. Область применения технологии неоспорима. И организации, стремящиеся оставаться впереди своих конкурентов, все чаще внедряют его в свои бизнес-операции.

Опять же, согласно отчету 451 Research’s Voice of the Enterprise: AI/ML Use Cases 2020, «92% предприятий считают, что объяснимый ИИ важен; однако менее половины из них построили или приобрели инструменты «объяснимости» для своих систем ИИ. Это оставляет их подверженными значительному риску; без участия человека в процессе разработки модели ИИ могут генерировать необъективные результаты, которые впоследствии могут привести как к этическим, так и к нормативным проблемам».

Пограничный ИИ

Пограничный искусственный интеллект или пограничный ИИ — это алгоритмы ИИ, которые локально обрабатываются на оборудовании с использованием данных (датчиков или сигналов), захваченных или созданных на устройстве.

Облачные вычисления и граничные вычисления. Облако предполагает передачу данных по сети на централизованный сервер для обработки. Пограничные вычисления — это практика выполнения той же обработки, но на границе сети, либо на датчиках или устройствах, генерирующих данные, либо рядом с ними. Оба работают вместе.

В периферийном ИИ устройство не обязательно должно быть правильно подключено к вашей сети. Он может обрабатывать данные и принимать решения самостоятельно, без подключения.

Чтобы использовать периферийный ИИ, у вас должно быть устройство, включая микропроцессор и датчики, для сбора и отправки данных.

Почему Edge AI важен?

Edge AI может управлять операциями в реальном времени, включая создание данных, принятие решений и действий, когда важны миллисекунды. Например, работа в режиме реального времени имеет решающее значение для беспилотных автомобилей, роботов, дронов и многих других областей.

Некоторые другие преимущества и примеры:

  • Снижение энергопотребления для увеличения срока службы батареи, что имеет решающее значение для носимых устройств.
  • Снижение затрат на передачу данных за счет передачи меньшего количества данных.
  • Поскольку данные обрабатываются локально, это помогает избежать проблем с потоковой передачей и хранением данных в облаке, которое уязвимо с точки зрения конфиденциальности.
  • Аналитики прогнозируют, что в среднем 40% данных Интернета вещей (IoT) необходимо будет обрабатывать на периферии.
  • По данным Gartner, 91% сегодняшних данных обрабатывается в централизованных центрах обработки данных. Но к 2022 году примерно 74% данных, требующих анализа и действий, будут обрабатываться на периферии.

Вывод

Итак, вот оно. Некоторые характеристики ИИ, в том числе искусственный интеллект для ИТ-операций или AIOps, этика искусственного интеллекта или этический ИИ, объяснимый ИИ или XAI и пограничный ИИ, представлены для вашего исследования.

[Для переподготовки прочтите:Отраслевые тенденции в области искусственного интеллекта, часть 1]

Системные Софт Технологии могут помочь вашей организации оптимизировать бизнес-процессы с помощью ИИ (и роботизированной автоматизации процессов). Мы стремимся к тому, чтобы вы достигли целей по доходам, эффективно использовали ресурсы и снизили эксплуатационные расходы.

[Посмотрите вебинар по запросу: Как предприятия малого и среднего бизнеса преодолевают барьеры автоматизации]

System Soft проводит с вами двух-трехчасовой семинар, чтобы изучить вашу ситуацию. Затем мы сотрудничаем с вами, чтобы найти ответы на ваши вопросы и разработать стратегию решения ваших проблем.

Нажмите здесь, чтобы узнать больше о нашем бесплатном семинаре. Для получения бесплатной консультации свяжитесь с Раджешем Патилом по адресу [email protected].

[Посмотрите вебинар по запросу: Преодоление шумихи вокруг гиперавтоматизации]

[Читать: Дистилляция интеллектуальной автоматизации]

[Читать: Подходит ли ИИ для организаций по сравнению с организациями, использующими ИИ правильно?]

Об авторе: Раджеш Патил

Раджеш Патил — директор по интеллектуальной автоматизации компании System Soft Technologies. Раджеш имеет более чем 20-летний опыт работы в отрасли, помогая организациям пройти обширный путь трансформации, уделяя особое внимание совершенствованию процессов. Он разбирается в роботизированной автоматизации процессов (RPA), интеллектуальной автоматизации, жизненном цикле E2E-продаж, архитектуре решений и предоставлении автоматизации в различных вертикалях.