AI заново изобретает способ ведения своей деятельности страховыми компаниями. 75 процентов из них планируют использовать ИИ для автоматизации задач в большой или очень большой степени в ближайшие три года.

И оно того стоит! Расчеты Accenture показывают, что страховой сектор может получить повышение годовой прибыльности на 10–20 процентов за счет инвестиций в интеллектуальные решения. Только в Северной Америке это будет стоить от 10,4 до 20,8 млрд долларов в год.

При использовании алгоритмов машинного обучения в процессах страхования (урегулирование претензий, управление продажами, оценка рисков и т. Д.) Одним из основных действующих европейских правил является GDPR (Общая защита данных Регламент), положение в законодательстве ЕС о защите данных и конфиденциальности. Даже если GDPR в основном регулирует использование данных, он также косвенно касается алгоритмов.

Вот четыре вещи, на которые страховые компании, занимающиеся прежде всего искусственным интеллектом должны обращать внимание при использовании алгоритмов машинного обучения для принятия решений.

# 1 - Будьте осторожны при использовании особых категорий персональных данных в алгоритмах машинного обучения.

GDPR рассматривает личные данные как разумные. Но есть определенные типы персональных данных, которые даже более разумны - это так называемые особые категории персональных данных. Они прямо перечислены в статье 9. Данные показывают:

  • расовое или этническое происхождение,
  • политические взгляды,
  • религиозные или философские убеждения,
  • членство в профсоюзе

А также: генетические данные, биометрические данные с целью однозначной идентификации физического лица, данные, касающиеся здоровья, или данные, касающиеся половой жизни или сексуальной ориентации физического лица.

Обработка этих особых категорий данных запрещена по умолчанию, за исключением особых случаев, упомянутых в статье 9, например, когда пользователь дал явное согласие на обработку для одной или нескольких указанных целей.

№2 - Будьте готовы предоставить «значимую информацию о задействованной логике» в процессе автоматизированного принятия решений.

Статьи 13, 14 и 15 GDPR требуют от страховщика предоставить значимую информацию о логике автоматизированных решений с использованием личных данных. Это не обязательно сложное объяснение используемых алгоритмов или раскрытие всего алгоритма. Однако предоставленная информация должна быть достаточно полной, чтобы клиент мог понять причины такого решения.

На практике, когда автоматизированные решения принимаются на основе моделей машинного обучения, существуют разные методы их объяснения. В настоящее время это горячая область исследований. Узнайте больше об этом в нашем предыдущем посте.

# 3 - В некоторых случаях ожидайте, что сотрудники будут в курсе

В некоторых случаях страховые клиенты имеют право не подвергаться решению, основанному исключительно на автоматизированной обработке (статья 22 GDPR).

Пример приведен в документе GDPR, описывающем руководящие принципы и передовой опыт применения регламента:

Скажем, автоматизированный процесс дает рекомендацию относительно клиента. Если человек рассматривает и принимает во внимание другие факторы при принятии окончательного решения, это решение не будет основываться исключительно на автоматизированной обработке. .

Вот почему мы - в Zelros - горячо поддерживаем Расширенных сотрудников, позволяя экспертам-людям управлять ИИ. Мы глубоко верим, что

человеческий опыт + искусственный интеллект сильнее человеческого опыта или одного только искусственного интеллекта.

# 4 - Идите дальше и подумайте об оценке воздействия на дискриминацию
(DIA)

В качестве ключевого инструмента подотчетности статья 35 GDPR вводит Оценка воздействия на защиту данных (DPIA). Это способ показать, что были приняты соответствующие меры для устранения рисков, связанных с автоматическим принятием решений, и продемонстрировать соответствие GDPR.

Однако DPIA защищает личные данные и отдельные темы, но не группы.

Даже если разумные личные данные (например, этническое происхождение) неизвестны или удалены при обучении модели машинного обучения, разумная информация может неявно содержаться в оставшихся несущественных данных и участвовать в предвзятости решения .

Допустим, страховщики обучили модель машинного обучения обнаруживать претензии, которые могут быть урегулированы без какой-либо человеческой нужды. Даже если эта модель не использует никаких переменных, касающихся этнического происхождения, как оценить, что к этническим меньшинствам система обращается одинаково?

Вот почему в Докладе французского правительства Виллани об искусственном интеллекте в дополнение к GDPR DPIA была представлена ​​идея оценки воздействия дискриминации.

Мы расскажем об этом больше в следующей статье, следите за обновлениями!

Хотите узнать, как эти передовые практики интегрированы в платформу Zelros AI for Augmented Insurers? Запросить демо!

Хотите присоединиться к нашей команде? Ознакомьтесь с нашими открытыми вакансиями!