Это краткое изложение главы из последней книги К. Бартнека и соавторов по этике ИИ. (2021) и было написано самостоятельно.

Этика определяет моральный набор правил, которые определяют решения человека. Что правильно, что неправильно, что морально правильно, а что морально неправильно. Этика в ИИ относится к тому, что должна делать машина или робот ИИ, чтобы быть морально правильной, и каким правилам она должна следовать.

Нормативная этика

Это общая истина, действительная для всех, например, преступление — это преступление, совершенное ли оно человеком или роботом. Выделяют следующие виды нормативной этики:

Виды этики

1. Деонтологическая этика: она касается долга и обязательств. Корпоративная социальная ответственность (CRS) подпадает под эту структуру. Основная цель – мотивация ответственности. Однако действия и результаты играют в этом второстепенную роль. И действие, и намерение важны.

2. Консеквенциалистская этика. Здесь целью являются предсказуемые последствия действия. CRS, указанный выше, не играет в этом никакой роли; здесь измеряются только определенные результаты.

3. Этика добродетели. Целью здесь является следование таким добродетелям, как мудрость, справедливость, сила духа и т. д., для достижения целей. Ключевым моментом здесь является действие с использованием достоинств как поставщика услуг, так и тех, на кого влияют действия и результаты.

Метаэтика

Это теория нормативной этики. Это теория нормативной этики, которая состоит из следующего:

1. Существование. Какие объекты в рассматриваемом мире существуют и обладают моральными свойствами?

2. Значение или семантика: связывает присвоение терминов «хорошо», «плохо», «правильно» или «неправильно» с объектами в мире.

3. Знание. Это соответствует познанию моральной истины.

Прикладная истина

Здесь принимаются этические правила. Это можно объяснить на примере этических лекарств, биоэтики и даже деловой этики, если упомянуть лишь некоторые из них. Этот термин «прикладная этика» или «истина» означает разные вещи в разных ситуациях и, следовательно, является относительной терминологией.

Взаимосвязь между этикой и правом

По мнению автора(ов), этика начинается там, где заканчивается закон. Реальные сущности тогда будут иметь юридические обязанности и этические обязанности. Авторы говорят, что некоторые юридические обязанности имеют также и этические обязанности, например, автомобили, вызывающие больше загрязнения, сейчас являются одновременно юридической и этической проблемой. Это делает этику предметом мягкого права, а правовые нормы — жесткими законами.

Машинная этика

Цель предмета «Этика машин» — определить, что необходимо для создания этического ИИ, принимающего моральные решения. Ключевое отличие состоит в том, что у людей есть чувства, а у машин нет чувств, хотя их можно добавить к машине. Цель создания машин, способных принимать моральные решения, — непростая задача. Примером может служить робот София, который считается совместным рекламным ходом.

Примеры

Цель создания машин с моралью и чувствами начинается с датчиков и устройств отслеживания ввода. Эти входные данные могут поступать в системы слежения за роботами. Например, авторы приводят такой пример, что автомобиль превысил скорость, и, следуя правилам логики, заложенным в робота, робот выписывает штраф водителю автомобиля. Однако в то же время происходили и другие события. А роботам не хватает морального принятия решений, чтобы решить, какую задачу выполнить в первую очередь, поскольку логические вычисления, необходимые для показа билета водителю автомобиля, могут занять время. Здесь автор предлагает присваивать номера коммунальных услуг всем вещам, над которыми работает робот, и может обращаться к номерам коммунальных услуг, чтобы рассчитать, что делать дальше, чтобы избежать столкновения обязанностей.

Моральное разнообразие и испытания

Тестирование и подтверждение того, что ИИ корректен и этичен, в наши дни является основной областью исследований.

Инструментарий с открытым исходным кодом AI fairness 360 и аудит-ИИ предоставляют сертификат, если программное обеспечение имеет предвзятость. Другие компании, такие как O’Neil Risk Consulting и Algorithmic Auditing, работают над тестированием Fairness Flow и проверяют, есть ли предвзятость в продуктах искусственного интеллекта.

Ссылка

К. Бартнек и др., Введение в этику в робототехнике и искусственном интеллекте, SpringerBriefs in Ethics, 2021, https://doi.org/10.1007/978-3-030-51110-4_2