Мнение

Этики искусственного интеллекта не существует

Возьмите обезболивающее, это может усложниться

Искусственный интеллект (ИИ) - это революция или война? Бог или домашнее животное? Молоток или гвоздь? Нам действительно нужно больше метафор, чтобы описать это? В настоящее время ИИ диктует, какая информация нам представляется в социальных сетях, какую рекламу мы видим и какую цены, которые мы предлагаем как онлайн, так и офлайн. Алгоритм может технически писать и анализировать книги, побеждать людей во всех возможных играх, снимать фильмы, сочинять классические песни и помогать фокусникам выполнять лучшие трюки. Помимо искусства, он также может способствовать более эффективному принятию решений, постановке медицинских диагнозов и даже решению некоторых самых насущных проблем человечества. Это переплетается с уголовным правосудием, ритейл, образование, вербовка, здравоохранение, банковское дело, сельское хозяйство, транспорт, война, страхование, СМИ… список продолжается.

Тем не менее, мы так часто заняты обсуждением тонкостей того, МОЖЕТ ли ИИ что-то делать, что редко спрашиваем, ДОЛЖНЫ ли мы вообще его проектировать.

Вот здесь-то и появляется этика. Компании и правительства в равной степени осознали, что статистика по стероидам может нанести большой вред, и изучают различные способы решения этой проблемы. с потенциальными последствиями, не влияющими на их чистую прибыль или стратегическое геополитическое преимущество. Они придумали десятки принципов, каждый из которых не имеет юридической силы, чем следующий, не сумев даже согласовать базовые рамки. Обсуждение войны, автоматизации, массовой слежки, авторитаризма имеет первостепенное значение; но эти обсуждения не могут состояться до тех пор, пока не будут согласованы ключевые этические принципы и красные линии.

Таким образом, ниже приводится «краткое» руководство по дискуссиям, связанным с искусственным интеллектом и этикой. Его цель - демократизировать общение: нам не обязательно нужны более умные люди за столом (и все, что я напишу, не будет новостью для эксперта), но нам НЕОБХОДИМО стол побольше. Или больше таблиц. Или больше мест. Или какое-то решение для видеоконференцсвязи.

Ненавижу метафоры.

Этика может означать много разных вещей

Прежде чем мы погрузимся в современную дискуссию об этике, нам сначала нужно понять, что такое этика. Этика имеет довольно простое словарное определение: «моральные принципы, регулирующие поведение человека или его деятельность».

Это все, что можно сделать, прежде чем противники вроде меня придут испортить всем удовольствие. Видите ли, даже если мы отделим нормативную этику (изучение этического действия) от ее неуклюжих собратьев - метаэтики и прикладной этики, все равно нет единого определения того, что хорошо / плохо и / или неправильно / правильно. Действительно, то, что хорошо, может быть неправильным, а то, что плохо, может быть правильным.

Вот несколько школ мысли, которые нужно знать, чтобы лучше понять, почему текущие положения по этике ИИ не имеют ничего общего с моральными принципами:

Урок 1: если компания или правительство рассказывает вам о своих этических принципах, ваш долг - копнуть и спросить, на какой этической ветви они основывают эти принципы. В таких определениях можно найти много информации.

Важно задать этот вопрос, потому что, как мы видим ниже, учреждения любят использовать слово этика, даже не приближаясь к чему-либо, напоминающему моральный принцип (регулярно проверяйте здравомыслие в заголовке этой статьи) . Однако хорошая новость заключается в том, что буквально нет корреляции между знанием этических норм и этичным поведением.

«Театр этики» поражает компании

Компании существуют, чтобы вознаграждать акционеров. По крайней мере, это философия бизнеса, которой придерживаются последние 50 лет. Таким образом, у компаний нет стимула поступать правильно или хорошо, если только их прибыль не подвергается риску. Технически для них важно только то, что клиенты считают их поступающими хорошо / правильно. Театр этики - это идея о том, что компании будут делать все возможное, чтобы ПОКАЗАТЬ, что они делают все возможное, чтобы вести себя этично, не делая этого, чтобы предотвратить негативную реакцию потребителей. Идеальный способ сделать это - объявить великие, необязательные принципы и правила, никоим образом не связанные с реальной этикой, указав на них в случае возникновения каких-либо проблем.

Ниже приведены такие принципы, определенные несколькими крупными компаниями, занимающимися искусственным интеллектом. Это ни в коем случае не является исчерпывающим (все же утомительным), но дает представление о спонсируемой корпорацией этической промывке. Эти правила обычно делятся на 4 категории.

Подотчетность / Ответственность

Назначьте ведущего должностного лица по этике ИИ (IBM), дизайнеры и разработчики ИИ несут ответственность за рассмотрение дизайна, разработки ИИ, процессов принятия решений и результатов. ( IBM ), Будьте подотчетны людям ( Google ); Системы искусственного интеллекта должны иметь алгоритмическую подотчетность (Microsoft).

Почему это ерунда: во-первых, и, как и многие из пунктов ниже, это не касается этики как таковой, даже несмотря на то, что в некоторых статьях на самом деле есть само слово в их название . Во-вторых, нигде не написано, что руководители должны нести ответственность перед законами страны, что дает им свободу делать все, что они, черт возьми, хотят. В самом деле, существует несколько законов, которые бы царствовали в ИИ, но буквально поэтому у нас есть этика; нигде не указано, по каким стандартам компании будут нести ответственность. Деонтология? Консеквенциализм? На данный момент можно только догадываться.

Прозрачность

Не скрывайте свой ИИ (IBM), Объясните свой ИИ (IBM), ИИ должен быть разработан для людей, чтобы легко воспринимать, обнаруживать и понимать процесс принятия решения ( IBM ), Системы искусственного интеллекта должны быть понятными ( Microsoft ).

Почему это ерунда: я не буду вдаваться в подробности здесь, потому что это больше технический, чем теоретический (вот краткое руководство), но ИИ по самой своей природе является черным ящиком . Для обеспечения полной прозрачности компаниям придется сделать части своего кода доступными, что уже обсуждалось, но (очевидно) категорически против. Другое решение исходит из права на объяснение GDPR и концентрируется на вводе, а не на выходе. Сказанное право требует, чтобы пользователи могли запрашивать данные, лежащие в основе алгоритмических решений, принимаемых за них. Это отличная идея, но она не реализована нигде за пределами Европы.

Справедливость / предвзятость

Проверьте свой ИИ на предвзятость (IBM), ИИ должен быть разработан таким образом, чтобы минимизировать предвзятость и способствовать инклюзивному представлению ( IBM ); Избегайте создания или усиления несправедливой предвзятости (Google), Системы искусственного интеллекта должны справедливо относиться ко всем людям (Microsoft).

Почему это B-S: система, созданная для поиска шаблонов в данных, может находить неправильные шаблоны. Это простейшее определение смещения искусственного интеллекта. Такое модное слово помогает компаниям уклоняться от таких острых тем, как сексизм, расизм или эйджизм. Не дай Бог им задать себе трудные вопросы или нести ответственность за набор данных, который они используют. У нас есть полное право (долг) требовать, чтобы с какими предубеждениями обращаются именно и как.

Данные и конфиденциальность

ИИ должен быть разработан для защиты пользовательских данных и сохранения полномочий пользователя в отношении доступа и использования (IBM); Соблюдайте принципы дизайна конфиденциальности (Google), системы искусственного интеллекта должны быть безопасными и уважать конфиденциальность (Microsoft).

Почему это B-S: Если бы им было все равно, они бы внедрили европейский стандарт (все приветствуют GDPR). Они не. Дело закрыто.

Во многих отчетах, которые я читал, этика упоминается только дважды:

ИИ должен разрабатываться с учетом норм и ценностей вашей группы пользователей (IBM) Мы не будем разрабатывать или развертывать ИИ в следующих областях применения: технологии, которые причинить или могут причинить общий вред. Если существует существенный риск причинения вреда, мы будем действовать только в том случае, если считаем, что преимущества существенно перевешивают риски и будут включать соответствующие ограничения безопасности. ( Google )

Это говорит нам о том, что IBM верит в прагматизм (что достаточно справедливо), в то время как Google является консеквенциалистской компанией. Это странно, потому что не делай зла, давний слоган компании, технически является деонтологией. Такая дихотомия подчеркивает вопиющую небрежность: одна из крупнейших в мире компаний определяет принципы искусственного интеллекта, которые могут иметь большое значение в обществе, одновременно идя вразрез с ее внутренней культурой. Это звучит как чрезмерный анализ, пока вы не поймете, что за последние несколько месяцев в Google было много внутренних восстаний сотрудников именно по этой причине.

Вы могли заметить, что выше названы только три компании (Google, IBM, Microsoft). Причина в том, что другим крупным компаниям искусственного интеллекта еще предстоит произвести что-либо, достойное того, чтобы их разбирали, вместо этого они предпочитают вкладывать средства в аналитические центры, которые в конечном итоге повлияют на правительства. Этот момент подчеркивает главный недостаток, общий для всех принципов: ни один из них не предполагает, что компании подчиняются обязательным правилам. Зачем же тогда компании возятся с театром этики? Первая причина, как объяснялось выше, действительно состоит в том, чтобы повлиять на правительства и направить разговор в «правильном» направлении (см. Ниже сходство стандартов между приоритетами компании и правительства). Во-вторых, это хорошо, когда клиенты и сотрудники считают себя этичным, чтобы избежать бойкотов. В-третьих, и это, возможно, самое главное, можно заработать большие деньги, установив стандарт: Патенты x универсальное использование = $$$.

Урок 2. Компании очень мало знают об этике, и у них нет стимулов занимать позицию в отношении того, что хорошо или правильно. Корпоративная этика - это оксюморон.

Таким образом, правительствам необходимо активизировать усилия, поскольку корпорации вряд ли откажутся от прибыли ради общественного блага.

Правительства делают все возможное

Есть много официальных официальных документов, но они либо чертовски расплывчаты, либо до стыда неполны. Более того, многие видят ИИ через призму экономической и геополитической конкуренции. Одним примечательным исключением является четкий акцент на этике и ответственности в стратегии и видении ЕС в области искусственного интеллекта, особенно в отношении США и Китая (оба морально дискредитированы до мозга костей). Чтобы получить общее представление о том, какой, по мнению стран, должна быть этика искусственного интеллекта, я разделил их принципы на 7 категорий, большинство из которых очень похожи на те, которые были выделены в приведенном выше анализе корпораций.

Обратите внимание, что это просто (уместное) упрощение тысяч страниц, написанных людьми гораздо более умными и информированными, чем я. Я настоятельно рекомендую прочитать связанные документы, поскольку они предоставляют подробную информацию о перечисленных принципах.

Подотчетность / Ответственность

Принцип ответственности по дизайну (Великобритания); Лица, ответственные за различные фазы жизненного цикла системы ИИ, должны быть идентифицированы и нести ответственность за результаты работы систем ИИ (…) ( Австралия) Все системы ИИ должны подлежать аудиту (Норвегия); Персонал Министерства обороны будет проявлять соответствующий уровень рассудительности и осторожности, оставаясь при этом ответственным за разработку, развертывание и использование возможностей искусственного интеллекта (Министерство обороны США); принцип ответственности (Китай); Необходимо создать механизмы для обеспечения ответственности и подотчетности за системы искусственного интеллекта и их результаты (…) (ЕС); Организации и отдельные лица, разрабатывающие, развертывающие или эксплуатирующие системы искусственного интеллекта, должны нести ответственность за их надлежащее функционирование в соответствии с вышеуказанными принципами (ОЭСР) те те, кто разрабатывает и развертывает использование ИИ, должны проявлять ответственность и прозрачность ( Ватикан ).

Подотчетен ЗА ЧЕМ ?! КОМУ?! Как удается так систематически избегать этого вопроса?

Прозрачность

Принципы прозрачности процесса и результатов (Великобритания); Должна быть прозрачность и ответственное раскрытие информации, чтобы люди знали, когда на них оказывает значительное влияние система ИИ, (…) (Австралия); Системы на основе ИИ должны быть прозрачными (Норвегия); Возможности ИИ Департамента будут развиваться и использоваться таким образом, чтобы соответствующий персонал обладал надлежащим пониманием технологии (…) (Министерство обороны США); бизнес-модели данных, системы и ИИ должны быть прозрачными (…) (ЕС); Должна быть прозрачность и ответственное раскрытие информации о системах ИИ, чтобы люди понимали результаты, основанные на ИИ, и могли оспаривать их (ОЭСР); в принципе, системы ИИ должны быть объяснимыми (Ватикан).

Как насчет того, чтобы заставить компании раскрыть, действительно ли они ДЕЙСТВИТЕЛЬНО используют ИИ?

Справедливость / предвзятость

Принцип недопустимости причинения вреда (UK); Системы искусственного интеллекта должны быть инклюзивными и доступными и не должны включать или приводить к несправедливой дискриминации в отношении отдельных лиц, сообществ или групп (Австралия); Системы ИИ должны способствовать интеграции, разнообразию и равному обращению (Норвегия); Департамент предпримет целенаправленные шаги для минимизации непреднамеренного предвзятости в возможностях искусственного интеллекта (Министерство обороны США); Следует избегать несправедливой предвзятости, поскольку она может иметь множество негативных последствий, от маргинализации уязвимых групп до обострения предрассудков и дискриминации (…) (ЕС ); не создают и не действуют в соответствии с предубеждением, тем самым защищая справедливость и человеческое достоинство ( Ватикан ).

Напоминаем, что предвзятости можно избежать, убедившись, что вводимые данные являются репрезентативными и не отражают существующие в реальности предрассудки.

Данные и конфиденциальность

Системы искусственного интеллекта должны уважать и поддерживать права на конфиденциальность и защиту данных, а также обеспечивать безопасность данных ( Австралия"); «AI должен учитывать конфиденциальность и защиту данных (Норвегия); Помимо обеспечения полного уважения конфиденциальности и защиты данных, необходимо также обеспечить адекватные механизмы управления данными с учетом качества и целостности данных и обеспечения легитимный доступ к данным ( ЕС ); Системы искусственного интеллекта должны работать безопасно и уважать конфиденциальность пользователей (Ватикан).

О, Китая и США нет в этом списке? Круто, круто, круто ... я уверен, просто совпадение. Я уверен, что это совпадение, что 3 совершенно разные организации придумали ОЧЕНЬ схожие формулировки принципов.

Безопасность / Безопасность / Надежность

Принципы точности, надежности, безопасности и устойчивости (UK); Системы искусственного интеллекта должны надежно работать в соответствии со своим предназначением (Австралия); Системы на основе ИИ должны быть безопасными и технически надежными (Норвегия); Возможности ИИ Департамента будут иметь явное и четко определенное использование, а также безопасность, безопасность (…); Департамент будет разрабатывать и разрабатывать возможности искусственного интеллекта для выполнения намеченных функций, обладая при этом способностью обнаруживать и предотвращать непредвиденные последствия (…) (Министерство обороны США); Системы искусственного интеллекта должны быть устойчивыми и безопасными (…) (ЕС); Системы искусственного интеллекта должны функционировать надежным, безопасным и безопасным образом (…), а потенциальные риски должны постоянно оцениваться и контролироваться (ОЭСР ); Системы искусственного интеллекта должны уметь работать надежно (Ватикан).

Легче сказать, чем сделать, когда простая наклейка может вызвать галлюцинацию у алгоритма.

Вовлечение заинтересованных сторон / Общественное благо

Принцип оценки воздействия на заинтересованные стороны (Великобритания); Системы ИИ должны приносить пользу людям, обществу и окружающей среде (Австралия); ИИ должен приносить пользу обществу и окружающей среде (Норвегия); принцип интересов человека (Китай); Системы искусственного интеллекта должны приносить пользу всем людям, включая будущие поколения. Следовательно, необходимо обеспечить их экологичность и экологичность ( ЕС ); ИИ должен приносить пользу людям и планете, способствуя инклюзивному росту, устойчивому развитию и благополучию (ОЭСР); необходимо учитывать потребности всех людей, чтобы каждый мог получить пользу (…) (Ватикан).

Эй, помните, когда программа распознавания лиц« могла определить вашу сексуальную ориентацию»? В России?

Права

Системы искусственного интеллекта должны уважать права человека, разнообразие и автономию людей (Австралия); Когда система ИИ значительно влияет на человека, сообщество, группу или среду, должен быть своевременный процесс, позволяющий людям оспаривать использование или результаты работы системы ИИ (Австралия); Решения на основе ИИ должны уважать человеческую автономию и контроль (Норвегия); Принцип« последовательности прав и обязанностей » (Китай); Системы искусственного интеллекта должны расширять возможности людей, позволяя им принимать осознанные решения и защищая их основные права. ("ЕС"); Системы искусственного интеллекта должны разрабатываться таким образом, чтобы уважать верховенство закона, права человека, демократические ценности и разнообразие, и они должны включать соответствующие гарантии (…) для обеспечения справедливого и справедливого общества. ( ОЭСР ).

Эй, помните, когда Facebook назвал 65 000 российских пользователей« заинтересованными в государственной измене ?»

5-точечный анализ

  • Только ЕС, Норвегия и Австралия соблюдают все 7 принципов; многое можно сказать из того, что было упущено некоторыми странами. Это отсутствие консенсуса также вызывает беспокойство, потому что организация, выбирающая между несколькими международными руководящими принципами, национальной политикой своей страны и рекомендациями компаний и некоммерческих организаций, может в конечном итоге ничего не делать.
  • Нет списка основных предприятий, выходящих за рамки этих 7 пунктов, и они редко отклоняются далеко друг от друга. Это подчеркивает вполне реальный риск группового мышления (то, что было бы выгодно для частного сектора). Например, нигде не упоминается право на самоопределение, когда ИИ можно было легко использовать для того или иного подталкивания людей (скажем, во время выборов).
  • К сожалению, отсутствуют красные линии: ни одна страна не запретила себе определенные виды использования искусственного интеллекта, и ни один из принципов не имеет обязательной юридической силы. К вашему сведению, строгое регулирование выглядит так:
  • Технические определения полностью отсутствуют в обсуждении. Как и любые соответствующие KPI, которые могут измерять эти принципы. Кого волнует, что некоторые вещи в настоящее время технически недоступны? Заявление об этом означает неправильное понимание самого определения стратегии (кроме того, грозите штрафом компаниям, и они чертовски быстро найдут технические решения).
  • Отсутствие этических норм поначалу неясно. Они также не являются необходимостью, иначе мы спросим: что произойдет, если один принцип пойдет против другого?. Имеются ли они в рейтинге? Есть ли важные заказы? Что произойдет, если отказ от прав на неприкосновенность частной жизни будет выгоден обществу? Когда мы начинаем иметь дело с несколькими, часто конкурирующими, целями или пытаемся учесть нематериальные активы, такие как свобода и благополучие, удовлетворительного математического решения не существует. Именно здесь была бы полезна четкая этическая философия: если приоритет отдается консеквенциализму состояния (как это обычно бывает в Китае), это, по крайней мере, дает нам представление о том, что будет приоритетным ( Три закона робототехники Азимова отлично справились с этим).

Урок 3. Правительства идут на шаг дальше, чем компании, в установлении соответствующих принципов. Однако им все еще не хватает смелости в отношении своих принципов, а также технических ноу-хау, чтобы обеспечить соблюдение этих принципов.

Этика - это просто, но мужество - нет.

Теперь, когда мы установили основы того, что может предложить этика (не так много на первый взгляд), и проанализировали различные попытки компаний и правительств, ниже приведены несколько рекомендаций. которые основываются не только на этике, но и на смелости в отношении БОЛЬШИХ вопросов (война, политика, автономные автомобили, правосудие…). Я упоминаю смелость, потому что это то, чего не хватает в нынешнем рассуждении об искусственном интеллекте. Приведенные ниже принципы, вероятно, были продуманы ранее, но, вероятно, были отклонены из-за того, что они влекут за собой (потеря конкурентоспособности, стратегическое преимущество, очки крутого парня…). Я ничем не рискую, поднимая их, потому что я не обладаю реальной властью в этом разговоре; Я не могу придерживаться того же дискурса, если бы представлял людей / компанию.

Принцип рациональности

Сартр написал знаменитую фразу: Ад - это другие люди. Это особенно верно, когда речь идет об искусственном интеллекте; не потому, что люди заставляют алгоритмы быть плохими, а потому, что наши действия могут создать мир, в котором плохое поведение закреплено в алгоритмах, заставляя себя принять указанное поведение или страдать в результате (например, женщина удаляет гендерные слова из своего резюме ) (Вам может понадобиться учебник по машинному обучению, если это вас смущает). Токвиль назвал это Тиранией большинства: решение, которое основывает свои претензии на власть на цифрах, а не на правильности или превосходстве. Согласно Принципу рациональности ключевые золотые правила будут соблюдаться во всех компаниях искусственного интеллекта посредством общественных консультаций и технического консультирования, гарантируя, что даже если люди потеряют рассудок, алгоритмы, закрепляющие это безумие, не будут построены. Могу я порекомендовать начать с этого малоизвестного кусочка деонтологической истории

Принцип ранжирования

Предположим, что вышеуказанный принцип применяется во всем мире (ха!). Как компании могут иметь дело с конкурирующими основными правами при создании алгоритма? Например, можем ли мы отказаться от статей 9 и 12, чтобы лучше обеспечить соблюдение статьи 5? Можем ли мы создать искусственный интеллект, который будет сканировать каналы связи в поисках потенциальной преступной деятельности? Эти вопросы являются той самой причиной, по которой нам нужна этическая позиция, которая помогла бы развить устойчивый ранг ценностей, этики и прав, в котором одни будут стоять выше других. Возьмем, к примеру, печально известную проблему троллейбуса и применим ее к беспилотным автомобилям. Имея возможность выбора, следует ли автономному автомобилю уделять приоритетное внимание спасению двух пешеходов, а не пассажира? Что делать, если пассажир - глава государства? Что делать, если пешеходы преступники? Каким бы трудным ни был выбор одной школы мысли, он поможет создать алгоритмы, соответствующие нашим убеждениям (команда Deontology FTW).

Принцип амбивалентности

Приведенный выше пример не случаен: в 2014 году было начато самое крупное исследование моральных предпочтений, которое когда-либо было запущено, и побудило пользователей во всем мире отреагировать на ряд вариантов проблемы с тележкой. Результаты, хотя и ожидаемые, очевидны: разные культуры верят в разные вещи, когда дело касается этики. Например, Япония и Китай с меньшей вероятностью причинят вред пожилым людям. Более бедные страны более терпимы к законодателям. Индивидуалистические страны обычно предпочитают экономить больше жизней. Этика динамична, а кодирование статично. Вот почему никогда не следует создавать один алгоритм для принятия решений более чем для одной популяции. На мой взгляд, нужно сделать как минимум три сета, основанных на разных мировоззрениях: Запад, Восток и Юг.

Проще говоря, если я сяду в китайский автономный автомобиль, я хотел бы иметь возможность выбрать западный стандарт в случае аварии.

Принцип подотчетности

Этот принцип может показаться кощунственным для многих сторонников свободного рынка, которых придерживаются в тех странах, где табачные группы не вызывают рак, винокурни не вызывают алкоголизма, оружие не вызывает стрельбу в школах, а фармацевтические компании не вызывают передозировок. Кремниевая долина это поняла, и, когда ее продукты причиняют вред (безработица, предвзятость, смерть…), она пытается сказать, что ее технологии ценностно нейтральны и что они бессильны повлиять на характер их реализации. Это простой выход. Неожиданное поведение алгоритмов теперь стало фактом жизни, и точно так же, как производители автомобилей теперь должны знать о выбросах, а европейские компании должны защищать данные своих клиентов, технические руководители (в отличие от ученых, чьи очень raison d'être раздвигает препятствия - и так и должно быть) должен внимательно отслеживать поведение алгоритма, поскольку оно изменяется с течением времени и в зависимости от контекста, и, при необходимости, смягчать злонамеренное поведение, чтобы им не грозил крупный штраф или тюремное заключение .

Не могу с этим справиться? Не давай ему зеленый свет.

Вы дали зеленый свет проекту, который в конечном итоге был направлен против женщин? Оплатите штраф. Вы разрешили беспилотному автомобилю выехать на дорогу и погиб пешеход? Идти в тюрьму. Ваш А.И. совершил военное преступление? В Гаагу с вами.

Если ваша подпись находится внизу страницы, вы несете ответственность перед законом.

Принцип чистого положительного

Действительно ли AI того стоит? В настоящее время даже самый простой алгоритм неэтичен по самой своей природе: добыча, выплавка, логистика, черный ящик за черным ящиком коммерческой тайны, ресурсы центра обработки данных, современное рабство, горы электронного мусора в Гане… нет из этого является устойчивым, хотя в Великобритании, Австралии и ЕС экология названа в их великих принципах. Неужели оно того стоит для мелких радостей и упрощений? Один раз, хотя бы раз, было бы хорошо проявить немного здравомыслия в обсуждении.

И под здравым смыслом я имею в виду возможность увидеть всю чертову цепочку поставок, иначе ваш алгоритм не запускается в производство.

Экологические проблемы больше не могут отойти на второй план, даже когда обсуждают такие, казалось бы, невинные темы, как цифровой мир.

Заключение

В условиях ограниченности технологий и множества потенциальных применений преимущества искусственного интеллекта явно перевешивают риски. Однако это не причина, чтобы не поговорить о его реализации до того, как роботы начнут говорить за нас (да, это преувеличение, подайте на меня в суд).

Позвольте мне сказать это громко людям сзади: ИИ - это не то, чему можно доверять или не следует доверять. Это просто созданный человеком инструмент, который «скармливает» данные для автоматизации определенных задач в любом масштабе. Вы доверяете своей стиральной машине? Твой калькулятор (Да, я тоже. Математика - это черная магия)? Слишком легко принять на себя роль чего-то, чего не имеет. А.И. не может быть добром или злом. Люди бывают добры или злы (а зачастую и то и другое одновременно). В конце концов, AI просто является темным зеркалом общества, его побед и неравенства. Это, прежде всего, неудобно. Это неудобно, потому что мы постоянно обнаруживаем, что мы тупицы.

Этики искусственного интеллекта не существует.

Позвольте мне сказать это для людей позади: алгоритмы служат очень конкретным целям. Они не могут отклониться от этих целей. Важно то, решит ли компания, что эту цель стоит автоматизировать в черном ящике. Таким образом, вопрос этики ИИ следует перефразировать следующим образом: «Доверяем ли мы (вставьте здесь название компании), что менеджеры искренне заинтересованы в наших интересах?» и, если да, то «делаем» мы доверяем программистам компании безупречную реализацию этого видения с учетом потенциальных недостатков данных? »Это сложнее, не правда ли? Но более реалистично.

А. Этики не существует.

Позвольте мне сказать это громко для людей позади: расплывчатые контрольные списки и принципы, бессильные офицеры по этике и беззубые консультативные советы призваны сохранить лицо, избежать изменений и избежать ответственности. Если вы извлечете один урок из этой статьи, то он следующий:

А.И. Этики не существует.

Эта статья изначально была написана для Honeypot.io, европейской платформы для поиска вакансий, ориентированной на разработчиков.