Предложения по регулированию технологий искусственного интеллекта (ИИ) и машинного обучения (МО) быстро множатся. Многие из разрабатываемых или уже разрабатываемых передовых мер предлагают некий вариант алгоритмического аудита и оценки воздействия ИИ в качестве основного регулирующего механизма. Как я отмечу ниже, аудиты и оценки воздействия использовались во многих других контекстах, но одну особенно подходящую модель можно найти в Законе о национальной экологической политике (NEPA), который был принят более 50 лет назад. Многие ученые в настоящее время призывают к модели, подобной NEPA, для алгоритмических услуг, и уже выдвигаются различные законодательные и нормативные предложения по ИИ, которые будут основываться на структуре NEPA.

На федеральном уровне Министерство торговли США недавно начало разбирательство по подотчетности ИИ, а в Конгрессе, по слухам, лидер большинства в Сенате Чак Шумер (штат Нью-Йорк) готовит новый закон для принятия закона. ответственный ИИ». Между тем, предыдущие предложения (такие как большой базовый законопроект о конфиденциальности и Закон об алгоритмической ответственности) включали требования к оценке алгоритмического воздействия.

На уровне штатов законопроекты штатов и местных органов власти, среди прочего, сосредоточены на устранении потенциальной предвзятости алгоритмов при автоматизированном найме. (См., например, этот предложенный Калифорнийский законопроект и эти новые правила ИИ из Нью-Йорка.) Все эти усилия в целом направлены на повышение прозрачности, объяснимости и справедливости ИИ, хотя эти термины почти никогда не определяются. Важно отметить, что эти усилия также обычно требуют какого-либо механизма аудита или оценки воздействия для достижения этих аморфных целей. Между тем, в своем готовящемся Законе об искусственном интеллекте Европейский Союз продвигает более агрессивный тип режима аудита ex ante в форме предварительных оценок соответствия, которые похожи на бланки разрешений, которые потребуются алгоритмическим новаторам перед выпуском новых продуктов.

Институт R Street только что выпустил крупный новый отчет, который я написал, Гибкие, ориентированные на инновации стратегии управления для искусственного интеллекта, в котором обсуждаются многочисленные усилия по обеспечению безопасности ИИ, предпринимаемые сегодня, и широкий спектр методов управления. механизмы, которые уже доступны для решения проблем, связанных с алгоритмическими рисками. В 40-страничном отчете объясняется, что объединяет почти все эти усилия по управлению стремление привести алгоритмические системы в соответствие с человеческими ценностями, обеспечив их максимальную безопасность, надежность, эффективность и отсутствие предвзятости. На практике это означает поиск способов: (1) внедрить общие цели и ценности посредством процесса этики по замыслу; и (2) подумайте, как держать людей в курсе на критических этапах этого процесса, чтобы они могли продолжать направлять и время от времени перестраивать алгоритмические системы по мере необходимости.

Однако неизбежно возникает критический вопрос о том, как именно эти две цели воплощаются в конкретные руководящие принципы управления и результаты политики. Примет ли процесс согласования ИИ строго нормативный характер или он может в основном оставаться в сфере более децентрализованных подходов к управлению, которые включают передовой опыт, частные сертификаты, целенаправленное постфактум применение существующих политик и различные средства правовой защиты общего права? Этот вопрос уже вышел на первый план в связи со многими нормативными предложениями, выдвинутыми на федеральном уровне, уровне штата и местном уровне в Соединенных Штатах, а также во многих странах мира.

В моем новом отчете R Street я раскрываю различные конкурирующие подходы и склоняюсь к более децентрализованному, итеративному и гибкому подходу к алгоритмическому надзору. Оптимальный подход к управлению алгоритмическими системами должен стремиться к установлению определенных передовых методов разработки и использования, не исключая важных преимуществ, связанных с этими технологиями, — утверждаю я. Хотя в целом я против того, чтобы делать принцип предосторожности базовым по умолчанию для инноваций в области ИИ, он, тем не менее, может помочь управлять этими технологиями в более широком смысле — и без немедленного отказа от жестко регламентированного, нисходящего режима, основанного на разрешении. для всех будущих алгоритмических инноваций.

Какую роль в таком случае играют алгоритмические аудиты и оценки воздействия ИИ в более децентрализованном режиме управления? Этот вопрос исследуется в моем последнем отчете Института R Street, начинающемся на странице 27. Я полностью воспроизвел этот раздел ниже. Я также включил все сноски, но, пожалуйста, обратитесь к полному отчету для получения дополнительной подтверждающей документации и анализа, потому что эта часть документа содержит перекрестные ссылки на другие части исследования.

Однако я нахожу удивительным то, что ученые, рекомендующие «NEPA для алгоритмов», почти не тратят время на анализ затрат, связанных с самим процессом регулирования NEPA. Возможно, они не знают обо всей этой литературе или, что более реалистично, возможно, они просто намеренно игнорируют ее.

Тем не менее, я еще расскажу об аудитах ИИ и оценках воздействия алгоритмов в будущих статьях и готовящейся подаче документов в NTIA. Что касается мандатов на этом фронте, то самое далекое, на что я был бы готов пойти, — это мягкий мандат, требующий, чтобы разработчики ИИ время от времени проводили аудит через независимые (неправительственные) третьи стороны, а затем делали эти отчеты общедоступными (но без разглашения важных коммерческая тайна или конфиденциальная информация). Но есть много других предостережений и соображений. Читайте дальше, чтобы узнать больше. Но не сомневайтесь, аудиты и оценки воздействия ИИ станут основным полем битвы в мире политики искусственного интеллекта в ближайшие месяцы и годы.

__________

Следующее взято из: Адам Тирер, «Гибкие, ориентированные на инновации стратегии управления для искусственного интеллекта», Исследование политики Института R Street № 283 (апрель 2023 г.), стр. 27–33.

Все плюсы и минусы алгоритмического аудита и оценки воздействия ИИ

Профессионализация этики ИИ может быть дополнительно формализована с помощью алгоритмического аудита и оценок воздействия ИИ. [1] В других секторах бизнеса аудиты и оценки воздействия используются для решения вопросов безопасности, финансовой отчетности, трудовых отношений, вопросов прав человека, практики цепочки поставок и различных проблемы окружающей среды. Аудиты ИИ и оценки воздействия потребуют от тех, кто разрабатывает или внедряет алгоритмические системы, проведения обзоров, чтобы оценить, насколько хорошо системы соответствуют различным этическим ценностям или другим обязательствам. [2] Эти оценки могут проводиться до или после запуска системы, или оба. Правительства, частные компании и любые другие учреждения, разрабатывающие или внедряющие алгоритмические системы, могут использовать такие аудиты или оценки. [3]

Однако существует множество сложностей. Алгоритмический аудит и оценка воздействия сталкиваются с теми же проблемами определения, что и ИИ в целом. Например, вопрос о том, что представляет собой риск или вред в любом данном контексте, часто будет сложным и спорным вопросом. В некоторых случаях потенциальный вред или воздействие на группу может быть легче оценить, например, когда сотрудники правоохранительных органов или суды используют так называемые предиктивные полицейские алгоритмы для осуждения или вынесения приговора лицам из определенных маргинализированных групп.[4] Государственное использование алгоритмических процессов всегда будет вызывать большую обеспокоенность и требовать большего контроля, поскольку правительства обладают полномочиями принуждения, которых нет у частных субъектов.

Однако основное внимание здесь будет уделяться тому, как аудиты или оценки могут использоваться для решения проблем использования ИИ и ОД в частном секторе, которые вызывают опасения по поводу конфиденциальности, безопасности или предвзятости. Многие современные академические предложения по алгоритмическим режимам аудита предполагают, что это должен быть формальный процесс нормативной сертификации, созданный по образцу других существующих режимов регулирования. [5] Например, некоторые ученые, отстаивающие эти идеи, хотят использовать Закон о национальной экологической политике. (NEPA) в качестве модели. [6] Принятый в 1969 году, NEPA требует формальных заявлений о воздействии на окружающую среду для основных федеральных действий, значительно влияющих на качество окружающей человека среды. [7] Многие штаты приняли аналогичные требования.

Американские политики уже предлагают законопроекты, которые требуют алгоритмического аудита и оценки воздействия. После такой меры в Законе об алгоритмической ответственности от 2022 года разработчикам предлагалось проводить оценку воздействия и подавать ее в FTC. Закон создает новое технологическое бюро внутри FTC для наблюдения за процессом. Закон также требует от каждой подпадающей под действие организации попытки своевременно устранить или смягчить любое влияние, оказываемое расширенным процессом принятия критических решений, который демонстрирует вероятное существенное негативное влияние, которое имеет юридические или аналогичные существенные последствия для жизни потребителя. [8] Аналогичные требования к алгоритмическому аудиту также включены в Закон США о защите данных и конфиденциальности от 2022 года, комплексное федеральное предложение о конфиденциальности, которое получило широкую поддержку обеих партий. [9] Предлагаемый закон потребует от обработчиков больших данных выполнения ежегодная оценка воздействия алгоритма, которая включает подробное описание как процесса разработки, так и методологий охватываемого алгоритма, а также шаги, которые владелец больших данных предпринял или предпримет для смягчения потенциального вреда от охваченного алгоритма. [10]

Полный объем такого рода мандата еще предстоит увидеть. При соблюдении жесткого режима регулирования соблюдение требований алгоритмического аудита, скорее всего, станет трудоемким, запутанным, бюрократическим процессом, который, вероятно, значительно замедлит темпы разработки ИИ. К сожалению, в большей части академической литературы, посвященной алгоритмическому аудиту, не обсуждаются потенциальные затраты, связанные с бременем бумажной работы и задержками в соблюдении требований, которые, вероятно, будут связаны с таким режимом регулирования. Сторонники аудиторских мандатов настаивают на том, что все более строгие нормативные требования будут означать, что общественность будет больше доверять использованию высокоавтоматизированных систем, но они, как правило, не учитывают, будут ли эти системы вообще разрабатываться, если они будут упреждающе задушены слоями бюрократические требования и длительные сроки утверждения. [11]

Рассмотрим сложности NEPA. Несмотря на благие намерения, заявления NEPA о воздействии на окружающую среду создают значительные затраты на соблюдение требований и задержки проекта. [12] Первоначально оценки NEPA были довольно короткими (иногда менее 10 страниц), но сегодня средний объем этих заявлений превышает 600 страниц и могут включать приложения, которые занимают в общей сложности более 1000 страниц. [13] Кроме того, эти оценки занимают в среднем 4,5 года; на некоторые ушло 17 лет или больше». [14]» На практике это означает, что многие важные общественные проекты не завершены или требуют гораздо больше времени для завершения при значительно более высоких расходах, чем предполагалось изначально. Например, NEPA замедлило многие инфраструктурные проекты и инициативы в области экологически чистой энергии, и даже администрация президента от Демократической партии предложила реформировать процесс оценки из-за его растущих затрат. [15]

Автор Конструктивной физики назвал NEPA антизаконом в том смысле, что он в значительной степени выполняет прямо противоположное тому, что предполагалось в основном законе. [16] Вместо того, чтобы создавать предсказуемость, Закон значительно снижает предсказуемость и увеличивает затраты на координацию и риск, потому что совершенно неясно, что необходимо для выполнения требований NEPA, — говорит он.[17] мнений», которые готовы заблокировать почти любой прогресс в важных проектах и, следовательно, фактически является уклоном в сторону статус-кво. [18] К сожалению, неясно, делает ли закон что-либо для улучшения экологических результатов, поскольку усложняет своевременную и эффективную реализацию многих важных инициатив — при условии, что им вообще позволено двигаться вперед. Процесс NEPA фактически является налогом на любые крупные действия правительства, и, как и любой налог, мы ожидаем, что он приведет к меньшему количеству того, что он облагает налогом. политиков для их решения — вызвали вопросы о том, беспокоят ли некоторые участники экологического движения больше сам процесс, а не конкретные результаты. Репортер Atlantic предположил, что многие участники экологического движения подрывают национальные цели по выбросам во имя локализма и вклада сообщества. [20]

По тем же причинам применение модели NEPA к алгоритмическим системам, скорее всего, приведет к остановке инноваций в области искусственного интеллекта из-за длительных задержек, бремени бумажной работы и значительных затрат на соблюдение требований[21]. очки, которые противники ИИ могли бы использовать для замедления прогресса в этой области. Многие ученые сегодня осуждают растущую культуру ветократии в Соединенных Штатах, которая описывает множество точек вето в современных политических системах, которые сдерживают инновации, развитие и экономические возможности. [22] Это бесконечное накопление потенциальных точек вето в политике процесс в виде предписаний и ограничений может значительно ограничить возможности для инноваций. Алгоритмические аудиторские мандаты, подобные NEPA, создадут много таких точек вето в процессе разработки продукта.

Алгоритмические системы развиваются очень быстрыми темпами и подвергаются постоянной итерации, при этом некоторые системы обновляются еженедельно или даже ежедневно. Один аналитик ИИ заметил, что алгоритмы могут быть пугающе сложными объектами для аудита из-за сочетания их пугающего размера, сложности и неясности.[23] о ревизиях или оценках, многие из которых устареют еще до их завершения. Многие разработчики ИИ, скорее всего, попытаются внедрить инновации в другом месте, если аудит или оценка воздействия станут бюрократическим и крайне запутанным кошмаром соответствия.

Кроме того, алгоритмический аудит всегда будет неточной наукой из-за присущей субъективности рассматриваемых ценностей. Алгоритмы аудита не похожи на аудит бухгалтерской книги, где цифры либо совпадают, либо нет. При оценке алгоритмов не существует бинарных метрик, которые могли бы количественно определить научно правильный уровень конфиденциальности, безопасности или безопасности в данной системе.

Предусмотренный законом алгоритмический аудит может привести к серьезному политическому вмешательству в речевые платформы, основанные на алгоритмах. В последние годы законодатели как от республиканцев, так и от демократов обвиняли компании, занимающиеся цифровыми технологиями, в манипулировании алгоритмами для цензуры их взглядов. Например, во время жарких дебатов 2022 года по поводу законопроекта о регулировании алгоритмической модерации контента законодатели от обеих сторон обвинили социальные сети в цензуре их или их предпочтительного контента[24]. Помимо того факта, что обе стороны не могут быть правы, тот факт, что все они хотят использовать правительственные рычаги влияния на решения по управлению частным контентом, иллюстрирует опасность обязательного алгоритмического аудита. Какая бы партия ни находилась у власти в любой момент времени, она может использовать процесс аудита для политизации таких терминов, как безопасность, безопасность и недискриминация, чтобы подтолкнуть или даже заставить частных разработчиков ИИ изменить свои алгоритмы для удовлетворения политических желаний.

Политические махинации такого рода имели место в FCC, когда агентство злоупотребляло своими неоднозначными полномочиями для регулирования в общественных интересах и косвенно подвергало вещателей цензуре посредством запугивания. [25] Агентство отправляло радио- и телевещателям письменные запросы спрашивая о программных решениях и не очень тонко намекая, как станции могут захотеть пересмотреть то, что они выпускают в эфир. Эта тактика использовалась настолько часто, что стала известна в политических кругах как регулирование с помощью поднятой брови или нормативные угрозы, которые уговаривают участников отрасли внести небольшие изменения в их программный контент. [26] Это стало эффективным способом. для FCC, чтобы избежать битв за Первую поправку, которые последовали бы в судах, если бы агентство предприняло формальные шаги для отзыва лицензии вещательной компании. Агентство использовало LOI в сочетании с тактикой болтовни и другими угрозами в речах и публичных заявлениях для формирования отраслевых решений. Законодатели Конгресса также использовали ту же самую тактику болтовни на слушаниях и в публичных заявлениях, чтобы повлиять на выбор частного контента.[27] партии. [28]

Нетрудно представить, как регулирующие органы или законодатели могут использовать обязательные алгоритмические аудиты или заявления о влиянии, чтобы аналогичным образом неправомерно влиять на принятие решений ИИ. Мы уже были свидетелями интенсивных дебатов о том, что представляет собой дезинформация в Интернете, после недолгих усилий администрации Байдена по созданию Совета по управлению дезинформацией в Министерстве внутренней безопасности. [29] Если бы был создан новый закон или агентство по надзору за алгоритмами, подобные бои будут происходить. Хотя здесь это не рассматривается, существуют потенциально серьезные проблемы Первой поправки, связанные с регулированием алгоритмов. Эти соображения могли бы стать важной частью усилий по регулированию ИИ в будущем, если бы процесс аудита ИИ был санкционирован, а затем стал бы таким образом политизированным. [30]

Алгоритмический аудит сделан правильно

Несмотря на эти проблемы, алгоритмический аудит и оценка воздействия ИИ по-прежнему могут быть частью более децентрализованной, полицентричной структуры управления и могут помочь инновациям, гарантируя, что программы не будут непреднамеренно «извлекать неверные уроки из информации, введенной в системы». [31] Алгоритмический аудит может помочь разработчикам постоянно улучшать свои системы и избегать рыночных потерь или угроз ответственности.

Даже при отсутствии каких-либо жестких правовых норм алгоритмический аудит и обзоры воздействия представляют собой разумный способ помочь формализовать этические рамки и лучшие практики, уже сформулированные профессиональными ассоциациями, такими как IEEE, ISO, ACM и другими. Опять же, эти усилия направлены на то, чтобы заставить разработчиков более серьезно задуматься о том, как реализовать широко распространенные цели и ценности, а также подумать о том, как держать людей в курсе событий на критических этапах этого процесса, чтобы они могли продолжать руководить. и время от времени переустанавливать эти значения по мере необходимости.

Такой процесс аудита и оценки воздействия может основываться на принципах добровольной оценки рисков, которые разрабатывают ОЭСР и Национальный институт стандартов и технологий. ОЭСР разработала Основу классификации систем ИИ с целью помочь разработать общую основу для отчетности об инцидентах с ИИ, которая обеспечивает глобальную согласованность и функциональную совместимость в отчетах об инцидентах, а также продвигать связанные работать над смягчением последствий, соблюдением и обеспечением соблюдения требований на протяжении всего жизненного цикла системы ИИ, в том числе в отношении корпоративного управления. [32]

NIST также недавно выпустил всеобъемлющую Структуру управления рисками искусственного интеллекта, которая представляет собой добровольный, основанный на консенсусе руководящий документ, предназначенный предложить ресурс организациям, проектирующим, разрабатывающим, развертывающим или использующим системы ИИ, чтобы помочь управлять многими рисками, связанными с ИИ, и способствовать надежной и ответственной разработке и использованию систем ИИ. [33] Framework основывается на этических принципах, разработанных многими различными организациями, упомянутыми ранее, такими как IEEE, ISO и ACM.

Многие разработчики ИИ и бизнес-группы одобрили использование таких аудитов и оценок. BSA|The Software Alliance заявила, что устанавливая процесс для персонала, чтобы документировать ключевые варианты дизайна и их лежащие в основе обоснования, оценки воздействия позволяют организациям, которые разрабатывают или внедряют ИИ с высоким риском, выявлять и снижать риски, которые могут возникнуть в течение жизненного цикла системы. [34] Как отмечается ниже, разработчики по-прежнему могут быть привлечены к ответственности за нарушения определенных этических норм и передовой практики посредством как частных, так и официальных санкций со стороны органов по защите прав потребителей (таких как FTC или аналогичные государственные учреждения) или государственных генеральные прокуроры.

Независимые органы аудита ИИ уже развиваются и могут сыграть важную роль в продвижении этики ИИ на профессиональном уровне. EqualAI — это группа, которая работает с юристами, предприятиями и политическими деятелями для создания и мониторинга передовых методов этического ИИ. В сотрудничестве с ВЭФ EqualAI создает программу Сертификация значков ответственного ИИ. [35] Недавно ВЭФ выпустил два основных отчета, которые могут направлять такие усилия: Расширение возможностей лидерства в области ИИ: набор инструментов высшего руководства ИИ и План обеспечения справедливости и интеграции в области искусственного интеллекта. [36] Между тем, ВЭФ также участвует в партнерстве с AI Global, некоммерческой организацией, занимающейся продвижением ответственного и этичного внедрения ИИ, и Институтом технологий и Общество Университета Торонто, чтобы создать всемирно признанный сертификационный знак ответственного и надежного использования систем ИИ.[37]»

По данным Института внутренних аудиторов (IIA), уже существует широко распространенная профессия внутреннего аудитора, при этом профессиональные аудиторы выявляют риски, которые могут помешать организации достичь своих целей, следят за тем, чтобы руководители организации знали об этих рисках, и заранее рекомендуют улучшения. помочь снизить риски. IIA коллективно представляет этих аудиторов, помогает установить профессиональные стандарты и присуждает звание сертифицированного внутреннего аудитора по итогам строгих экзаменов. [38] имеет смысл оставаться в курсе этих проблем, чтобы избежать ответственности, негативной огласки или другой негативной реакции клиентов. [39] , а не ждать правил». [40]

Между тем, область алгоритмического консалтинга продолжает расширяться и будет дополнять эти усилия специализированным экспертным надзором по техническим, этическим и юридическим вопросам. Например, ведущий социолог в области искусственного интеллекта создал O'Neil Risk Consulting and Algorithmic Auditing, чтобы помочь организациям управлять и проверять алгоритмические риски, особенно те, которые относятся к справедливости, предвзятости и дискриминации. [41] Юристы также расширят свою деятельность. для помощи потенциальным клиентам в этих вопросах. Основанная в 2020 году, BNH.ai описывает себя как юридическую фирму-бутик, которая использует юридические и технические знания мирового уровня, чтобы помочь нашим клиентам избегать, выявлять и реагировать на обязательства, связанные с искусственным интеллектом и аналитикой. [42] Другое специализированное Подобные юридические фирмы ИИ обязательно будут развиваться в ближайшие годы.

Еще одно преимущество добровольного аудита и оценки воздействия ИИ заключается в том, что они также могут иметь глобальный охват, когда компании и торговые ассоциации принимают принципы и рамки, подобные описанным ранее. Наконец, обсуждаемые здесь механизмы управления будут по-прежнему дополняться различными средствами правовой защиты жесткого права, чтобы заставить разработчиков выполнять обещания, которые они дают общественности, а также устранять более серьезный ущерб от ИИ, который возникает или оказывается слишком сложным для устранения в соответствии с мягким правом.

__________

Примечание. Пожалуйста, обратитесь к моему более длинному исследованию Института R Street, чтобы изучить различные другие механизмы управления, которые я там подробно обсуждаю. После этого раздела, посвященного аудиту и оценке воздействия, мой отчет завершается объяснением многих существующих постфактум правовых механизмов, которые могут дополнять различные подходы к управлению ИИ, основанные на мягком праве. Как я отметил в недавней статье Хилла, призывающей к сбалансированному видению управления ИИ для Америки, многие государственные политики и органы уже существуют для решения алгоритмических проблем:

В США есть 15 агентств Кабинета министров, 50 независимых федеральных комиссий и в целом более 430 федеральных департаментов, многие из которых уже рассматривают, как ИИ влияет на их сферу деятельности. Агентства по защите прав потребителей, такие как Федеральная торговая комиссия и аналогичные государственные учреждения, также принимают меры для контроля за потенциально несправедливыми и вводящими в заблуждение алгоритмическими методами. Регулирующие органы, такие как Национальное управление безопасности дорожного движения, Управление по санитарному надзору за качеством пищевых продуктов и медикаментов и Комиссия по безопасности потребительских товаров, также имеют широкие полномочия по надзору и отзыву, что позволяет им удалять с рынка дефектные или небезопасные продукты.

Прежде чем добавлять множество уровней регулирования, требующего большого объема бумажной работы, мы должны сначала взглянуть на эти многочисленные существующие правовые решения, которые подорвут важные алгоритмические инновации, способные повысить человеческое процветание во многих измерениях.

Дополнительная литература:

Концевые сноски:

[1] Рич Эхисен, Может ли аудит алгоритмов обуздать предвзятость ИИ? State Net Insights, 18 февраля 2022 г. https://www.lexisnexis.com/community/insights/legal/capitol-journal/b/state-net/posts/could-algorithm- ревизии-борьба-ай-необъективность; Илана Голбин, Алгоритмические оценки воздействия: что это такое и зачем они нужны? pwc, 28 октября 2021 г. https://www.pwc.com/us/en/tech-effect/ai-analytics/algorithmic-impact-assessments.html.

[2] Джейкоб Меткалф и др., Алгоритмическая оценка воздействия и подотчетность: совместное построение воздействий, FAccT '21: Материалы конференции ACM 2021 г. по вопросам справедливости, подотчетности и прозрачности (март 2021 г.), стр. 735–746. https://doi.org/10.1145/3442188.3445935.

[3] Диллон Райзман и др., Алгоритмическая оценка воздействия: практическая основа подотчетности государственных органов, AI Now, апрель 2018 г. https://ainowinstitute.org/aiareport2018.pdf.

[4] Джейми Грирсон, Прогностическая полиция представляет риск дискриминации, предупреждает аналитический центр, The Guardian, 15 сентября 2019 г. https://www.theguardian.com/uk-news/ 2019/sep/16/predictive-policing-poses-discision-risk-thinktank-warns.

[5] Эндрю Д. Селбст, Институциональный взгляд на алгоритмическую оценку воздействия, Harvard Journal of Law & Technology 35 (осень 2021 г.), стр. 117–191. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3867634.

[6] Эмануэль Мосс и др., Сборка подотчетности: алгоритмическая оценка воздействия на общественные интересы, Данные и общество (29 июня 2021 г.). https://datasociety.net/library/assembling-accountability-algorithmic-impact-assessment-for-the-public-interest.

[7] Закон о национальной экологической политике, Агентство по охране окружающей среды США, 6 июля 2022 г. https://www.epa.gov/nepa.

[8] H.R.6580, Акт об алгоритмической ответственности от 2022 г., 117-й Конгресс. https://www.congress.gov/bill/117th-congress/house-bill/6580.

[9] H.R.8152, Американский закон о конфиденциальности и защите данных, 117-й Конгресс. https://www.congress.gov/bill/117th-congress/house-bill/8152.

[10] Американский закон о защите данных и конфиденциальности, § 207(c)(1).

[11] Грегори Фалько и др., Управление безопасностью ИИ посредством независимых аудитов, Nature Machine Intelligence 3 (2021), с. 570. https://www.nature.com/articles/s42256-021-00370-7.

[12] Эли Доурадо, Почему мы сегодня такие медленные?, Центр роста и возможностей, 12 марта 2020 г. https://www.thecgo.org/benchmark/why-are-we- так-медленно-сегодня.

[13] Там же.

[14] Там же.

[15] Там же.

[16] Брайан Поттер, Как работает NEPA, Construction Physics, 19 августа 2022 г. https://constructionphysics.substack.com/p/how-nepa-works.

[17] Там же.

[18] Там же.

[19] Там же.

[20] Иерусалим Демсас, Не все должны говорить, The Atlantic, 19 октября 2022 г. https://www.theatlantic.com/ideas/archive/2022/ 10/экологи-нимбы-разрешительная-реформа-непа/671775.

[21] Филип Россетти, Устранение задержек в инфраструктуре, связанных с NEPA, Исследование политики R Street № 234 (июль 2021 г.). https://www.rstreet.org/research/addressing-nepa-related-infrastructure-delays; Иеремия Джонсон, Дело об отмене Закона о национальной экологической политике, Liberal Currents, 6 сентября 2022 г. https://www.liberalcurrents.com/the-case-for-abolishing- Закон о национальной политике в области окружающей среды.

[22] Уильям Райнхарт, Ветократия, цена права вето и бездействия, Центр роста и возможностей Университета штата Юта, 24 марта 2022 г., https://www.thecgo.org/benchmark/vetocracy- цена-вето-и-бездействия; Адам Тьерер, Бюрократическая реформа — ключ к восстановлению, The Hill, 28 апреля 2022 г. https://thehill.com/opinion/finance/3470334-red-tape-reform -является-ключом-к-постройке-снова.

[23] Джеймс Кобелус, Как мы будем проводить алгоритмический аудит в новой экономике, InformationWeek, 4 марта 2021 г. https://www.informationweek.com/ai- или машинное обучение/как-мы-будем-проводить-алгоритмический-аудит-в-новой-экономике.

[24] Адам Тирер, Левые и правые целятся в большие технологии — и Первую поправку, The Hill, 8 декабря 2021 г. https://thehill.com/opinion /технологии/584874-лево-и-право-целятся-в-большую-технологию-и-первую-поправку.

[25] Рэндольф Дж. Мэй, Стандарт общественных интересов: слишком ли он неопределенный, чтобы быть конституционным?, Federal Communications Law Journal 53:3 (май 2011 г.), стр. 427–468. . https://www.repository.law.indiana.edu/fclj/vol53/iss3/3.

[26] Томас Стритер, Продажа эфира: критика политики коммерческого вещания в Соединенных Штатах (The University of Chicago Press, 1996), p. 189.

[27] Джерри Брито, Угрозы агентств и верховенство права: предложение, от которого нельзя отказаться», Harvard Journal of Law & Public Policy 37:2 (2014), p. . 553. https://www.harvard-jlpp.com/wp-content/uploads/sites/21/2014/05/37_2_553_Brito-1.pdf.

[28] Тьерер, Мягкое право в секторах ИКТ: четыре тематических исследования, стр. 94–96. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3777490.

[29] Адам Тирер и Патрисия Патноде, Дезинформация о реальном источнике проблемы, Real Clear Policy, 23 мая 2022 г. https://www.realclearpolicy.com/articles /2022/05/23/дезинформация_о_реальном_источнике_из_проблемы_833681.html.

[30] Стюарт Майнор Бенджамин, Первая поправка и алгоритмы, в Вудро Барфилде, изд., Кембриджский справочник по закону алгоритмов (Cambridge University Press, 2021), стр. 606– 631.

[31] Кейт Э. Сондерлинг и др., Обещание и опасность: искусственный интеллект и дискриминация при приеме на работу, Юридический обзор Университета Майами 77:1 (2022), с. 80. https://repository.law.miami.edu/umlr/vol77/iss1/3.

[32] Обзор принципов ИИ ОЭСР, OECD.AI, последний доступ 3 марта 2023 г. https://oecd.ai/en/ai-principles; Основы ОЭСР для классификации систем ИИ, ОЭСР, 22 февраля 2022 г., стр. 6. https://www.oecd.org/publications/oecd-framework-for-the-classification-of-ai-systems-cb6d9eca-en.htm.

[33] Структура управления рисками NIST направлена ​​на повышение надежности искусственного интеллекта, NIST, 26 января 2023 г., стр. 2. https://www.nist.gov/news-events/news/2023/01/nist-risk-management-framework-aims-improve-trustworthiness-artificial.

[34] Повышение инноваций и укрепление доверия: повестка дня политики BSA в области искусственного интеллекта, BSA | Программный альянс, 2022, с. 2. https://www.bsa.org/files/policy-filings/03222022bsausaiagenda.pdf.

[35] Кей Ферт-Баттерфилд и Мириам Фогель, 5 способов избежать предвзятости искусственного интеллекта с помощью «ответственного ИИ, Всемирный экономический форум, 5 июля 2022 г. https://www.weforum.org/agenda/ 5/07/2022-советы-управлению-ответственному-ИИ.

[36] Расширение возможностей лидерства в области ИИ: набор инструментов высшего руководства для ИИ, Всемирный экономический форум, 12 января 2022 г. https://www.weforum.org/reports/empowering-ai-leadership-ai-c- набор-инструментарий.; Программа обеспечения справедливости и включения в искусственный интеллект, Всемирный экономический форум, 29 июня 2022 г. «https://www.weforum.org/whitepapers/a-blueprint-for-equity-and-inclusion-in-artificial- интеллект".

[37] Йована Янкович, Институт Шварца Райзмана Университета штата Техас и AI Global разработают глобальный сертификационный знак для надежного ИИ, 1 декабря 2020 г. https://www.utoronto.ca/news/u-t-s-schwartz -reisman-institute-and-ai-global-develop-global-certification-mark-trustworthy-ai.

[38] Все за один день: взгляд на разнообразные обязанности внутренних аудиторов, Институт внутренних аудиторов, последний доступ 3 марта 2023 г. https://www.theiia.org/globalassets/documents /о нас/продвижение-профессии/информационные-ресурсы/все-в-днях-работу-брошюра.pdf.

[39] Джефф Блайх и Брэдли Дж. Строузер, Инструмент или проблема: согласование искусственного интеллекта с правами человека, Гарвардская инициатива передового лидерства, 25 апреля 2022 г. https://www.sir.advancedleadership.harvard.edu /статьи/инструмент-или-проблема-соответствие искусственного интеллекта-правам-человека.

[40] Карен Хао, Беспокоитесь об этике ИИ в вашей фирме? Эти стартапы готовы помочь, MIT Technology Review,Jan. 15, 2021. https://www.technologyreview.com/2021/01/15/1016183/ai-ethics-startups.

[41] Это век алгоритмов, и мы прибыли неподготовленными, ORCAA, последний доступ 3 марта 2023 г. https://orcaarisk.com.

[42] Почему BNH, BNH.AI, последний доступ 3 марта 2023 г. https://www.bnh.ai/why-bnh; Сет Коланер, Bnh.ai — новая юридическая фирма, специализирующаяся только на ИИ, Venture Beat, 19 марта 2020 г. https://venturebeat.com/2020/03/19/bnh-ai-is-a- новая юридическая фирма, ориентированная только на ИИ.