Фон

Дифференциальная конфиденциальность (DP) — это математическая основа, которая гарантирует конфиденциальность при анализе данных за счет введения шума для запутывания отдельных точек данных, гарантируя, что результаты анализа не нарушат конфиденциальность отдельных лиц (Dwork & Roth, 2014). В последнее время участились споры о том, следует ли обязать приложения ИИ использовать дифференциально частное машинное обучение (DPML) для решения растущих проблем с конфиденциальностью. заболеваний с использованием электронных медицинских карт (ЭМК). EHR содержат конфиденциальную информацию, и нарушения конфиденциальности могут иметь серьезные последствия для вовлеченных лиц. В связи с этим возникает вопрос: должны ли нормативные акты требовать использования DPML в медицинских приложениях на основе ИИ для защиты конфиденциальности пациентов?

Регламент Pro-DPML

Регламент против DPML

Заключение

Оценивая эти две точки зрения, мы признаем, что оба аргумента имеют свои достоинства. Однако мы выступаем за Перспективу 1 (регулирование в поддержку DPML) по нескольким причинам. Во-первых, растущая важность
защиты конфиденциальности в цифровую эпоху требует более надежных гарантий конфиденциальности, и DPML предоставляет надежный, математически проверенный метод для достижения этой цели (Dwork & Roth, 2014). Во-вторых, несмотря на то, что внедрение DPML действительно может повлиять на точность и полезность моделей ИИ (Abadi et al., 2016), мы считаем, что потенциальные последствия нарушения конфиденциальности, особенно в таких важных областях, как здравоохранение, перевешивают эти опасения. Доверие к системам искусственного интеллекта имеет решающее значение для их широкого внедрения и признания в обществе, поэтому необходимо отдавать приоритет защите конфиденциальности, а не потенциальному повышению точности моделей. В-третьих, хотя мы признаем адаптируемую стратегию регулирования, предложенную некоторыми исследователями (Abadi
et al., 2016), мы утверждаем, что единая и надежная нормативно-правовая база необходима для обеспечения защиты конфиденциальности в различных приложениях ИИ. Адаптивный подход может привести к мозаике методов обеспечения конфиденциальности, когда одни организации уделяют особое внимание конфиденциальности, а другие пренебрегают ею, что приводит к несогласованной среде и повышает вероятность нарушений конфиденциальности.

Наконец, мы понимаем, что обязательное использование DPML в приложениях ИИ может привести к дополнительным расходам для организаций. Однако эти затраты можно рассматривать как инвестиции в ответственную разработку ИИ, которая необходима для долгосрочного общественного доверия и признания. Внедрение надежных мер конфиденциальности с самого начала может помочь предотвратить дорогостоящие нарушения конфиденциальности и последующую подрыв общественного доверия к системам ИИ. Чтобы устранить опасения, поднятые Перспективой 2 (регулирование против DPML), мы предлагаем постепенное внедрение правил DPML, что даст организациям достаточно времени для адаптации и разработки эффективных решений. Кроме того, директивным органам следует рассмотреть возможность предоставления стимулов, таких как налоговые льготы или исследовательские гранты, для поддержки организаций при внедрении DPML и содействия ответственной разработке ИИ. В заключение мы выступаем за правила, требующие использования DPML в приложениях ИИ. Мы считаем, что приоритизация защиты конфиденциальности, укрепление доверия к системам ИИ и предотвращение непреднамеренного вреда являются важными факторами этического и ответственного развития ИИ. Признавая опасения, поднятые противоположной точкой зрения, и принимая меры для их решения, мы можем найти баланс между защитой конфиденциальности и инновациями, гарантируя реализацию преимуществ ИИ при минимизации
потенциальных рисков для конфиденциальности людей.

Ссылки:

1. Абади М., Чу А., Гудфеллоу И., МакМахан Х. Б., Миронов И., Талвар К. и Чжан Л. (2016). Глубокое обучение с дифференциальной конфиденциальностью. В материалах конференции ACM SIGSAC 2016 г. по компьютерной и коммуникационной безопасности (стр. 308–318). «https://doi.org/10.1145/2976749.2978318»

2. Дворк, К., и Рот, А. (2014). Алгоритмические основы дифференциальной конфиденциальности. Основы и тенденции® в теоретической информатике, 9 (3–4), 211–407. «https://doi.org/10.1561/0400000042»

3. Фредриксон М., Джха С. и Ристенпарт Т. (2015). Атаки с инверсией модели, использующие доверительную информацию и основные контрмеры. В материалах 22-й конференции ACM SIGSAC по компьютерной и коммуникационной безопасности (стр. 1322–1333). https://doi.org/10.1145/2810103.2813677

4. МакМахан, Х. Б., Рэймидж, Д., Талвар, К., и Чжан, Л. (2018). Изучение дифференциально-частных рекуррентных языковых моделей. В Международной конференции по представительствам обучения (ICLR). https://openreview.net/forum?id=BJ0hF1Z0b

5. Ниссим К., Стейнке Т., Вуд А., Альтман М., Бембенек А., Бан М., Габорди М., О'Брайен Д. Р. и Вадхан С. (2017 г. ). Дифференциальная конфиденциальность: руководство для нетехнической аудитории. Ванд. Дж. Энт. & Тех. Л., 20, 209. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2922123

Дифференциально частное машинное обучение для приложений ИИ: баланс между защитой конфиденциальности и инновациями

Фон