Вам может быть интересно, если вы читали предыдущие статьи о дифференциальной конфиденциальности, какое отношение все эти запросы имеют к глубокому обучению. Эти методы фактически формируют основные принципы работы дифференцированной конфиденциальности в контексте глубокого обучения.

Ранее мы определили идеальный запрос, то есть запрос, который возвращает одно и то же значение, даже если человек удаляется из базы данных перед его выполнением. Это означает, что никакая информация о человеке не влияет на вывод запроса и, таким образом, сохраняет конфиденциальность для этого человека.

Итак, теперь, в контексте глубокого обучения, вместо того, чтобы говорить о запросах к базе данных, мы поговорим об обучении модели. И наше новое идеальное определение запроса будет для идеальной модели ИИ.

Обучение модели на наборе данных должно возвращать ту же модель, даже если мы удалим любого человека из набора данных для обучения.

Контекст глубокого обучения добавляет 2 новых сложных момента, которые не были в простом контексте базы данных, а именно:

1. Всегда ли мы знаем, где в базе данных есть ссылки на людей.

В случае с базой данных это было просто, поскольку каждая строка соответствовала человеку, поэтому мы могли легко удалить человека, удалив строку. Но в наборе данных, давайте останемся, мы обучаем классификатор настроений для обзора фильма, набор данных будет представлять собой кучу текста, и мы не сможем понять, кому принадлежит этот текст. Поэтому в некоторых случаях это может быть сложно.

2. Нейронные модели редко тренируются в одном и том же месте дважды, даже если они обучаются на одном и том же наборе данных.

Следовательно, если мы дважды обучим нейронную модель на одном и том же наборе данных, модель не достигнет одного и того же точного состояния дважды, поскольку в процессе обучения уже есть рандомизированный фактор.

В конечном итоге технология сохранения конфиденциальности предназначена для защиты владельцев данных от лиц или сторон, которым они не доверяют. Таким образом, мы хотим добавить столько шума, сколько необходимо для защиты этих людей, но мы должны проявлять осторожность, поскольку добавление лишнего шума фатально повлияет на точность модели, а недостаточное добавление может подвергнуть человека риску конфиденциальности.

Соответственно, при обсуждении методов обеспечения конфиденциальности мы должны убедиться, кто является вовлеченными сторонами, и кому мы доверяем, а кому не доверяем. Чтобы мы могли выбрать лучшую технику.

В следующей статье мы собираемся обсудить, как решить две недавно представленные сложности и как добиться дифференциальной конфиденциальности в контексте глубокого обучения.

Примечание

Я пишу эту статью в рамках защищенного и частного конкурса на получение стипендии ИИ от Udacity, чтобы поделиться тем, что я уже узнал.

# 60daysofudacity #secureandprivateai