По мере того, как в эпоху больших данных обостряются проблемы конфиденциальности, разработчики постоянно совершенствуют методы искусственного интеллекта и машинного обучения для защиты личности людей.

Системы машинного обучения позволяют предприятиям более эффективно выявлять мошенничество и обеспечивать безопасность пользовательской информации. Эти системы собирают данные, которые могут дать гораздо более ценную информацию, чем индивидуальная проверка. Security Magazine, например, использовал машинное обучение, чтобы выяснить, что пользователи iPhone 5s в семь раз чаще совершают мошенничество, чем пользователи iPhone 8.

В то же время исследователи постоянно совершенствуют методы машинного обучения, чтобы лучше защитить конфиденциальность отдельных случаев обучения. Вот обзор трех распространенных методов машинного обучения, которые обеспечивают безопасность вашей личности.

Аналитика поведения пользователей

Вход в учетную запись Gmail с нового устройства требует принятия различных мер безопасности. Google отправит электронное письмо с предупреждением о входе в систему или отправит текст со специальным кодом на номер телефона, связанный с учетной записью.

Это часть его системы аналитики поведения пользователей — системы ИИ, которая изучает, как отдельный человек или группа обычно получают доступ к своим сервисам, и использует эту информацию для подтверждения личности пользователя при последующих аутентификациях. Поведенческая аналитика является общей стратегией безопасности.

Системы безопасности на основе машинного обучения собирают и интерпретируют информацию, включая местоположение, время и динамику нажатия клавиш, связанную с аутентификацией. Когда любой из них отклоняется от базового поведения, система безопасности начинает действовать.

Эта стратегия широко используется, в том числе в Amazon Web Services. Его служба безопасности Macie использует механизм анализа поведения пользователей для автоматического обнаружения, классификации и защиты конфиденциальных данных. Среди прочего, механизм обнаруживает внезапное увеличение рискованной или необычной активности API и активности в нечастые часы.

RSA Security также использует аналитику поведения пользователей, как подчеркивается в сообщении в блоге бывшего консультанта компании по управлению продуктами. Компания также отдает приоритет забыванию старых или устаревших моделей поведения в алгоритмах, например, когда пользователь постоянно перемещается. Это важный шаг оптимизации в любом анализе поведения пользователей.

Биометрическая аутентификация

Технология биометрической аутентификации также развивается, чтобы гарантировать, что только пользователи могут получить доступ к своим устройствам и учетным записям. Хакерам трудно и дорого взламывать сложные биометрические стены, как написал для The Next Web инженер-программист и блоггер по технологиям Бен Диксон.

Новый iPhone X от Apple, например, содержит программное обеспечение для аутентификации по лицу, основанное на искусственном интеллекте. Вместо того, чтобы сравнивать лицо пользователя с неподвижными изображениями, он создает модель лица с помощью инфракрасной камеры и встроенного процессора нейронной сети.

В отличие от предыдущего программного обеспечения для аутентификации по сканированию лица, новая технология работает в различных условиях освещения и может определить, проснулся ли пользователь. Он даже использует расширенное машинное обучение для адаптивного распознавания, поэтому он по-прежнему распознает пользователя, когда он носит шляпу, очки или меняет прическу.

Некоторые из наших самых сложных технологий — система камер TrueDepth, Secure Enclave и Neural Engine — делают ее самой безопасной аутентификацией по лицу из когда-либо существовавших в смартфоне, — говорится на странице продукта Apple.

Дифференциальная структура конфиденциальности

В другом ключе исследователи работают над созданием и улучшением сред машинного обучения, которые защищают личности людей, чьи данные используются для обучения моделей. Защитные фреймворки не только удовлетворяют потребности пользователей в конфиденциальности, но и предотвращают переоснащение, которое снижает способность модели к обобщению. Таким образом, повышение конфиденциальности в машинном обучении может привести к созданию более полезных моделей.

Структура дифференциальной конфиденциальности, например, измеряет степень конфиденциальности, которую гарантирует алгоритм, как описали два эксперта по машинному обучению из Google Brain. Алгоритм достигает дифференциальной конфиденциальности, если ответы, которые он дает, нельзя различить на основе обучающих примеров. Другими словами, алгоритм мог бы сделать такой же вывод без какой-либо заданной точки данных.

По словам экспертов, любой может использовать структуру дифференциальной конфиденциальности с помощью семейства алгоритмов Private Aggregation of Teacher Ensembles (PATE). Инфраструктура PATE работает аналогично любой другой модели контролируемого машинного обучения, но результирующая модель включает гарантии конфиденциальности.

Чтобы разработать модель обучения PATE, исследователи должны разделить обучающие данные на фрагменты, обучить их по отдельности и агрегировать свои прогнозы. Но они должны добавить шум от распределения Лапласа или Гаусса, прежде чем они придут к единственному прогнозу. В сообщении ученых Google Brain более подробно рассматривается этот процесс. Но важно то, что он превосходит другие подходы к конфиденциальности, такие как k-анонимность, и преодолевает их ограничения.

Машинное обучение поддерживает прочный барьер между частной информацией и хакерами, пытающимися получить к ней доступ. Фреймворки будущего также будут лучше защищать данные, используемые при обучении. Эта повышенная конфиденциальность послужит только улучшению области машинного обучения и науки о данных в целом.

Оригинальная история здесь

— — — — — — — — — — — — — — — — — —

Читайте другие статьи по науке о данных на OpenDataScience.com, включая учебные пособия и руководства от начального до продвинутого уровня! Подпишитесь на нашу еженедельную рассылку здесь и получайте последние новости каждый четверг.