Глубокая прокачка | Metasploit для машинного обучения

Deep-pwning — это облегченная платформа для экспериментов с моделями машинного обучения с целью оценки их устойчивости против мотивированного противника.

Обратите внимание, что глубокое раскрытие в его нынешнем состоянии далеко не зрело и не завершено. Он предназначен для экспериментов, расширения и расширения вами. Только тогда мы сможем помочь ему действительно стать набором инструментов для тестирования на проникновение для статистических моделей машинного обучения.

Структура:

Исследователи обнаружили, что на удивление легко обмануть модель машинного обучения (классификатор, кластеризатор, регрессор и т. д.), чтобы она принимала объективно неправильные решения. Эта область исследований называется состязательным машинным обучением. Не будет преувеличением утверждать, что любой мотивированный злоумышленник может обойти любую систему машинного обучения, имея достаточно информации и времени. Однако эту проблему часто упускают из виду, когда архитекторы и инженеры проектируют и создают системы машинного обучения. Последствия, когда эти системы используются в критических сценариях, таких как медицина, транспорт, финансы или безопасность, вызывают беспокойство.

Следовательно, когда кто-то оценивает эффективность приложений с использованием машинного обучения, их гибкость в условиях состязательности должна измеряться наряду с точностью системы и отзывом.

Эта структура построена на основе Tensorflow, и многие примеры, включенные в этот репозиторий, представляют собой модифицированные примеры Tensorflow, полученные из репозитория Tensorflow GitHub.

Все включенные примеры и код реализуют глубокие нейронные сети, но их можно использовать для создания состязательных изображений для классификаторов с аналогичными задачами, которые не реализованы с помощью глубоких нейронных сетей. Это связано с феноменом «переносимости» в машинном обучении, который был описан Papernot et al. экспертно изложена в этой статье. Это означает, что враждебные образцы, созданные с помощью модели DNN A, могут обмануть другую четко структурированную модель DNN B, а также некоторую другую модель SVM C.

Компоненты:

Deep pwning состоит из нескольких компонентов, чтобы свести к минимуму повторение кода. Из-за совершенно другого характера потенциальных задач классификации текущая итерация кода оптимизирована для классификации изображений и фраз (с использованием векторов слов).

Это модули кода, которые составляют текущую итерацию Deep-pwning:

  1. драйверы драйверы являются основной точкой выполнения кода. Здесь вы можете связать различные модули и компоненты вместе, а также добавить дополнительные настройки в процессы генерации состязательности.
  2. Модели — это место, где находятся фактические реализации моделей машинного обучения. Например, предоставленное определение модели lenet5 находится в функции model() в lenet5.py.

https://indiancybersecuritysolutions.com/deep-pwning-metasploit/

#глубокий анализ#машинное обучение#тестирование на проникновение#взлом