Публикации по теме 'adversarial-attack'


Маскировка камуфляжа
Маскировка камуфляжа Примечание. Эта работа является продолжением работы, выполненной под эгидой IQT Labs. IQT Labs прямо заявила, что не собирается заниматься этой темой, и призвала автора продолжить изучение и публикацию этого проекта. Известно, что усовершенствованные детекторы объектов компьютерного зрения восприимчивы к атакам со стороны злоумышленников, которые могут обмануть детектор, заставив его пропустить обнаружение или пропустить классифицированный объект. В наших..

Состязательные атаки (часть 2) — укрепление доверия к моделям глубокого обучения
Типы враждебных атак Существует два типа состязательных атак: Целевые состязательные атаки Эти атаки нацелены на модель M, которая в идеале должна классифицировать пример S как класс X, чтобы изменить свое решение и, в частности, получить результат как класс Y. Физические атаки с использованием исправлений — это Пример целевых атак. Нецелевые состязательные атаки Эти атаки нацелены на модель M, которая в идеале должна классифицировать пример S как класс X, чтобы изменить свое..

У вас есть ссылка на это первое исследование, посвященное атакам серого ящика?
У вас есть ссылка на это первое исследование, посвященное атакам серого ящика? Я пытаюсь понять разницу между черным ящиком и серым ящиком. Большинство определений черного ящика, которые я нашел до сих пор, похоже, на самом деле являются определением серого ящика, которое вы используете в этом сообщении в блоге. Кроме того, какой справочный документ на картинке № 5? Вы должны включить ссылки или пояснить их, если я их пропустил.

CAMOLO — Враждебный камуфляж для обнаружения объектов над головой
В этом блоге мы исследуем эффективность и недостатки противоборствующей маскировки в контексте изображений сверху. Примечание. Этот блог является кратким изложением нашей статьи ArXiv . 1. Резюме Хотя в ряде недавних работ была продемонстрирована способность надежно обманывать классификаторы глубокого обучения и детекторы объектов с помощью враждебных исправлений (дальнейшее обсуждение см. в нашем предыдущем блоге [ссылка]), большая часть этой работы была выполнена на относительно..

Понимание надежности машинного обучения: почему это важно и как это влияет на ваши модели
Введение Машинное обучение стало неотъемлемой частью нашей повседневной жизни, поддерживая такие приложения, как распознавание речи, классификация изображений и системы рекомендаций. Поскольку мы продолжаем полагаться на эти технологии, мы должны понимать и обеспечивать надежность базовых моделей. Эта статья является первой в серии, в которой исследуется надежность машинного обучения, ее определение, важность и компромиссы между надежностью и точностью. По мере продвижения в этой..

Атака на систему обнаружения сетевых вторжений
Современные системы обнаружения сетевых вторжений используют алгоритмы машинного обучения для улучшения своей архитектуры на основе сигнатур и правил. Однако алгоритмы машинного обучения уязвимы для нового вектора атаки, известного как состязательные примеры. Методы создания и проведения состязательных атак хорошо известны для классификаторов изображений, но менее известны для классификаторов сетевого трафика. В этой статье моделируется теоретическая атака белого ящика на алгоритм..

Конфиденциальность и безопасность ML (против) Конфиденциальность и безопасность с использованием ML
Конфиденциальность и безопасность машинного обучения сильно отличаются от конфиденциальности и безопасности с использованием машинного обучения, и в следующем блоге делается попытка пролить свет на перекрывающиеся и непересекающиеся компоненты машинного обучения. В статье не будет подробно объясняться каждый аспект машинного обучения. темы, а скорее указать направление для читателей, чтобы они поняли и увидели, как ML можно использовать для конфиденциальности и безопасности, имея при..