Публикации по теме 'adversarial-example'


Решение проблем ИИ в критически важных для безопасности сценариях  — «Обзор надежности глубокого обучения…
0x01 Текущие исследования надежности глубокого обучения Глубокие нейронные сети добились впечатляющих результатов во многих важных визуальных задачах, таких как классификация изображений, с точностью лучше, чем у человека. Однако по сравнению со зрительной системой человека модель глубокого обучения на удивление работает на гораздо более низком уровне на определенных образцах с небольшими отклонениями. Их существование, называемое «состязательными примерами», создает угрозы и..

Простые состязательные примеры против моделей сквозного автономного вождения
AI Scholar: Простые состязательные примеры против сквозных моделей автономного вождения Это краткое изложение исследования – лишь одно из многих, которые еженедельно публикуются в информационном бюллетене для ученых, занимающихся искусственным интеллектом. Чтобы начать получать еженедельную рассылку, подпишитесь здесь . Достижения в области методов машинного обучения (ML), таких как модели глубокого обучения, расширяют спектр высокопроизводительных приложений, включая автономное..

Пять угроз безопасности, о которых должен знать каждый инженер по машинному обучению (часть 1)
Примеры состязательности, часть 1 Вопрос: Как можно получить гуакамоле из трактора? Ответ: Вы используете состязательный пример Приложения машинного обучения продолжают набирать обороты как доступные и полезные инструменты для решения многих задач. Теперь у нас есть бесплатные большие языковые модели, которые могут писать эссе или вести чат. У нас есть генераторы изображений, которые могут создать изображение из текстового описания. Помимо бесплатных моделей, у нас есть..

Нерешенные исследовательские проблемы и реальные модели угроз
— Контекст: это сообщение в блоге основано на молниеносной речи, которую я произнес на встрече всех партнеров Partnership on AI в ноябре 2018 года и на конференции AGI в Пуэрто-Рико в январе 2019 года. Предостережение: я выражаю мысли в личном качестве, а не как представитель своего работодателя. — Я лично считаю, что примеры противоборства заслуживают изучения и должны вызывать серьезную озабоченность. Однако большинство оправданий того, почему именно вызывают беспокойство,..

Возвращение: защита от состязательных атак с использованием высокоуровневого представления управляемого шумоподавителя
Смысл Удалите шум от враждебных примеров перед подачей в целевую модель. Инновации Вместо шумоподавления враждебных изображений с помощью шумоподавителя с пиксельным управлением (PGD) в этой работе используются высокоуровневые представления в (a) функциях -, (b) logit -, (c) уровень классификации для управления обучением шумоподавителя, называемый высокоуровневым шумоподавителем, управляемым представлением (HGD). Вместо обычных автокодировщиков в этой работе..

Генеративные состязательные сети (GAN) - от интуиции к реализации
Генеративные состязательные сети (GAN) Формально GAN определяются как две нейронные сети, соревнующиеся друг с другом в игре (в смысле теории игр, часто, но не всегда, в форме игры с нулевой суммой). Учитывая обучающий набор, этот метод учится генерировать новые данные с той же статистикой, что и обучающий набор. Это определение кажется очень математическим, что может быть не очень полезно, если вас больше интересует реализация алгоритма. В этом блоге я собираюсь дать вам..

Состязательная атака с использованием генетического алгоритма
Состязательные атаки на модели машинного обучения были горячей темой исследований в последний год. Хотя многие команды работают над пониманием последствий состязательного подхода, это все еще новая область. Существует два основных подхода: Оптимизация по методу белого ящика требует доступа к обученной архитектуре модели и весам, а также использует ее свойство дифференцируемости для создания выборки противников. Оптимизация черного ящика рассматривает модель как объект с..