Публикации по теме 'adversarial-attack'


Что происходит с беспилотными автомобилями?
Конференция 2021 года по компьютерному зрению и распознаванию образов (CVPR) собрала множество компаний, работающих над беспилотными автомобилями. Я сосредоточился на анализе общедоступных наборов данных Lyft, Waymo, Argoverse и Toyota Research Institute. Я расскажу о своем видении беспилотных автомобилей, как это показано в CVPR: (1) анализ наборов данных и жизнеспособность включенных модальностей для полноценной автономной системы и (2) разбивка того, как можно использовать беспилотные..

Теоретико-игровой подход к состязательному машинному обучению
Теоретико-игровой подход к состязательному машинному обучению Как использовать теорию игр для снижения рисков соперничества? В последние годы искусственный интеллект добился большого успеха, поскольку он предоставил нам мощные алгоритмы, которые используют большую базу данных для точных прогнозов или классификаций. Их все чаще используют для разных целей, в том числе с высокими ставками. И все же они небезупречны . Фактически, большинство этих алгоритмов обучаются на данных,..

Состязательные атаки и защита в глубоком обучении: выявление уязвимостей
В последние годы модели глубокого обучения добились значительных успехов в различных областях, от распознавания изображений до обработки естественного языка. Однако эти модели не защищены от атак. Состязательные атаки, быстро развивающаяся область, направлены на использование уязвимостей в системах глубокого обучения, что часто приводит к неправильной классификации или ошибочному поведению. В этом сообщении блога мы рассмотрим тонкости состязательных атак, обсудим распространенные методы..

Обучение доказуемо-устойчивых нейронных сетей
Мысли и теория Обучение доказуемо-устойчивых нейронных сетей Защита от враждебных примеров с помощью GloRo Nets За последние несколько лет было показано, что глубокие сети уязвимы для злоумышленников, которые могут заставить сеть совершать неприятные ошибки, просто вводя в сеть злонамеренно искаженные входные данные. Очевидно, что это вызывает конкретные опасения по поводу безопасности нейронных сетей, развернутых в дикой природе, особенно в критически важных для безопасности..

Состязательное машинное обучение: разоблачение темной стороны ИИ
Представьте себе мир, в котором искусственный интеллект является неотъемлемой частью нашей повседневной жизни. Умные устройства предугадывают наши потребности в наших домах, точно регулируют температуру в помещении, без особых усилий проигрывают наши любимые мелодии и даже идеально готовят утренний кофе. Наш виртуальный помощник — идеальный надежный друг в этом утопическом мире. Вышеприведенный сценарий кажется сбывшейся мечтой, верно? Однако в этом идиллическом ландшафте скрывается..

Состязательное машинное обучение (часть 1) - мягкое введение
Краткое введение о защите алгоритмов машинного обучения от злоумышленников. Введение Эта серия разделена на 3 части: Введение в сферу состязательного машинного обучения Решающие тайм-атаки и способы их защиты Отравляющие атаки и способы защиты от них С ростом использования моделей машинного обучения в различных приложениях, параллельно возрастает их риск от злоумышленников. Таким образом, существует острая необходимость в разработке нескольких стратегий безопасности для..

Уязвимость глубокого обучения при ковариантном сдвиге данных Прадитья Рауди и Рифки Лутфан
Введение Современные нейронные сети способны достигать высокой производительности в точности, что делает их лучшим выбором для сложных приложений. Текущие исследования и разработки постоянно улучшают производительность для различных областей, и эта область сейчас более популярна, чем когда-либо. Однако одним из его недостатков являются проблемы с надежностью, которые возникают из-за отсутствия гарантии того, что такая производительность будет хорошо обобщаться на перестановки и невидимые..