Публикации по теме 'adversarial-attack'


Злобные иллюзии
Нейронные сети изо всех сил пытаются отделить правду от подделки Скрытый покровом ночи, вандал вооружившись баллончиком с краской и ноутбуком, направляется к ближайшим дорожным знакам. С помощью набора инструментов для рисования он пытается воссоздать изображение на своем ноутбуке. Его цель? Самоуправляемые автомобили и их системы компьютерного зрения. Если все пойдет по плану, эти системы будут неправильно интерпретировать дорожные знаки. Знаки «Стоп» становятся «новая полоса..

Логические атаки
Термины индекса: Машинное обучение , Федеративное обучение, Атаки на логические выводы, Бэкдор Большие данные дают множество возможностей для развития науки за счет улучшения здравоохранения, содействия экономическому росту и реформирования системы образования. В последнее время глубокое обучение широко используется для изучения не обучающих функций из сложных данных и широко используется в распознавании изображений, извлечении функций, классификации и прогнозировании. Быстрый рост..

Враждебные входные данные против глубокого обучения
В последние годы модели глубокого обучения достигли самых современных результатов в различных областях, особенно в областях компьютерного зрения и обработки естественного языка . Однако было обнаружено , что эти модели легко обмануть вводными данными противника, то есть злоумышленники могут вносить небольшие, но специфические изменения в типичные входные данные, которые приводят к неверным предсказаниям модели. В этом сообщении блога мы попытаемся объяснить, что такое враждебные входные..

Ядовитые чернила: скрытый, надежный, общий, невидимый и гибкий метод атаки с использованием бэкдора
Хотя прогресс и мощь глубоких нейронных сетей (ГНС) ускорили разработку таких приложений, как распознавание лиц и объектов, известно, что ГНС уязвимы для различных стратегий атак. Одна из самых коварных — это бэкдор-атаки, которые могут повредить обучающий набор данных и привести к тому, что DNN будут давать последовательные и повторяющиеся ошибочные классификации на входных данных, помеченных определенным шаблоном «триггера». Опасность бэкдор-атак вызывает озабоченность как в..

Невежество - это блаженство: состязательная надежность благодаря конструкции с OPU LightOn
Появиться на семинаре Beyond BackPropagation на NeurIPS 2020 🔥 🎭 Состязательные атаки генерируют слегка искаженные входные данные, которые неверно классифицируются нейронными сетями. Точность некоторых моделей машинного обучения может рухнуть, как карточный домик, перед лицом атак, которые даже не заметят люди. Хрупкость моделей - серьезное препятствие для развертывания обученных моделей в реальных сценариях. Кроме того, возникают серьезные вопросы о том, чему на самом деле..

Враждебные примеры и функция шумоподавления
Возьмем, к примеру, распознавание лиц. Легитимные входные данные представляют собой состязательный пример, сгенерированный состязательной атакой. Как мы видим, состязательный пример почти идентичен исходному законному вводу. Следовательно, человек отнес бы его к тому же классу. Однако модель распознавания лиц чувствительна к минимальным различиям между состязательным примером и исходным допустимым вводом. Он классифицирует враждебный пример к классу, отличному от исходного класса,..

Состязательное машинное обучение
"Какие? И что? Что теперь?" Эпизод 1: Состязательное машинное обучение Краткое введение для нетехнической аудитории Вступление В последние годы наблюдается стремительный рост использования машинного обучения , с помощью которого компьютеры могут быть запрограммированы так, чтобы определять закономерности в информации и делать более точные прогнозы с течением времени. Машинное обучение является ключевой технологией, лежащей в основе искусственного интеллекта (ИИ), и..