AI Scholar: Простые состязательные примеры против сквозных моделей автономного вождения

Это краткое изложение исследования – лишь одно из многих, которые еженедельно публикуются в информационном бюллетене для ученых, занимающихся искусственным интеллектом. Чтобы начать получать еженедельную рассылку, подпишитесь здесь.

Достижения в области методов машинного обучения (ML), таких как модели глубокого обучения, расширяют спектр высокопроизводительных приложений, включая автономное управление вождением, и могут применяться для прямой имитации водителей-людей и принятия решений, таких как управление транспортным средством.

Но даже при таких замечательных усилиях исследования показали, что управление автономным вождением подвержено враждебным атакам. Вы, наверное, слышали о случае, когда исследователи из Массачусетского технологического института (MIT) напечатали 3D-черепаху, которую классификатор изображений неоднократно помечал как винтовку, демонстрируя ее хрупкость. При автономном вождении были показаны многочисленные состязательные примеры для восприятия глубокого обучения, такие как наклеивание наклеек на дорожные знаки или настройка пикселей во входном изображении, что может легко обмануть способности восприятия модели, что приведет к ложным прогнозам.

Враждебные атаки, которые манипулируют физической средой вождения, подробно не изучались. Тем не менее, исследователи обнаружили их и недавно предложили и продемонстрировали простые физические упущенные атаки против сквозного автономного управления вождением.

Примеры физического состязания для автономного вождения

Разработав универсальную структуру моделирования и инфраструктуру моделирования для изучения примеров состязательных действий на моделях автономного вождения e2e, исследователи обнаружили удивительно простые и легкие в разработке физические состязательные примеры, такие как размеченные линии на дороге с возможностью разрыва сквозных моделей вождения. . Некоторые представлены в менее уязвимых сценариях, таких как движение прямо, а другие изображены в очень эффектных сценах, где автомобиль должен повернуть направо.

Хотя человек может легко распознать и проигнорировать такие атаки, они очень эффективны для создания серьезных нарушений трафика для моделей автономного вождения e2e. Для тестирования и экспериментов исследователи использовали автономный симулятор транспортного средства CARLA и доказали, что эти физические атаки не только существуют, но и могут быть очень эффективными в определенных сценариях вождения даже для самых современных моделей искусственного интеллекта.

Возможное использование и эффекты

Тот факт, что якобы интеллектуальные системы машинного обучения так легко обмануть, вызывает беспокойство. Эти результаты исследований и рамочный инструмент, несомненно, предоставляют полезную информацию для выявления текущих недостатков в моделях глубокого обучения для e2e-вождения с целью их улучшения. Кроме того, исследование предлагает критически важную информацию для инженеров ИИ для дальнейшего изучения неизбежных атак на модели глубокого обучения, выходящие за рамки этого исследования.

Спасибо за чтение. Комментируйте, делитесь и не забывайте подписаться! Кроме того, подписывайтесь на меня в Twitter и LinkedIn. Не забудьте поставить 👏, если вам понравилась эта статья. Ваше здоровье!