Разработка автономного оружия, также известного как роботы-убийцы, была встречена серьезной критикой со стороны экспертов и лидеров отрасли. Одной из основных проблем является возможность использования этого оружия способами, нарушающими международное гуманитарное право. Автономному оружию не хватает человеческого суждения и способности различать гражданские и военные цели, что увеличивает риск причинения вреда гражданскому населению. Разработка автономного оружия может привести к гонке вооружений между странами, что приведет к дальнейшей эскалации глобальных конфликтов.
Развитие технологии ИИ идет быстрыми темпами, и эксперты предупреждают, что ИИ может быть использован для разработки новых видов оружия, которые будут более смертоносными и эффективными, чем когда-либо прежде. Некоторые эксперты даже поднимали вопрос о возможности управляемого ИИ оружия, способного самостоятельно принимать решения на поле боя, что может привести к потере контроля над оружием и повышенному риску непредвиденных последствий.
В июле 2018 года более 150 компаний и исследовательских групп в области искусственного интеллекта и робототехники подписали обязательство не разрабатывать автономное оружие. В заявлении говорится, что эти компании не будут «участвовать в разработке, производстве, торговле или использовании смертоносного автономного оружия». Однако не все компании подписали залог. Некоторые известные компании, которые не подписали соглашение, включают Intel и IBM. Некоторые эксперты также раскритиковали это обещание за то, что оно не является юридически обязывающим и не учитывает возможность использования автономного оружия нелетальными способами, например, для сдерживания толпы.
Илон Маск открыто выступал против разработки автономного оружия, заявляя, что оно может привести к «третьей революции в военном деле», и призывая к запрету роботов-убийц. Он также призвал других технологических лидеров присоединиться к нему в его усилиях по предотвращению разработки автономного оружия.
Важно отметить, что использование автономного оружия поднимает сложные этические и юридические вопросы, и в настоящее время нет международного соглашения о том, как регулировать его разработку и использование. Крайне важно, чтобы международное сообщество продолжало диалог и работало над поиском решения этой проблемы, пока не стало слишком поздно.
Использованная литература:
- Автономное оружие: открытое письмо от компаний, занимающихся искусственным интеллектом и робототехникой. Автономное оружие: открытое письмо от компаний, занимающихся искусственным интеллектом и робототехникой | Кампания по борьбе с роботами-убийцами, www.stopkillerrobots.org/open-letter/.
- Илон Маск в Твиттере: «Если вы создаете робота-убийцу, вы просто напрашиваетесь на неприятности.
- Роботы-убийцы: полностью автономное оружие. Amnesty International, www.amnesty.org/en/what-we-do/arms-control-and-human-rights/killer-robots/.
- Злоумышленное использование искусственного интеллекта: прогнозирование, предотвращение и смягчение последствий. Злонамеренное использование искусственного интеллекта: прогнозирование, предотвращение и смягчение последствий, www.fhi.ox.ac.uk/reports/malicious-use-of-ai/.
- Обязательство автономного оружия. (2018). Получено с https://futureoflife.org/autonomous-weapons-pledge/
- Кроули, Б. (2018). Почему некоторые технологические компании отказываются подписывать обязательство против роботов-убийц. Получено с https://www.cnbc.com/2018/08/21/why-some-tech-companies-are-refusing-to-sign-pledge-against-killer-robots.html
- Предупреждение Илона Маска о роботах-убийцах. Получено с https://www.youtube.com/watch?v=8nt3edWLgIg Маск, Э. (2018, август).