Компьютеры думают

Искусственный интеллект очень хорошо справляется с неопределенностью.

Насколько интеллектуален искусственный интеллект? Настолько ли оно разумно, что мы можем на него положиться? Насколько она может нам помочь и где ее пределы? Многие приложения ИИ используются для анализа, затем прогнозирования результатов и последующего реагирования на них соответствующим образом. По мере развития ИИ он становится частью многих вещей, с которыми мы живем, но он также является инструментом, помогающим нам делать то, что мы делаем: компьютер частично думает, чтобы мы могли лучше справляться со своей работой. .

Обучение

Быть роботом опасно: это видно из видео ниже, на котором показано, как робот патрулирует торговый центр в Осаке и подвергается нападению детей.

Исследователи разработали алгоритм минимизации опасности — например, отметив, что дети в группах представляют больший риск. Робот научился избегать опасностей, даже приближаясь к родителям ребенка в расчете на то, что они повлияют на поведение ребенка.

Это важное применение искусственного интеллекта — анализ данных для определения риска и способов противодействия ему. Это одно из основных направлений деятельности Teamcore Research Group в Университете Южной Калифорнии ( USC), которая работала над программированием деятельности полиции, безопасности аэропортов и рейнджеров дикой природы.

Вы можете выяснить, где наиболее вероятны атаки, но вы не можете забыть о других местах.

Теория игры

Директор Teamcore Милинд Тамбе говорит, что они основывали свое исследование на теории игр: «Игра между защитником и противником — центральный столп нашей работы, но мы ослабили некоторые традиционные предположения из-за трудностей в реальной жизни. Мир."

Одна из этих трудностей заключается в том, что традиционная теория игр предполагает, что игроки рациональны, но это не так.

«Мы смотрим на прошлые действия, чтобы увидеть, что сделали злоумышленники, — объясняет Тамбе, — и используем эти данные, чтобы делать прогнозы».

К счастью для программистов, есть много криминала и много опыта при прогнозировании обычной работы полиции, но это не работает с борьбой с терроризмом, которая (к счастью) встречается гораздо реже.

Люди не очень хороши в рандомизации, они склонны делать вкл/выкл.

«Вы должны планировать это очень консервативно, предполагая, что противник мыслит очень стратегически».

Таким образом, в то время как данные для полицейского управления могут использовать прошлый опыт для прогнозирования мест ограблений, а затем для определения следующего шага грабителей, безопасность в аэропортах должна основываться на более жестких структурах.

Этот прогностический анализ является лишь частью их работы. Teamcore также выполняет предписывающий анализ, определяя, где ресурсы могут быть применены с наибольшей пользой.

«Вы можете выяснить, где наиболее вероятны нападения, — говорит Тамбе, — но вы не можете забыть другие места».

Аэропорт, который вряд ли будет атакован, должен время от времени проверяться, иначе потенциальные злоумышленники воспользуются его слабостью. Как часто это нужно? И когда? Предсказуемая инспекция — это почти приглашение к нападению.

Способность ИИ делать выводы из неорганизованного материала делает его идеальным решением для таких задач.

Разбираться в беспорядке

«Люди не очень хорошо разбираются в рандомизации, — объясняет Тамбе. «Они склонны делать вкл/выкл». И компьютеры могут работать с рядом вариантов, которые выходят за рамки человеческих возможностей. «У нас есть 20 авиамаршалов на 1000 рейсов. Это астрономическое количество комбинаций. У нас есть шаблоны развертывания, до которых еще никто не додумался».

Способность ИИ делать выводы из неорганизованного материала делает его идеальным решением для таких задач. «ИИ очень хорошо справляется с неопределенностью и очень умно определяет, на какие закономерности стоит обратить внимание».

Но его нужно снабдить правильной информацией: береговая охрана сообщила команде Тамбе, что их программа говорит им двигаться куда-то быстрее, чем максимальная скорость лодки. «На ранних этапах люди часто указывают на проблемы, — признается Тамбе, — но в конце концов мы часто обнаруживаем, что даже если люди говорят, что идея не была хорошей, она действительно сработала. У нас много историй успеха».

Майкл Лоутон

Следите за обновлениями, пока мы продолжаем обсуждение искусственного интеллекта и сосредоточимся на проблемах безопасности, связанных с автономными транспортными средствами.