Такер Дэйви

Обучая детекторы изображений, исследователи искусственного интеллекта не могут воспроизвести реальный мир. Они учат системы, чего ожидать, снабжая их обучающими данными, такими как фотографии, компьютерные изображения, реальное видео и смоделированное видео, но эти практические среды никогда не могут уловить беспорядок физического мира.

В машинном обучении (ML) детекторы изображений учатся обнаруживать объекты, рисуя вокруг них ограничивающие рамки и давая им метки. И хотя этот процесс обучения успешен в простых средах, он быстро усложняется.

Легко определить человека слева, но как бы вы нарисовали ограничивающую рамку вокруг человека справа? Вы бы включили только видимые части его тела или также его скрытые туловище и ноги? Эти различия могут показаться тривиальными, но они указывают на фундаментальную проблему распознавания объектов: редко существует единственный лучший способ определить объект.

Как показывает это второе изображение, реальный мир редко бывает однозначным, и «правильный» ответ обычно неоднозначен. Тем не менее, когда системы машинного обучения используют обучающие данные для развития их понимания мира, они часто этого не отражают. Вместо того, чтобы распознавать неопределенность и двусмысленность, эти системы часто уверенно подходят к новым ситуациям не иначе, как их обучающие данные, которые могут подвергнуть опасности системы и людей.

Брайан Зибарт, профессор компьютерных наук Университета Иллинойса в Чикаго, проводит исследования, чтобы улучшить способность систем ИИ работать в условиях неопределенности, присущей им. Физический мир запутан и непредсказуем, и если мы хотим доверять нашим системам ИИ, они должны иметь возможность безопасно справиться с этим.

Самоуверенность в системах машинного обучения

Системы машинного обучения неизбежно столкнутся с реальными сценариями, к которым их обучающие данные никогда не готовили. Но, как объясняет Зибарт, нынешние статистические модели «склонны предполагать, что данные, которые они увидят в будущем, будут во многом похожи на данные, которые они видели в прошлом».

В результате эти системы чрезмерно уверены в том, что они знают, что делать, когда они сталкиваются с новыми точками данных, даже если эти точки данных совсем не похожи на то, что они видели. Системы машинного обучения ошибочно предполагают, что их обучение подготовило их ко всему, и возникающая в результате излишняя самоуверенность может привести к опасным последствиям.

Рассмотрим обнаружение изображений для беспилотного автомобиля. Автомобиль может обучать обнаружению изображения на данных с приборной панели другого автомобиля, отслеживая поле зрения и рисуя ограничивающие рамки вокруг определенных объектов, как на изображении ниже:

Детекторы изображений превосходны для получения таких четких изображений. Но реальный мир не всегда так прост. Если исследователи обучат детектор изображений на чистых, хорошо освещенных изображениях в лаборатории, он сможет точно распознавать объекты в 80% случаев в течение дня. Но когда вы вынуждены ехать по дорогам дождливой ночью, она может упасть до 40%.

«Если вы собираете все свои данные в течение дня, а затем пытаетесь развернуть систему ночью, то, несмотря на то, что она была обучена обнаружению изображений в течение дня, просто не будет хорошо работать, если вы обобщите эти новые настройки», Зибарт объясняет.

Более того, система машинного обучения может не распознавать проблему: поскольку система предполагает, что ее обучение охватило все, она останется уверенной в своих решениях и продолжит «делать сильные прогнозы, которые просто неточны», - добавляет Зибарт.

Напротив, люди склонны распознавать, когда предыдущий опыт не обобщается в новых условиях. Если водитель заметит впереди на дороге неизвестный объект, он не просто пробьет этот объект. Вместо этого она может замедлиться, обратить внимание на то, как другие машины реагируют на объект, и рассмотреть возможность поворота, если она сможет сделать это безопасно. Когда люди неуверенно относятся к окружающей среде, мы проявляем осторожность, чтобы не совершать опасных ошибок.

Зибарт хотел бы, чтобы системы искусственного интеллекта включали аналогичные уровни осторожности в неопределенных ситуациях. Вместо того чтобы уверенно делать ошибки, система должна осознавать свою неопределенность и задавать вопросы, чтобы собрать больше информации, как это сделал бы неуверенный человек.

Состязательный подход

Обучение и практика могут никогда не подготовить системы ИИ к любой возможной ситуации, но исследователи могут сделать свои методы обучения более надежными. Зибарт утверждает, что ввод в системы беспорядочных данных в лаборатории может научить их лучше распознавать и устранять неопределенности.

Удобно, что люди могут предоставлять эти беспорядочные, реальные данные. Нанимая группу людей-аннотаторов для просмотра изображений и рисования ограничивающих рамок вокруг определенных объектов - автомобилей, людей, собак, деревьев и т. Д. - исследователи могут «встроить в классификатор некоторое представление о том, как выглядят« нормальные »данные», - сказал Зибарт. объясняет.

«Если вы попросите десять разных людей предоставить эти ограничивающие рамки, вы, вероятно, получите обратно десять разных ограничивающих рамок», - говорит он. «Просто есть много внутренней двусмысленности в том, как люди думают об истинных суждениях об этих вещах».

Возвращаясь к изображению человека в машине выше, люди-комментаторы могут дать десять разных ограничивающих рамок, которые захватывают разные части видимого и скрытого человека. Подавая системам машинного обучения эти запутанные и противоречивые данные, Зибарт подготавливает их к ожиданию двусмысленности.

«Мы синтезируем больше шума в набор данных в нашей процедуре обучения», - объясняет Зибарт. Этот шум отражает беспорядок в реальном мире и обучает системы быть осторожными при прогнозировании в новых условиях. Осторожные и неуверенные системы искусственного интеллекта будут искать дополнительную информацию и учиться ориентироваться в запутанных ситуациях, с которыми они сталкиваются.

Конечно, беспилотные автомобили не должны задавать вопросы. Например, если система распознавания изображения автомобиля заметит впереди посторонний объект, у него не будет времени просить помощи у людей. Но если он обучен распознавать неопределенность и действовать осторожно, он может замедлиться, обнаружить, что делают другие автомобили, и безопасно перемещаться вокруг объекта.

Строительные блоки для машин будущего

Исследования Зибарта до сих пор остаются в сфере тренировок. Он скармливает системам беспорядочные, разнообразные данные и обучает их создавать ограничивающие рамки, которые как минимум на 70% перекрываются с ограничивающими рамками людей. И его процесс уже дал впечатляющие результаты. Например, в задаче обнаружения объектов ImageNet, исследованной в сотрудничестве с Симой Бепур (Университет Иллинойса в Чикаго) и Крисом Китани (Университет Карнеги-Меллона), состязательный подход Зибарта повышает производительность более чем на 16% по сравнению с наиболее эффективным дополнением данных. метод ". Обученные для работы в неопределенных средах, эти системы более эффективно управляют новыми точками данных, к которым их явным образом не подготовило обучение.

Но пока Зибарт обучает относительно узкие системы искусственного интеллекта, он считает, что это исследование может быть расширено до более продвинутых систем, таких как автономные автомобили и системы общественного транспорта.

«Я рассматриваю это как фундаментальную проблему в том, как мы разрабатываем эти предикторы», - говорит он. «Мы пытаемся создать более совершенные строительные блоки для машинного обучения - лучшие первые принципы машинного обучения, которые будут более надежными».

Эта статья является частью серии Future of Life о грантах на исследования в области безопасности искусственного интеллекта, которые финансировались за счет щедрых пожертвований Илона Маска и Open Philanthropy Project.

Первоначально опубликовано на сайте futureoflife.org 15 марта 2018 г.