Многие из нас слышали фразу: «Имидж — это все». Но когда дело доходит до перехода ИИ на новый уровень, главное — это контекст.

Контекстная осведомленность воплощает в себе все тонкие нюансы человеческого обучения. Именно кто, где, когда и почему определяют человеческие решения и поведение. Без контекста нынешним основным моделям суждено раскрутиться и в конечном итоге прервать траекторию ожидания того, что ИИ улучшит нашу жизнь.

В этом блоге мы обсудим значение контекста в машинном обучении и то, как контекст позднего связывания может поднять планку машинного просвещения.

Почему важен контекст

Контекст настолько глубоко укоренен в человеческом обучении, что легко упустить из виду ту решающую роль, которую он играет в том, как мы реагируем на данную ситуацию. Чтобы проиллюстрировать это, рассмотрим разговор между двумя людьми, который начинается с простого вопроса: Как поживает бабушка?

В реальном разговоре этот простой запрос может вызвать любое количество потенциальных ответов в зависимости от контекстуальных факторов, включая время, обстоятельства, отношения и т. д.:

Этот вопрос показывает, как человеческий разум может отслеживать и учитывать огромное количество контекстуальной информации, даже тонкий юмор, чтобы дать соответствующий ответ. Эта способность плавно адаптироваться к разнообразным часто малозаметным контекстам находится далеко за пределами досягаемости современных систем искусственного интеллекта.

Чтобы понять значение этого дефицита в машинном обучении, рассмотрим разработку автономных агентов и роботов на основе обучения с подкреплением (RL). Несмотря на шумиху и успех архитектуры на основе RL в симулированных игровых средах, таких как Dota 2 и StarCraft II, даже чисто игровые среды, такие как NetHack, представляют собой серьезное препятствие для современных систем RL из-за весьма условного характера и сложность политик, которые необходимы для победы в игре. Точно так же, как отмечается во многих недавних работах, автономным роботам предстоит пройти немало времени, прежде чем они смогут взаимодействовать с ранее невидимой физической средой без необходимости серьезных инженерных усилий либо для моделирования правильного типа среды до развертывания, или закрепить изученную политику.

Текущее машинное обучение и обработка контекстных запросов

За некоторыми заметными исключениями, большинство моделей машинного обучения включают очень ограниченный контекст конкретного запроса, полагаясь в первую очередь на общий контекст, предоставляемый набором данных, на котором модель обучается или настраивается. Такие модели также вызывают серьезные опасения по поводу предвзятости, что делает их менее подходящими для использования во многих сферах бизнеса, здравоохранения и других важных приложений. Даже самые современные модели, такие как D3ST, используемые в приложениях искусственного интеллекта голосового помощника, требуют ручного создания описаний схем или онтологий с возможными намерениями и действиями, которые необходимы модели для определения контекста. Хотя это требует относительно минимального уровня ручного труда, это, тем не менее, означает, что каждый раз при обновлении контекста задачи требуется явный человеческий ввод.

Это не значит, что в моделях машинного обучения не было значительных изменений в области контекстной осведомленности. GPT-3, известная модель большого языка от команды OpenAI, использовалась для создания полных статей, которые могут конкурировать с человеческим составом — задача, требующая отслеживания хотя бы локального контекста. Модель языка путей (PaLM), представленная Google в апреле 2022 года, демонстрирует еще большие возможности, включая способность понимать концептуальные комбинации в соответствующих контекстах для ответа на сложные запросы.

Многие из недавних достижений были сосредоточены на расширении запросов на основе поиска, при котором ввод в модель (запрос) дополняется автоматическим поиском соответствующих данных из вспомогательной базы данных. Это позволило значительно продвинуться в таких приложениях, как ответы на вопросы и рассуждения по графам знаний.

С таким шквалом значительных улучшений качества достижимых результатов даже в рамках некоторых контекстуальных ограничений может возникнуть соблазн предположить, что это демонстрирует более общую осведомленность о контексте в современных системах ИИ. Тем не менее, эти модели по-прежнему не дают того контекста, который необходим для более сложных приложений, которые могут использоваться в производстве, медицинской практике и т. д. Такие приложения часто требуют определенной текучести в отношении контекста — как обсуждалось в разделе адаптируемость. » в одном из предыдущих блогов. Например, соответствующий контекст может быть обусловлен временной информацией, такой как уровень срочности запроса пользователя или цели и деликатность взаимодействия. Эта адаптируемость позволила бы соответствующему контексту для данного запроса развиваться в зависимости от прогресса общения с человеком. Говоря простым человеческим языком, модель должна избегать поспешных выводов, пока не будет собрана вся соответствующая контекстуальная информация. Эта тщательно продуманная приостановка окончательного ответа на исходный запрос и есть то, что можно назвать контекстом позднего связывания.

Стоит упомянуть, что последние модели нейронных сетей действительно имеют возможность достичь некоторого контекста позднего связывания. Например, если к модели добавлена ​​вспомогательная база данных, такая как Википедия, она может обусловить свой ответ последней версией Викиданных, таким образом учитывая некоторую степень актуального контекста, прежде чем предлагать ответ на конкретный запрос.

Одной из областей, в которых большое внимание уделяется контексту, является разговорный ИИ и, в частности, моделирование многооборотного диалога. Тем не менее, признано, что существуют ключевые проблемы в обеспечении осведомленности о теме и учете подразумеваемого времени, предшествующих знаний и преднамеренности.

Проблема с большинством развернутых в настоящее время технологий искусственного интеллекта заключается в том, что даже если они могут выполнять процесс кондиционирования в конкретном случае, кондиционирования с течением времени остается проблемой для многих приложений, поскольку требует сочетания понимания поставленной задачи, а также память о последовательности событий, которые произошли раньше, что действует как предварительный обусловливающий фактор. В качестве более беззаботного, метафорического примера можно было бы вспомнить канадское детективное шоу «Тайны Мердока», известное своим рефреном «Что у тебя есть, Джордж?». Это фраза, которую детектив Мердок постоянно использует, чтобы расспросить констебля Крэбтри о последних событиях, и ответы всегда разные и сильно зависят от событий, которые произошли в истории ранее.

Включение контекста в машинное обучение

Так как же можно включить и использовать контекст позднего связывания в машинном обучении в масштабе?

Одним из способов может быть создание масок выбора или наложений метазнаний, которые обеспечивают перекрывающиеся слои релевантной контекстной информации, которые эффективно сужают параметры поиска на основе конкретного варианта использования. В случае медицинского поиска правильного рецепта, например, врач будет учитывать диагностированное состояние пациента, другие сопутствующие заболевания, возраст, историю предыдущих побочных реакций и аллергий и т. д., чтобы ограничить область поиска конкретным лекарством. Для решения аспектов позднего связывания контекста такие наложения должны быть динамичными, чтобы фиксировать последнюю информацию, уточнять объем на основе конкретных знаний, понимать цели взаимодействия в полете и многое другое.

Атрибуция источника — еще одно ключевое измерение метазнаний, которое может быть особенно полезно в качестве маски выбора, которую можно использовать для включения контекста позднего связывания. Вот как модель будет доверять конкретному источнику больше, чем другому — скажем, Медицинскому журналу Новой Англии, а не анонимному сообщению на Reddit. Другим приложением для атрибуции источника может быть выбор правильного набора правил принятия решений и ограничений, которые должны применяться в данной ситуации — например, законы местной юрисдикции или правила дорожного движения в конкретном штате. Атрибуция источника также является ключом к уменьшению предвзятости за счет рассмотрения информации в контексте источника, создавшего ее, а не предположения о правильности на основе статистики событий.

Этот блог не затронул очень важный аспект — как человек или будущая система искусственного интеллекта могут выбрать соответствующие фрагменты информации, чтобы рассматривать их как контекст конкретного запроса? Какова структура данных, в которой нужно искать, чтобы найти контекстуально релевантные фрагменты данных, и как эта структура изучается? Подробнее об этих вопросах в следующих постах.

Не вырывайте информацию из контекста

Область ИИ делает успехи в объединении условий, композиционности и контекста. Однако следующий уровень машинного интеллекта потребует значительного прогресса в обеспечении возможности динамического понимания и применения множества аспектов контекста позднего связывания. Если рассматривать его в рамках высокоосведомленного интерактивного искусственного интеллекта, контекст — это все.

Ссылки

  1. Боммасани Р., Хадсон Д. А., Адели Э., Альтман Р., Арора С., фон Аркс С., … и Лян П. (2021). О возможностях и рисках моделей фундаментов. препринт arXiv arXiv:2108.07258.
  2. Бернер, К., Брокман, Г., Чан, Б., Чунг, В., Дембяк, П., Деннисон, К., … и Чжан, С. (2019). Dota 2 с крупномасштабным глубоким обучением с подкреплением. препринт arXiv arXiv:1912.06680.
  3. Виньялс, О., Бабушкин, И., Чарнецкий, В. М., Матье, М., Дудзик, А., Чанг, Дж., … и Сильвер, Д. (2019). Уровень гроссмейстера в StarCraft II с использованием мультиагентного обучения с подкреплением. Природа, 575(7782), 350–354.
  4. Кюттлер, Х., Нарделли, Н., Миллер, А., Райляну, Р., Селватичи, М., Грефенштетте, Э., и Рокташель, Т. (2020). Обучающая среда nethack. Advanced in Neural Information Processing Systems, 33, 7671–7684.
  5. Костриков И., Наир А. и Левин С. (2021). Обучение с подкреплением в автономном режиме с неявным q-обучением. препринт arXiv arXiv:2110.06169.
  6. Ибарз Дж., Тан Дж., Финн К., Калакришнан М., Пастор П. и Левин С. (2021). Как обучить своего робота с помощью глубокого обучения с подкреплением: уроки, которые мы извлекли. Международный журнал исследований робототехники, 40(4–5), 698–721.
  7. Локерцио, А., Кауфманн, Э., Ранфтль, Р., Мюллер, М., Колтун, В., и Скарамуцца, Д. (2021). Обучение скоростному полету в дикой природе. Научная робототехника, 6(59), eabg5810.
  8. Ясунага М., Рен Х., Босселут А., Лян П. и Лесковец Дж. (2021). Qa-gnn: Рассуждения с языковыми моделями и графами знаний для ответов на вопросы. препринт arXiv arXiv:2104.06378.
  9. Мехраби Н., Морстаттер Ф., Саксена Н., Лерман К. и Галстян А. (2021). Опрос о предвзятости и справедливости в машинном обучении. Вычислительные опросы ACM (CSUR), 54(6), 1–35.
  10. Чжао, Дж., Гупта, Р., Цао, Ю., Ю, Д., Ван, М., Ли, Х., … и Ву, Ю. (2022). Моделирование диалога, ориентированного на описание, ориентированное на задачу. препринт arXiv arXiv:2201.08904.
  11. Браун, Т., Манн, Б., Райдер, Н., Суббиа, М., Каплан, Дж. Д., Дхаривал, П., … и Амодей, Д. (2020). Языковые модели — это малоэффективные ученики. Достижения в области нейронных систем обработки информации, 33, 1877–1901 гг.
  12. Репортер, Г. С. (2020, 11 сентября). Всю эту статью написал робот. Ты еще не напуган, человек? Хранитель.
  13. Чоудхери, А., Наранг, С., Девлин, Дж., Босма, М., Мишра, Г., Робертс, А., … и Фидель, Н. (2022). Palm: масштабирование языкового моделирования с путями. препринт arXiv arXiv:2204.02311.
  14. Льюис П., Перес Э., Пиктус А., Петрони Ф., Карпухин В., Гоял Н., … и Киела Д. (2020). Поисково-дополненная генерация для наукоемких задач НЛП. Advanced in Neural Information Processing Systems, 33, 9459–9474.
  15. Боржо, С., Менш, А., Хоффманн, Дж., Кай, Т., Резерфорд, Э., Милликан, К., … и Сифре, Л. (2021). Улучшение языковых моделей путем извлечения из триллионов токенов. препринт arXiv: 2112.04426.
  16. Зингер, Г. (2022, 15 января). LM!=KM: пять причин, по которым языковые модели не соответствуют требованиям моделей знаний для искусственного интеллекта нового поколения. Середина.
  17. Мур, А. В. (14 апреля 2022 г.). Настал момент разговорного ИИ. Форбс.
  18. Сюй Ю., Чжао Х. и Чжан З. (2021 г., май). Моделирование многооборотного диалога с учетом темы. На Тридцать пятой конференции AAAI по искусственному интеллекту (AAAI-21).
  19. Ли, Ю., Ли, В., и Ни, Л. (2022). Динамическое графическое обоснование для ответов на разговорные открытые вопросы. Транзакции ACM в информационных системах (TOIS), 40(4), 1–24.
  20. Гао, К., Лей, В., Хе, X., де Рийке, М., и Чуа, Т. С. (2021). Достижения и проблемы в диалоговых рекомендательных системах: обзор. AI Open, 2, 100–126.
  21. Сингер, Г. (2022b, 9 мая). Понимание и благодаря глубоким знаниям — На пути к науке о данных. Середина.