Профессор Хонг Ю объясняет теорию отклика на предмет на нашем семинаре по НЛП и тексту как данным.

На семинаре «НЛП и текст как данные», который состоялся в прошлый четверг, профессор Хун Ю из Медицинской школы Массачусетского университета рассказала об усилиях, которые она вместе со своими коллегами приложила для включения человеческого интеллекта и когнитивных функций для улучшения глубокого обучения с помощью новых моделей. Например, в статье «Построение оценочной шкалы с использованием теории ответов на вопросы» обсуждается модель теории ответов на вопросы (IRT) Хун Ю, Джона П. Лалора и Хао Ву, которая сравнивает системы обработки естественного языка с производительностью человеческой популяции.

После создания новых моделей глубокого обучения Ю продолжает оценивать, обучаются ли они подобно человеческому мозгу. Человеческий мозг должен учиться постепенно, начиная с контента низкой сложности и продвигаясь к более сложному контенту. «Ни один человек сначала не поймет уравнение Альберта Эйнштейна, прежде чем не поймет основы физики», — сказал Ю. Традиционная модель машинного обучения может решить сложные проблемы раньше, чем простые — хотя это не признак машинного интеллекта, а скорее запоминание или случайность. Ю и ее коллеги обнаружили, что модели глубокого обучения учатся, как люди, тратя меньше времени на решение простых задач, чем на решение сложных, и поэтому считаются «интеллектуальными» системами.

IRT использует сложность в качестве меры для сравнения производительности системы. Этот метод широко используется в психометрии и психолингвистике для создания таких заданий, как вызывающие ужас SAT, GRE или другие тесты способностей, начиная с детства и далее, и тщательно тестируется на популяции. Эта же методология применяется для тестирования производительности моделей машинного обучения. Используя тысячу людей для создания интеллектуальных наборов вопросов для разделения производительности НЛП, компьютерная система работала с впечатляющей точностью 97%, но на самом деле была в нижнем 44-м процентиле, когда IRT использовалась в качестве метрики оценки, что означает, что вероятность 56% что люди превзойдут компьютер.

Также обсуждались нейронные сети с дополненной памятью. Сеть Ю, дополненная памятью, в отличие от других моделей глубокого обучения, принимает шум, когда до 35% пар предложений в обучающем наборе случайным образом заменяются неправильными метками. Интеллектуальные модели глубокого обучения классифицируются как таковые, если они изучают проблемы от простого к сложному и могут до некоторой степени терпеть шум.

Эти интеллектуальные модели глубокого обучения будут применяться к нежелательным явлениям, связанным с лекарствами, или побочным реакциям на лекарства, которые являются основной причиной смерти в США. Используя электронные медицинские карты, цель Ю в будущем — разработать сложную систему конкуренции, которая повысит безопасность лекарств для пациентов. .

Найла Аль-Мамлюк

Первоначально опубликовано на сайте cds.nyu.edu 11 апреля 2017 г.