Ассоциация компьютерной лингвистики (ACL) проведет свое 56-е ежегодное собрание 15–20 июля в Мельбурне, Австралия. Вчера оргкомитет ACL 2018 объявил три лучшие длинные статьи и две лучшие короткие статьи.

Из 1544 поданных статей ACL приняла 258 длинных статей из 1018 заявок и 126 коротких статей из 526 заявок. Общий показатель принятия в этом году составляет 24,9 процента.

В категории длинных работ высшие награды получили: Поиск синтаксиса в человеческой энцефалографии с помощью лучевого поиска исследовательской группы, возглавляемой Джоном Хейлом; Судха Рао и Хэл Доме III из Университета Мэриленда: Учимся задавать хорошие вопросы: ранжирование уточняющих вопросов с использованием нейронного ожидаемого значения совершенной информации »; и Давайте сделаем это "снова": первый вычислительный подход к обнаружению триггеров наречия исследовательской группы Университета Макгилла и MILA. Статья Хейла еще не опубликована, а остальные уже появились на arXiv.

ACL выбрала две лучшие короткие статьи от исследовательской группы Стэнфордского университета, включая Пранава Раджпуркара, Робина Джиа и Перси Ляна, Знайте, чего вы не знаете: вопросы без ответа для SQuAD ; и Оливия Винн и Смаранда Муресан из Колумбийского университета, сотрудники программы «Светлее» все еще может быть темным: моделирование сравнительных описаний цветов. Ни одна из этих статей не была опубликована.

Ниже приведены отрывки из двух опубликованных статей.

https://www.cs.mcgill.ca/~jkabba/acl2018paper.pdf

Мы представляем задачу прогнозирования триггеров наречных пресуппозиций, таких как также и снова. Решение такой задачи требует обнаружения повторяющихся или похожих событий в контексте дискурса и имеет приложения в задачах генерации естественного языка, таких как реферирование и диалоговые системы. Мы создаем два новых набора данных для этой задачи на основе Penn Treebank и Annotated English Gigaword corpora, а также новый механизм внимания, адаптированный к этой задаче. Наш механизм внимания дополняет базовую рекуррентную нейронную сеть без необходимости в дополнительных обучаемых параметрах, сводя к минимуму дополнительные вычислительные затраты нашего механизма. Мы демонстрируем, что наша модель статистически превосходит ряд базовых показателей, включая языковую модель на основе LSTM.

https://arxiv.org/pdf/1805.04655.pdf

Запросы - основа коммуникации, и машины не могут эффективно взаимодействовать с людьми, если они не могут задавать вопросы. В этой работе мы строим модель нейронной сети для задачи ранжирования уточняющих вопросов. Наша модель основана на идее ожидаемой ценности совершенной информации: хороший вопрос - это вопрос, ожидаемый ответ на который будет полезен. Мы изучаем эту проблему, используя данные StackExchange, обширного онлайн-ресурса, на котором люди обычно задают уточняющие вопросы к сообщениям, чтобы они могли лучше предложить помощь оригинальному постеру. Мы создаем набор уточняющих вопросов, состоящий из ~ 77 тысяч сообщений в паре с уточняющими вопросами (и ответами) из трех доменов StackExchange: askubuntu, unix и superuser. Мы оцениваем нашу модель на 500 выборках из этого набора данных в сравнении с оценками экспертов и демонстрируем значительные улучшения по сравнению с контролируемыми исходными уровнями.

Автор: Виктор Лу | Редакторы: Майкл Саразен, Тони Пэн

Подпишитесь здесь, чтобы получать подробные технические новости, обзоры и аналитику!