Аннотация к моей магистерской диссертации по философии

Привет, наконец-то я защищаю диссертацию, которая станет концом моего обучения в HKUST.

Это аннотация, и все желающие могут присоединиться!

Дата и время: 30 июля 2018 г., 10:00

Место проведения: Комната 2404 (Лифт 17-18), Учебный корпус 2F, HKUST

Для машин важно правильно интерпретировать человеческие эмоции для лучшего общения человека с машиной, поскольку эмоции являются неотъемлемой частью общения между людьми. Один из аспектов эмоций отражается в языке, который мы используем. Как представить эмоции в текстах — это проблема обработки естественного языка (НЛП). Хотя непрерывные векторные представления, такие как word2vec, стали новой нормой для задач НЛП, их ограничения заключаются в том, что они не принимают во внимание эмоции и могут непреднамеренно содержать предвзятость в отношении определенных идентичностей, таких как разные полы.

Этот тезис направлен на улучшение существующих представлений как на уровне слов, так и на уровне предложений, путем явного учета эмоций внутри текста и предвзятости модели в процессе обучения. Наши улучшенные представления могут помочь в создании более надежных моделей машинного обучения для классификации текста, связанной с эмоциями, такой как анализ настроений/эмоций и обнаружение оскорбительных выражений.

Сначала мы предлагаем представления, называемые эмоциональными векторами слов (EVEC), которые изучаются из модели сверточной нейронной сети с корпусом, помеченным эмоциями, который создается с использованием хэштегов. Во-вторых, мы расширяемся до изучения представлений на уровне предложений, обучая двунаправленную модель долговременной кратковременной памяти с огромным набором текстов с псевдозадачей распознавания смайликов. Мы оцениваем оба представления, выполняя как качественный, так и количественный анализ, а также сообщаем о высоких результатах конкурса Semantic Evaluation (SemEval2018). Наши результаты показывают, что с представлениями, полученными из миллионов твитов со слабо контролируемыми ярлыками, такими как хэштеги и смайлики, мы можем более эффективно решать задачи анализа настроений/эмоций.

Наконец, в качестве примеров предвзятости модели в представлениях существующих подходов мы исследуем конкретную проблему автоматического обнаружения оскорбительного языка (также известного как язык ненависти). Мы решаем проблему гендерной предвзятости в различных моделях нейронных сетей, проводя эксперименты по измерению и уменьшению этих предубеждений в представлениях, чтобы построить более надежные модели классификации.