Использование машинного обучения для вывода и прогнозирования ощущений пользователей на основе обзоров продуктов, блогов и социальных сетей

Анализ настроений - это процесс попытки вывести из речи, мимики и поведения людей то, что они чувствуют. Целью анализа настроений является идея о том, что положительные или благоприятные чувства и отзывы частично являются причиной увеличения покупок, а негативные или неблагоприятные чувства и отзывы частично являются причиной уменьшения покупок. Другими словами, если вы хотите увеличить количество покупок, максимизируйте чувства людей. Если говорить более глубоко, анализ сантиментов включает в себя попытку идентифицировать вещи, которые вызывают положительные настроения в покупках, услугах или продуктах, чтобы сделать их больше, а также попытку определить вещи, вызывающие отрицательные настроения, и их остановить.

Анализ тональности обычно делится на три методологические категории, каждая из которых состоит из нескольких подкатегорий: (1) полученные текстовые выводы (например, из обзоров продуктов, блогов, сообщений в социальных сетях и т. Д.); (2) подсчет посещаемости пешеходного магазина (например, то, что привлекает или отталкивает потребителей); (3) распознавание лиц (например, когда и где они счастливы, грустны, сбиты с толку и т. Д.); и (4) мультимодальные
и пространственные выводы мультимедиа (например, аудио, видео и т. д.). Текстовые выводы чаще всего выполняются с помощью применения машинного обучения обработки естественного языка (НЛП) и понимания естественного языка (Cambria, Основанные на знаниях подходы к анализу настроений на уровне концепций: Новые возможности в изучении мнений и анализе настроений, 2013).

Обзоры продуктов и блоги - нейросемантические сети

Главной задачей текстового анализа тональности является классификация полярности, которую проще всего описать как вывод «большой палец вверх» или «большой палец вниз» из одного отрывка текста. Вторая форма бинарной классификации настроений - это обнаружение согласия, обе из которых могут быть расширены, чтобы сделать более тонкими, масштабируемыми и стохастическими со степенью положительности. При этом,
различение объективных и субъективных утверждений (обнаружение субъективности) и выделение темы (идентификация мнения и цели) являются необходимыми проблемами (Cambria, 2013).

В последние пять лет анализ мнений на основе текста и анализ настроений в первую очередь полагались на извлечение векторов для представления наиболее важных и заметных функций текста. Затем этот вектор используется для классификации признаков, которые считаются наиболее актуальными, часто путем измерения таких признаков, как «частота термина» и «присутствие». «Присутствие» - это двоичный векторный признак, в котором присутствует конкретный термин
(= 1) или отсутствует (= 0). Примечательно, что, хотя повторяющиеся ключевые слова могут подтвердить, что целевая тема присутствует в тексте, это не обязательно указывает на общее мнение автора по этой теме. Другие основанные на терминах особенности, часто добавляемые к вектору, включают положение (например, место, где термин попадает в текстовый отрывок, что может подразумевать тональность) и н-граммы присутствия, обычно биграммы и триграммы. Другие распространенные методы включают измерение расстояния между терминами и информацией о частях речи (например, существительными, прилагательными, наречиями, глаголами и т. Д.), Чтобы помочь в устранении смысловой неоднозначности, с особым акцентом на прилагательных для определения настроения. Другие подходы включают в себя методы отображения текста для присвоения ярлыков заранее определенным категориям настроений или чисел для представления степеней полярности (Cambria, 2013).

Специфические для обзоров продуктов, методы регрессии часто используются для неявного моделирования подобных отношений между классами, соответствующих баллам на шкале (например, звездам и т. Д.). Самый простой и экономичный способ начать анализ мнений и настроений из текстов - это «определение ключевых слов». Определение ключевых слов классифицирует текст по категориям с использованием недвусмысленных слов, описывающих «влияние» на потребителя (например, испуганный, скучающий, счастливый, грустный и т. Д. .) (Камбрия, 2013). Три популярных инструмента для реализации этого: (1) Affective Reasoner Кларка Эллиотта, который отслеживает 198 ключевых слов, «влияющих», интенсивность изменяет (насколько счастлив или зол потребитель) (Elliott, 1992); (2) «Аффективный лексикон» Эндрю Ортони, в котором отслеживаемые термины сгруппированы по аффективным категориям (Ortony, 1988); и (3) лингвистический подход к аннотации Janyce Wiebe, который является наиболее актуальным (Wiebe, 2005).

Два недостатка определения ключевых слов: (1) оно с трудом распознает слова, лишенные аффекта; и (2) он чрезмерно зависит от особенностей поверхности. Слова или фразы, лишенные аффекта, характеризуются словами «сегодня был счастливый день» и «сегодня не был счастливым днем»; в обоих случаях подход с выявлением ключевых слов классифицирует настроение как благоприятное, потому что оно включает слово «счастливый» и
не может распознать его отрицание, будучи измененным словом «не». Чрезмерная зависимость от поверхностных особенностей может Примером могут служить фразы, которые по своей природе негативны или позитивны для человека, читающего, но не имеющие эффекта, или сентиментальные слова, такие как «счастливый» или «грустный», или любые другие слова, содержащиеся в базе данных ключевых слов для этого метода (Cambria, 2013).

Лексическая близость - это поколение, выросшее из определения ключевых слов. Этот подход выявляет очевидные аффективные или эмоциональные слова, которые делает определение ключевых слов, а затем присваивает оценку словам, которые, по его мнению, являются произвольными (без очевидного настроения), которые представляют собой стохастическую вероятность того, к какой эмоции оно ближе всего, что он называет `` оценкой аффинности ''. «Этот подход тренирует вероятность из лингвистических корпусов и, с обратной связью и постоянным использованием, может учиться с течением времени (Stevenson, 2007) (Somasundaran, 2008) (Rao, 2009). Двумя слабыми сторонами лексической близости являются: (1) отрицательный аффект (как и определение ключевых слов); и (2) предубеждения, проистекающие из источника данных обучения (лингвистические корпуса), которые можно смягчить, убедившись, что они происходят из той же отрасли (например, электронная коммерция, розничная торговля, одежда и т. д.) (Cambria, 2013).

Статистические методы извлечения мнений и анализа настроений из текста включают байесовские выводы и алгоритмы SVM. Как правило, эти методы семантически слабые и становятся эффективными, когда входные данные отрывка текста находятся на уровне страницы или абзаца; они плохо разбираются в настроениях на уровне предложений или фраз (Cambria, 2013).

Следующее поколение анализа тональности помимо подсчета и отображения ключевых слов - это концептуальные подходы, основанные на семантических сетях или веб-онтологиях. Эти подходы позволяют уловить неявное значение фраз и их характеристик более естественным языком. Эти концептуальные подходы позволяют интерпретировать многословные фразы, которые явно не передают аффекты или эмоции; тем не менее, связаны с концепциями, которые действительно существуют (Grassi, 2011) (Olsher, 2012) (Cambria, 2013).

Аналитика текста для сбора информации о настроениях толпы из социальных сетей (XLNet)

Около 90% данных в мире, которые мы создали за последние 24 месяца - в среднем 2,5 квинтиллиона байт в день - и около 90% из них - это неструктурированные данные, такие как тексты, твиты, обзоры продуктов, изображения и видео. (Гриффит, 2018). Цель раскрытия смысла и цели этого электронного торрента создала индустрию текстовой аналитики (также известной как интеллектуальный анализ текста).

Ранние статистические методы и основанный на правилах ИИ в значительной степени зависели от количественных полей - чисел - и статистических моделей для расчета описательной статистики и приблизительного моделирования реального мира с помощью регрессий, правила Байеса и т. Д. Таким образом, розничные торговцы - и многие компании и организации - задают вопросы хотел бы ответить о фактах, отношениях и настроениях в этих текстовых блоках, которые в значительной степени заблокированы и недоступны для анализа без текстовой аналитики.

Текстовая аналитика пытается понять сам текст, идентифицировать или классифицировать автора (ов) или связать текст с чем-то осязаемым в мире, или событием, или вероятностью этих вещей. Это означает, что обработка текстовой аналитики может - но не всегда - включать вычислительную лингвистику, анализ контента, поиск информации и обработку естественного языка (см. Рисунок 1). Большая часть интеллектуального анализа текста включает в себя разбиение текста на фрагменты или символы - подумайте о «ключевых словах» - и применение к ним весов, которые часто определяются тем, сколько раз слово или фраза используется в отрывке по сравнению с тем, как часто они обычно появляются. . Другие особенности часто включают длину слов и их функции (Madigan, 2019).

Возможно, одним из наиболее важных интересов в текстовой аналитике, которая быстро развивается и оказывает наибольшее влияние, является анализ тональности этого корпуса обзоров продуктов и других форм текста. Это не только полезно для категоризации авторов по их словам и поведению, что позволяет разработать индивидуальный маркетинг, убеждение или лечение; если можно измерить настроения по текстовым полям, то можно также измерить и спрогнозировать сдвиги в настроениях, что очень ценно. во множестве приложений.

Традиционно для бинарной классификации текста (хорошо / плохо) использовались статистические методы, модели и инструменты. К ним относятся дискриминантные модели, такие как линейная и логистическая регрессия, а также деревья классификации и регрессии (CART), и генеративные модели, такие как байесовские классификаторы и линейный дискриминантный анализ (LDA) (Madigan, 2019). С появлением в конце 2000-х недорогих и массивных вычислительных мощностей и хранилищ модели машинного обучения стали чаще использоваться для текстовой аналитики, начиная с моделей машинного обучения с учителем, таких как SVM.

При поиске слов для розничных приложений, включающем анализ настроений в сообщениях в социальных сетях и обзорах продуктов, основной целью является понимание (в отличие от распознавания конкретных фактов). В поисках понимания слов в этой предметной области основное внимание уделяется их значению и извлечению понятий.

Существует не менее 83 готовых коммерческих программных решений (COTS) для использования в текстовой аналитике, у которых достаточно клиентов, чтобы дать им обзоры и сравнительные рейтинги. У многих немного разные приложения и варианты использования; однако, по сути, они электронные кузены. Ни один из них не занимает стабильно высокий рейтинг выше 95-го процентиля; однако DiscoverText близок.

Вторичный анализ совокупных оценок редакторов и отзывов пользователей позволяет определить лидеров в этой области (рис. 2 и рис. 3, прилагаемая таблица). Знать, кого считать лидерами, так же важно, как и знать, кого следует исключить из рассмотрения. Как правило, платные решения всегда значительно превосходят бесплатные решения
. Имена поставщиков, получивших средний балл, были выбраны в визуализации, чтобы дать возможность легко увидеть лидеров, отстающих и ранжирование решений от крупных компаний (например, Apache, Google, IBM, Microsoft, Oracle и т. Д.). Решения в правом верхнем углу имели наивысшие совокупные баллы; решения в левом нижнем углу имели самые низкие совокупные
баллы (Imanuel, 2019).

Для большинства приложений одного или нескольких из этих десяти приложений достаточно, и они представляют собой наилучшее соотношение времени и ресурсов для получения очень хороших, хотя и далеко не идеальных, результатов на основных этапах процесса текстовой аналитики. Во многих случаях выбор продукта более крупной компании (например, IBM, Oracle и т. Д.), Даже если они имеют более низкий рейтинг, чем некоторые другие, может быть выгодным, поскольку у них
более широкая и надежная поддержка и документация, чем у небольших компаний. или стартапы с продуктами с более высоким рейтингом.

Если есть экономическое обоснование для создания настраиваемой системы для достижения превосходной производительности или из-за особенностей в приложении предметной области, то два подхода или комбинации алгоритмов неоднократно давали хорошие результаты для классификации и анализа тональности, двух крупнейших этапов текстовой аналитики. : (1) SVM для обучения с учителем; и (2) комбинации рекуррентных нейронных сетей (RNN), сверточных нейронных сетей (CNN) и долгосрочной краткосрочной памяти (LSTM) для обучения без учителя (Wang, Dimensional sentiment analysis с использованием региональной модели CNN-LSTM, 2016) ( Ян, Метод анализа тональности ансамбля на основе R-NN и C-RNN со слиянием, 2019). CNN-LSTM исторически работал лучше, чем большинство других моделей НЛП, в основном для Twitter, обычного текстового источника, из-за особенностей используемых им коротких фрагментированных сообщений. Во многих случаях бесплатная или недорогая установка Anaconda и RStudio позволяет повторно использовать сотни уже написанных библиотек Python и R в сочетании с большинством ансамблей алгоритмов.

Точность анализа тональности постоянно улучшалась с 2016 по 2019 год. Это особенно ценно в трех случаях: (1) доменные приложения за пределами розничной торговли, где высокая точность критически важна; (2) сложные платформы, которые стремятся повысить точность 85–90% до почти идеальной; и / или (3) приложения для розничной торговли, которые обрабатывают огромные объемы информации, что дает положительное экономическое обоснование для повышения точности однозначного процента.

Сравнительная эффективность анализа настроений обычно измеряется на основе набора данных IMDb из 50 000 обзоров фильмов. В 2016 году самые точные алгоритмы - виртуальное состязательное обучение и горячая LSTM - имели точность 94,1%. В 2017 году алгоритм LSTM с разреженными блоками достиг точности 94,99%. В 2018 году алгоритм ULMFiT достиг точности 95,4%. А в 2019 году пять алгоритмов - BERT-Large, L-MIXED, BERT-Large Finetune UDA, Graphstar и NB-weighted-BON + dv-cosine - достигли уровней 95,49%, 95,68%, 95,8%, 96% и 97,4% на том же наборе данных. Однако другой алгоритмический подход позволил достичь еще большей точности на Стэнфордском
банке дерева настроений (SST), который содержит 215 154 фраз в 11 855 предложениях в обзорах фильмов. Там XLNet достигла точности 96,8%.

Следовательно, в высокоточных пользовательских гетерогенных ансамблевых алгоритмах машинного обучения только NB-взвешенный-BON + dv-косинус и XLNet имеют точность около 97% или выше (Yang, XLNet: Generalized auto-regressive pretraining for languagestanding, 2019) ( Тонгтан, 2019). XLNet - это обобщенная модель авторегрессивного предварительного обучения, которая похожа на автоэнкодер (AE) и представляет собой его дальнейшее развитие, называемое двунаправленным кодировщиком от Transformers (BERT) (Devlin, 2019) (Yang, XLNet: Generalized auto-regressive pretraining for language понимание, 2019) (Лян, 2019). Он был разработан в сотрудничестве между исследователями из Университета Карнеги-Меллона и Google Brain. В 20 сравнениях XLNet превосходит BERT в подполе текстовой аналитики, включая ранжирование документов, обработку естественного языка, анализ тональности и ответы на вопросы (Yang, XLNet: Generalized auto-regressive pretraining for language knowledge, 2019).

Подходы с автоэнкодером (AE) и авторегрессией (AR) учатся, случайным образом выбирая слово из предложения и заменяя его переменной с именем [MASK], а затем пытаясь выяснить, каким должно быть слово, глядя на его контекст. Основное различие - это направления, в которых они ищут этот контекст. Модели AR двунаправлены - они пытаются вычислить следующее слово, глядя вперед или назад (GPT и GPT-2 являются моделями AR). Модели AE используют оба направления - вперед и назад - одновременно. Это делает AR лучше при генеративном НЛП (создании текста, похожего на человека), потому что это всегда прямой контекст (Liang, 2019).

Однако такие AE, как BERT, тоже имеют слабые стороны. Во-первых, они используют упражнение по изучению переменных [MASK] на этапе предварительной подготовки, но не на более позднем этапе точной настройки, что создает то, что было названо несоответствием предварительной подготовки и точной настройки. Во-вторых, AE предполагают, что слова всегда
независимы друг от друга. Когда есть неявные связи между словами - теми, которые часто идут вместе, - АЕ упускают этот важный намек. AE следует научиться соотносить (например, сначала попробуйте и т. Д.) Слова, которые обычно используются в комбинации (Liang, 2019).

Развитие XLNet к анализу настроений состоит в том, что он создает для AR способ обучения с помощью двунаправленного контекста, не привлекая двух основных слабостей таких AE, как BERT. XLNet делает это за счет включения новой техники, называемой моделированием языка перестановок (PLM), на этапе предварительного обучения. Как подразумевается, этот метод позволяет ему «пробовать» слово во всех возможных местах и ​​использовать наиболее правильное размещение вместо того, чтобы угадывать в одном месте (Liang, 2019).

Таким образом, для окончательной эволюции розничной текстовой аналитики для определения того, как потребители относятся к определенным продуктам и соответствующей адаптации, приложение XLNet в RStudio, использующее R, является современным в конце 2019 года. Более того, благодаря высокой производительности (98 % +), в будущем мало что можно улучшить. Многие текстовые источники можно настроить на автоматическое заполнение в электронной таблице или базе данных с помощью Zapier, затем применять сценарии машинного обучения в RStudio и отображать выходные результаты с соответствующей визуализацией (например, облака слов, солнечные лучи, тепловые карты и т. Д.) В R Блестящий, Табло или Cognos.

С учетом сказанного, окончательное решение о том, какие алгоритмы использовать для прослушивания в социальных сетях с анализом настроений, будет зависеть от ваших текстовых источников. Источники текста в стиле повествования (например, стенограмма фокус-группы или обзоры продуктов) будут классифицировать и визуализировать настроения лучше всего с помощью решений типа НЛП, таких как AR XLNet или даже AE BERT. Посты в социальных сетях, похожие на Twitter, будут лучше всего классифицировать и визуализировать настроения с помощью алгоритмов CNN + LSTM из-за фрагментированного и идиосинкразического характера их контента.

Ссылки

Камбрия, Э., Шуллер, Б., Ся, Ю., Хаваси, К. (2013). Основанные на знаниях подходы к анализу настроений на уровне концепций: новые возможности в изучении мнений и анализе настроений. Интеллектуальные системы IEEE, 28 (2):
15–21.

Эллиотт, К. (1992). The Affective Reasoner: модель процесса эмоций в многоагентной системе. Докторская диссертация. Эванстон, Иллинойс, США: Институт обучающих наук Северо-Западного университета.

Грасси, М., Камбрия, Э., Хуссейн, А., Пьяцца, Ф. (2011). Sentic Web: новая парадигма управления эмоциональной информацией в социальных сетях. Когнитивные вычисления, 3 (3): 480–489.

Гриффит, Э. (15 ноября 2018 г.). 90 процентов больших данных, которые мы генерируем, представляют собой неструктурированный беспорядок. Получено из журнала PC Magazine: https://www.pcmag.com/news/364954/90-percent-of-the-big-data-wegenerate-is-an-unstructured-me

Имануэль. (2019, 24 августа). Топ-27 бесплатных программ для анализа текста, интеллектуального анализа текста, текстовой аналитики. Получено из Predictive Analytics Today: https://www.predictiveanalyticstoday.com/top-free-software-fortext-analysis-text-mining-text-analytics/

Лян, X. (24 июня 2019 г.). Что такое XLNet и почему он превосходит BERT. Получено с сайта Towards Data Science: «https://towardsdatascience.com/what-is-xlnet-and-why-it-outperforms-bert- большая8d8fce710335.

Мэдиган Д., Льюис Д. (18 августа 2019 г.). Интеллектуальный анализ текста: обзор. Нью-Йорк, Нью-Йорк, США: Колумбийский университет.

Ольшер, Д. (2012). Анализ мнений полного спектра: интеграция предметных, синтаксических и лексических знаний. ICDMW ’12 Труды 12-й Международной конференции IEEE 2012 г. по семинарам по интеллектуальному анализу данных (стр. 693–700). Брюссель, Бельгия: ACM.

Ортони, А. (1988). Познавательная структура эмоций. Кембридж, Великобритания: Издательство Кембриджского университета.

Рао, Д., Равичандран, Д. (2009). Индукция лексикона полу-контролируемой полярности. Труды 12-й конференции европейского отделения Ассоциации компьютерной лингвистики (стр. 675–682). Афины, Греция: Ассоциация компьютерной лингвистики (ACL).

Сомасундаран, С., Вибе, Дж., Руппенхофер, Дж. (2008). Интерпретация мнений на уровне дискурса. Труды 22-й Международной конференции по компьютерной лингвистике (Coling 2008) (стр. 801–808). Манчестер, Великобритания: Ассоциация компьютерной лингвистики (ACL).

Стивенсон, Р., Микелс, Дж., Джеймс, Т. (2007). Характеристика аффективных норм английских слов по дискретным эмоциональным категориям. Методы исследования поведения, 39 (4): 1020–1024.

Вибе, Дж., Уилсон, Т., Карди, К. (2005). Аннотирование выражений мнений и эмоций на языке. Языковые ресурсы и оценка, 39 (2): 165–210.