Публикации по теме 'nlp'


НЛП — это не то, что вы думаете
Отделение науки от псевдонауки Как американца, живущего в Англии, бывают случаи, когда различия в значениях слов сбивают меня с пути. «Хотите чипсы с этим?» Имеют ли они в виду американские чипсы или британские чипсы — тонкие круглые ломтики картофеля или похожие на них более крупные картофельные палочки? Или они узнали мой американский акцент, адаптировали свой словарный запас и фактически предлагают мне палочки, например, картошку фри? А может быть, я даже не замечаю..

Она лечит, он нанимает: анализ пола в каталоге Netflix
Как я использовал базовое НЛП, чтобы посмотреть, как пол соотносится с определенными предметами на Netflix. Пару лет назад, когда я впервые познакомился с наукой о данных, меня поразила статья с данными под названием Она хихикает, он скачет », в которой анализировался гендерный аспект в направлении экрана в тысячах сценариев. Он специально идентифицировал все глаголы, следующие за он и она , чтобы исследовать гендерные тропы. Теперь, когда я узнал больше о науке о данных,..

Краткое изложение учебного пособия NAACL 2022: сопоставление данных и обучение обработке естественного языка
Некоторый контент в этом руководстве аналогичен тому, который я поделился в разделе Краткий обзор учебного пособия по NeurIPS 2021 | Самоконтролируемое обучение: самопрогнозирование и контрастное обучение . Оба учебника содержат исчерпывающие обновления по обучению с самостоятельным наблюдением и контрастному обучению, а этот учебник NAACL 2022 больше фокусируется на применении контрастного обучения в НЛП. Пожалуйста, ознакомьтесь с моим последним постом, так как я не буду подробно..

За гранью внимания: раскрытие возможностей моделей-трансформеров
Привет, однокурсники! Если вы следили за моими предыдущими постами, вы уже знакомы с механизмом внимания, значительным прорывом в области обработки естественного языка (NLP). Если нет, вернитесь к моему предыдущему сообщению в блоге здесь и познакомьтесь с этой увлекательной темой. В этом блоге мы собираемся опираться на этот фундамент и исследовать одну из самых влиятельных архитектур НЛП на сегодняшний день: Трансформер. Эта революционная модель, рожденная из концепции «Внимание —..

Оперативная настройка для больших языковых моделей с логическим выводом
Введение Быстрая настройка — это метод, который использует замороженные предварительно обученные языковые модели для последующих задач, что сводит к минимуму хранение каждой задачи и использование памяти на этапе обучения, и это полезно для больших языковых моделей (LLM), таких как GPT2, T5, GPT-J, GPT-NEO, GPT-NEOX, GPT-20B, GPT3 и т. д., где модель настолько велика, что тонкая настройка становится сложной или очень дорогой. Параметры предварительно обученной языковой модели..

Обучите и разверните модель классификации текста с помощью Spark NLP, трансферного обучения BERT, MLflow и…
Пошаговые инструкции, как обучить модель классификации двоичного текста с помощью переносного обучения на предварительно обученной модели BERT (двунаправленные представления кодировщика от преобразователей) и делать пакетные прогнозы с помощью мелкозернистой модели на новых данные Репозиторий GitHub с полным кодом блокнота здесь Создайте кластер Databricks ML с установленной библиотекой Spark NLP Databricks поставляется с средами выполнения машинного обучения , в..

BERT: использование контекстных вложений для понимания языка
BERT: использование контекстных вложений для понимания языка Введение: BERT (представления двунаправленного кодировщика от Transformers) приобрел огромную популярность как языковая модель, разработанная Google. В отличие от фиксированных вложений, таких как в Word2Vec, BERT решает задачу захвата контекстно-зависимых представлений слов. Давайте рассмотрим, как BERT революционизирует понимание языка и преодолевает ограничения фиксированных вложений. Недостаток фиксированных..