Публикации по теме 'nlp'
НЛП — это не то, что вы думаете
Отделение науки от псевдонауки
Как американца, живущего в Англии, бывают случаи, когда различия в значениях слов сбивают меня с пути.
«Хотите чипсы с этим?»
Имеют ли они в виду американские чипсы или британские чипсы — тонкие круглые ломтики картофеля или похожие на них более крупные картофельные палочки?
Или они узнали мой американский акцент, адаптировали свой словарный запас и фактически предлагают мне палочки, например, картошку фри? А может быть, я даже не замечаю..
Она лечит, он нанимает: анализ пола в каталоге Netflix
Как я использовал базовое НЛП, чтобы посмотреть, как пол соотносится с определенными предметами на Netflix.
Пару лет назад, когда я впервые познакомился с наукой о данных, меня поразила статья с данными под названием Она хихикает, он скачет », в которой анализировался гендерный аспект в направлении экрана в тысячах сценариев. Он специально идентифицировал все глаголы, следующие за он и она , чтобы исследовать гендерные тропы. Теперь, когда я узнал больше о науке о данных,..
Краткое изложение учебного пособия NAACL 2022: сопоставление данных и обучение обработке естественного языка
Некоторый контент в этом руководстве аналогичен тому, который я поделился в разделе Краткий обзор учебного пособия по NeurIPS 2021 | Самоконтролируемое обучение: самопрогнозирование и контрастное обучение . Оба учебника содержат исчерпывающие обновления по обучению с самостоятельным наблюдением и контрастному обучению, а этот учебник NAACL 2022 больше фокусируется на применении контрастного обучения в НЛП. Пожалуйста, ознакомьтесь с моим последним постом, так как я не буду подробно..
За гранью внимания: раскрытие возможностей моделей-трансформеров
Привет, однокурсники! Если вы следили за моими предыдущими постами, вы уже знакомы с механизмом внимания, значительным прорывом в области обработки естественного языка (NLP). Если нет, вернитесь к моему предыдущему сообщению в блоге здесь и познакомьтесь с этой увлекательной темой.
В этом блоге мы собираемся опираться на этот фундамент и исследовать одну из самых влиятельных архитектур НЛП на сегодняшний день: Трансформер. Эта революционная модель, рожденная из концепции «Внимание —..
Оперативная настройка для больших языковых моделей с логическим выводом
Введение
Быстрая настройка — это метод, который использует замороженные предварительно обученные языковые модели для последующих задач, что сводит к минимуму хранение каждой задачи и использование памяти на этапе обучения, и это полезно для больших языковых моделей (LLM), таких как GPT2, T5, GPT-J, GPT-NEO, GPT-NEOX, GPT-20B, GPT3 и т. д., где модель настолько велика, что тонкая настройка становится сложной или очень дорогой.
Параметры предварительно обученной языковой модели..
Обучите и разверните модель классификации текста с помощью Spark NLP, трансферного обучения BERT, MLflow и…
Пошаговые инструкции, как обучить модель классификации двоичного текста с помощью переносного обучения на предварительно обученной модели BERT (двунаправленные представления кодировщика от преобразователей) и делать пакетные прогнозы с помощью мелкозернистой модели на новых данные
Репозиторий GitHub с полным кодом блокнота здесь
Создайте кластер Databricks ML с установленной библиотекой Spark NLP
Databricks поставляется с средами выполнения машинного обучения , в..
BERT: использование контекстных вложений для понимания языка
BERT: использование контекстных вложений для понимания языка
Введение:
BERT (представления двунаправленного кодировщика от Transformers) приобрел огромную популярность как языковая модель, разработанная Google. В отличие от фиксированных вложений, таких как в Word2Vec, BERT решает задачу захвата контекстно-зависимых представлений слов. Давайте рассмотрим, как BERT революционизирует понимание языка и преодолевает ограничения фиксированных вложений.
Недостаток фиксированных..