Публикации по теме 'nlp'


Что такое чат-GPT?
Сегодня я хочу демистифицировать ChatGPT — увлекательное новое приложение GAN (генеративно-состязательных сетей), которое вызвало много шума в сообществе ИИ. Для тех, кто не знаком с GAN, это тип нейронной сети, которая использует две конкурирующие сети — генератор и дискриминатор — для создания реалистичных результатов. Генератор создает поддельные выходные данные, а дискриминатор пытается отличить поддельные выходные данные от реальных данных. Благодаря этому обратному процессу GAN..

Как использовать API базы данных фильмов для проекта Data Science
В этой серии из 6 частей я объясню свой процесс использования обработки естественного языка и машинного обучения для классификации жанров сценариев. Дополнительную информацию см. в разделе мой репозиторий . Часть 1. Бизнес-цель Часть 2. Сбор данных Часть 3: Обработка данных (вы здесь) Часть 4. Предварительная обработка данных (еще не опубликовано) Часть 5. Построение модели (еще не опубликовано) Часть 6. Развертывание модели (еще..

Улучшите свою текстовую аналитику: 6 инструментов NLP с открытым исходным кодом для специалистов по данным
Текстовые данные повсюду, и как специалист по данным вы обязательно столкнетесь с ними в своем следующем проекте. Независимо от того, собираете ли вы твиты для анализа настроений или анализируете отзывы клиентов, важно овладеть искусством текстовой аналитики. Вот где в игру вступают инструменты обработки естественного языка (NLP). В этой статье мы рассмотрим шесть лучших НЛП с открытым исходным кодом…

Введение в курс «Ни один язык не забыт» (NLLB-200)
Недавно Meta AI открыл исходный код своей масштабной модели перевода No Language Left Behind (NLLB-200), намереваясь исключить языковые барьеры по всему миру. Как мы знаем, в настоящее время машинный перевод стал ключевой областью исследований, и это стало отличной новостью для многих исследователей и организаций, которые могут использовать его для своих исследований и работы. Итак, давайте посмотрим на новости и немного разберемся в NLLB-200 со следующими пунктами: Оглавление Что..

Объяснение документов 07: АЛЬБЕРТ
ALBERT представляет определенные методы уменьшения параметров для снижения потребления памяти и увеличения скорости обучения BERT. Выбор архитектуры модели Основа архитектуры ALBERT аналогична BERT тем, что в ней используется кодер-трансформер с нелинейностями GELU. ALBERT использует размер прямой связи/фильтра как 4H и количество головок внимания как H/64. где H — скрытый размер в BERT. Как и в случае с BERT, во всех экспериментах с ALBERT используется словарный запас V, равный 30..

Более быстрое и компактное квантованное НЛП с Hugging Face и ONNX Runtime
Этот пост написали Морган Фунтович , инженер по машинному обучению из Hugging Face, и Юфенг Ли, старший инженер-программист из Microsoft Модели-преобразователи, используемые для обработки естественного языка (NLP), велики. BERT-base-uncased имеет ~ 110 миллионов параметров, RoBERTa-base имеет ~ 125 миллионов параметров, а GPT-2 имеет ~ 117 миллионов параметров. Каждый параметр представляет собой число с плавающей запятой, для которого требуется 32 бита (FP32). Это означает, что..

Откройте для себя возможности кластеризации HDBSCAN для неконтролируемого обучения
HDBSCAN (пространственная кластеризация приложений с шумом на основе иерархической плотности) — это мощный неконтролируемый метод машинного обучения для обнаружения кластеров в данных. Это особенно полезно для наборов данных, содержащих большое количество точек с различной плотностью, поскольку может обрабатывать как плотные, так и разреженные кластеры. Одной из ключевых особенностей HDBSCAN является его способность идентифицировать кластеры любой формы, размера и плотности. Это..