Публикации по теме 'nlp'


Создайте своего собственного Рика Санчеса (бота) с помощью Transformers и тонкой настройки DialoGPT
Научите GPT-2 писать как сумасшедший ученый Я большой поклонник Рика и Морти и НЛП (обработка естественного языка). После просмотра последней серии приключений сумасшедшего ученого и его внука я понял, что мне нужно применить свои знания в области НЛП и машинного обучения, чтобы создать своего собственного Рика (в форме чат-бота, по крайней мере, на данный момент). Путь к созданию виртуального Рика был непростым. Я перепробовал множество моделей и подходов, но виртуальный Рик..

Внедрение Seq2Seq с вниманием в Keras
Недавно я отправился в небольшое интересное путешествие, пытаясь улучшить Учебник по переводу с вниманием Tensorflow, и подумал, что о результатах стоит поделиться со всем миром. Моя цель состояла в том, чтобы реализовать ту же логику, что и в вышеупомянутом руководстве, но сделать это более похожим на Keras способом, удалив активный код. Вторичной целью было ускорить выполнение учебника, чтобы обучение на полном наборе данных было несколько более управляемым. Я считаю, что мне удалось..

Иллюстрированное руководство по двунаправленному потоку внимания (BiDAF)
Полное руководство по BiDAF - часть 1 из 4 Иллюстрированное руководство по двунаправленному потоку внимания (BiDAF) В этой статье показано, как работает BiDAF, модель НЛП, которая раздвинула границы области вопросов и ответов. В 2016 году команда Вашингтонского университета опубликовала BiDAF. BiDAF легко победил лучшие модели вопросов и ответов на тот момент и в течение нескольких недель возглавлял таблицу лидеров Стэнфордского набора вопросов и ответов (SQuAD) , возможно,..

Теория встраивания слов в Word2Vec
В недавних достижениях, сделанных Google с их новаторскими предварительно обученными моделями NLP, названными BERT (двунаправленные представления кодировщика от трансформаторов), основы в значительной степени являются точной копией встраивания слов в моделях Word2Vec и GloVe (глобальное представление векторов). В серии публикаций мы рассмотрим различные концептуальные аспекты, которые в конечном итоге приведут нас к лучшему пониманию BERT. Содержание: 1. Введение 2. Word2Vec -..

Как создать ответ на вопрос с помощью DPR
Методы вопросов и ответов нового поколения для интеллектуальных решений нового поколения При ответах на вопросы в открытой области мы обычно проектируем архитектуру модели, которая содержит источник данных, средство извлечения и считыватель / генератор. Первым из этих компонентов обычно является хранилище документов. Два самых популярных магазина, которые мы здесь используем, - это Elasticsearch и FAISS. Далее идет наш ретривер - тема этой статьи. Задача поисковика - фильтровать..

Классификация текста BERT на другом языке
Создайте неанглийскую (немецкую) модель многоклассовой классификации текста BERT с помощью HuggingFace и Simple Transformers. Первоначально опубликовано на https://www.philschmid.de 22 мая 2020 г. Вступление В настоящее время в мире проживает 7,5 миллиардов человек примерно в 200 странах. Только 1,2 миллиарда из них являются носителями английского языка . Это приводит к появлению большого количества неструктурированных текстовых данных не на английском языке. Большинство..

Быстрые вложения предложений fse  — библиотека Python для сверхбыстрых вложений предложений.
Обрабатывайте 500 000 предложений в секунду! Ultra Fast Sentence Embeddings — библиотека Python, которая служит дополнением к Gensim. Функции До 500 000 предложений в секунду (🚀) • Поддерживает встраивание среднего значения, SIF и uSIF. • Полная поддержка Gensims Word2Vec и всех других совместимых классов. • Полная поддержка Gensims FastText со словами, не входящими в словарь. • Индукция частот слов для предварительно обученных вложений • Подпрограммы ядра Fast Cython..