Публикации по теме 'nlp'
Создайте своего собственного Рика Санчеса (бота) с помощью Transformers и тонкой настройки DialoGPT
Научите GPT-2 писать как сумасшедший ученый
Я большой поклонник Рика и Морти и НЛП (обработка естественного языка). После просмотра последней серии приключений сумасшедшего ученого и его внука я понял, что мне нужно применить свои знания в области НЛП и машинного обучения, чтобы создать своего собственного Рика (в форме чат-бота, по крайней мере, на данный момент).
Путь к созданию виртуального Рика был непростым. Я перепробовал множество моделей и подходов, но виртуальный Рик..
Внедрение Seq2Seq с вниманием в Keras
Недавно я отправился в небольшое интересное путешествие, пытаясь улучшить Учебник по переводу с вниманием Tensorflow, и подумал, что о результатах стоит поделиться со всем миром. Моя цель состояла в том, чтобы реализовать ту же логику, что и в вышеупомянутом руководстве, но сделать это более похожим на Keras способом, удалив активный код. Вторичной целью было ускорить выполнение учебника, чтобы обучение на полном наборе данных было несколько более управляемым. Я считаю, что мне удалось..
Иллюстрированное руководство по двунаправленному потоку внимания (BiDAF)
Полное руководство по BiDAF - часть 1 из 4
Иллюстрированное руководство по двунаправленному потоку внимания (BiDAF)
В этой статье показано, как работает BiDAF, модель НЛП, которая раздвинула границы области вопросов и ответов.
В 2016 году команда Вашингтонского университета опубликовала BiDAF. BiDAF легко победил лучшие модели вопросов и ответов на тот момент и в течение нескольких недель возглавлял таблицу лидеров Стэнфордского набора вопросов и ответов (SQuAD) , возможно,..
Теория встраивания слов в Word2Vec
В недавних достижениях, сделанных Google с их новаторскими предварительно обученными моделями NLP, названными BERT (двунаправленные представления кодировщика от трансформаторов), основы в значительной степени являются точной копией встраивания слов в моделях Word2Vec и GloVe (глобальное представление векторов). В серии публикаций мы рассмотрим различные концептуальные аспекты, которые в конечном итоге приведут нас к лучшему пониманию BERT.
Содержание:
1. Введение
2. Word2Vec -..
Как создать ответ на вопрос с помощью DPR
Методы вопросов и ответов нового поколения для интеллектуальных решений нового поколения
При ответах на вопросы в открытой области мы обычно проектируем архитектуру модели, которая содержит источник данных, средство извлечения и считыватель / генератор.
Первым из этих компонентов обычно является хранилище документов. Два самых популярных магазина, которые мы здесь используем, - это Elasticsearch и FAISS.
Далее идет наш ретривер - тема этой статьи. Задача поисковика - фильтровать..
Классификация текста BERT на другом языке
Создайте неанглийскую (немецкую) модель многоклассовой классификации текста BERT с помощью HuggingFace и Simple Transformers.
Первоначально опубликовано на https://www.philschmid.de 22 мая 2020 г.
Вступление
В настоящее время в мире проживает 7,5 миллиардов человек примерно в 200 странах. Только 1,2 миллиарда из них являются носителями английского языка . Это приводит к появлению большого количества неструктурированных текстовых данных не на английском языке.
Большинство..
Быстрые вложения предложений fse — библиотека Python для сверхбыстрых вложений предложений.
Обрабатывайте 500 000 предложений в секунду! Ultra Fast Sentence Embeddings — библиотека Python, которая служит дополнением к Gensim.
Функции
До 500 000 предложений в секунду (🚀) • Поддерживает встраивание среднего значения, SIF и uSIF. • Полная поддержка Gensims Word2Vec и всех других совместимых классов. • Полная поддержка Gensims FastText со словами, не входящими в словарь. • Индукция частот слов для предварительно обученных вложений • Подпрограммы ядра Fast Cython..