Публикации по теме 'nlp'
Привет, многоязычный BERT, cómo funcionas?
Статья для любителей НЛП и языков
Несколько месяцев назад Google AI предоставил открытый исходный код BERT , большой предварительно обученной языковой модели, которую можно легко настроить для решения общих задач НЛП, таких как классификация или распознавание именованных сущностей. Хотя проверка первоначальной английской модели была интересной, я очень обрадовался, когда вышла многоязычная модель, охватывающая 104 разных языка , включая немецкий, русский, арабский и японский. В..
Предсказание следующего слова с использованием GPT-1
Точная настройка GPT-1 с данными Swiftkey для предсказания следующего слова
Это продолжение основной статьи Предсказание следующего слова с использованием данных Swiftkey
GPT-1 — это преобразователь только для декодера , который использует маскированное собственное внимание для предсказания следующих слов на основе вероятности . GPT-1 обучается на данных с размером словаря: 40478 и максимальной длиной последовательности: 512 . Он разрабатывает языковую модель. Я точно настроил..
Разговор с самим собой: получение знаний из моделей преобразователей генерации текста
Разговор с самим собой: получение знаний из моделей преобразователей для генерации текста
Кому нужен словарь, когда у вас есть модель Трансформер?
Модели Transformer для генерации текста действительно впечатляют. Они впервые привлекли внимание общественности, когда OpenAI посчитал одну из своих моделей слишком опасной для выпуска, названную GPT-2. Они неизбежно выпустили эту модель, включая ее самую большую версию, которую теперь можно использовать всего несколькими строками кода ...
NeurIPS 2020 - 10 вещей, которые нельзя пропустить
1899 докладов, более 20 тыс. Участников, 62 семинара, 7 приглашенных докладов. Выбор того, на что обратить внимание, является ключевым в таком плотном ландшафте, поэтому вот несколько идей о том, на что вам следует смотреть.
Конференция по системам обработки нейронной информации всегда интересна, потому что на ней собраны все лучшее, что было предложено в предшествующем году. Несмотря на то, что этот год впервые стал полностью виртуальным, этот год не стал исключением; Я имею в виду,..
Классификатор правильности предложений с использованием трансферного обучения с Huggingface BERT
Научитесь создавать приложения НЛП производственного уровня, просто используя huggingface
Вот ссылка на живую панель управления
В этой статье мы создадим почти современный классификатор предложений, используя возможности последних достижений в области обработки естественного языка. Мы сосредоточимся на применении трансферного обучения в НЛП для создания высокопроизводительных моделей с минимальными усилиями для решения ряда задач НЛП.
Вступление
В последние два года или около..
Как составить список самых распространенных слов из корпуса текста с помощью Scikit-Learn?
Часто мы хотим узнать, какие слова наиболее распространены в текстовом корпусе, потому что мы ищем какие-то закономерности.
Объяснение
vec = CountVectorizer (). fit (корпус)
Здесь мы получаем модель Bag of Word, которая очистила текст, удалив нецифровые символы и стоп-слова .
bag_of_words = vec.transform (корпус)
bag_of_words матрица, где каждая строка представляет определенный текст в корпусе , а каждый столбец представляет слово в словаре, то есть все слова, найденные..
Habana Labs Goya делает вывод на BERT
Habana Labs Goya предоставляет логические выводы по BERT
Goya превосходит T4 GPU в ключевом тесте NLP
BERT (Bidirectional Encoder Representations from Transformers) — это модель представления языка, основанная на нейронной архитектуре Transformer, представленная Google в 2018 году. Этот подход был быстро принят многими, поскольку он обеспечивал повышенную точность, а также способствовал дальнейшему развитию тенденции передачи обучение с двунаправленной архитектурой, которая..