Публикации по теме 'text-generation'


Практическое создание текста с обслуживанием Tensorflow
В этой статье я расскажу о представлении и обслуживании моделей глубокого обучения через Tensorflow, а также продемонстрирую свою настройку для гибкого и практичного решения для генерации текста. С помощью генерации текста я предполагаю автоматическую задачу создания новых семантически действительных фрагментов текста переменной длины с учетом необязательной исходной строки. Идея состоит в том, чтобы иметь возможность использовать разные модели для разных вариантов использования..

Представляем Texar-PyTorch: библиотеку машинного обучения, объединяющую лучшее из TensorFlow в PyTorch
Представляем Texar-PyTorch: библиотеку машинного обучения, объединяющую лучшее из TensorFlow в PyTorch Размещено в блоге Petuum . Мы рады представить Texar-PyTorch, универсальный инструментарий машинного обучения с открытым исходным кодом, который поддерживает широкий набор приложений с упором на обработку естественного языка (NLP) и задачи генерации текста. Основываясь на уже популярном эквиваленте Texar TensorFlow , Texar-PyTorch интегрирует многие из лучших функций..

Гарри Поттер и цепи Маркова
Есть забавная штука под названием цепь Маркова . Говоря научным языком, это последовательность случайных событий, где вероятность появления следующего события зависит только от определенного количества предыдущих событий. Цепи Маркова выполняют множество различных задач, от предсказания курсов акций на бирже до предсказания того, какое слово вы собираетесь набрать на виртуальной клавиатуре своего смартфона. И работают они также при анализе цепочек ДНК, сжатии данных, картографии,..

Генератор текстов LSTM на уровне слов
Чу Ву, Шиюнь Цзоу, Руофан Ван Обзор Идея создания генератора текстов мотивирована примером генерации текста keras Франсуа Шолле, который использует LSTM для генерации текста из произведений Ницше . Наш проект основан на LSTM Rap Lyric Generator на уровне персонажа, который создан Караном Джайсингом. Этот проект можно найти в репозитории GitHub Карана Джайсинга. Он использовал набор данных Kaggle с более чем 380 000 текстов песен. Наш проект использует Rap Lyric Generator на..

Рекуррентные нейронные сети (RNN)
Реализация RNN с нуля на Python. Основная цель этого поста - реализовать RNN с нуля и предоставить простое объяснение, чтобы сделать его полезным для читателей. Реализация любой нейронной сети с нуля хотя бы один раз - ценное упражнение. Это поможет вам понять, как работают нейронные сети, и здесь мы реализуем RNN, которая имеет свою сложность и, таким образом, дает нам хорошую возможность отточить наши навыки. Существуют различные учебные пособия, которые предоставляют очень..

Предсказание следующего слова с использованием модели Маркова
Если вы когда-нибудь спросите инженера по машинному обучению, как вы будете генерировать текст или строить прогнозную модель, наиболее очевидным ответом будут рекуррентные нейронные сети (RNN), которые слишком специфичны для длительной краткосрочной памяти (LSTM). Традиционные модели более просты и работают лучше по сравнению с моделями глубокого обучения в некоторых случаях ¹ . Это то, что мы исследуем в этой статье. Мы узнаем, как использовать модель Маркова для предсказания слов...

Генератор текстов песен Arctic Monkeys с расширением данных
AM: Не верьте этой шумихе. AI: Ну .. Введение. Генераторы текста - это круто, правда? Когда два года назад я впервые наткнулся на нечто похожее на «генератор Шекспира», я был потрясен. Обычно текстовый генератор представляет собой языковую модель с рекуррентной нейронной сетью или LSTM и пытается предсказать следующие слова на основе предыдущих исходных слов. Поэтому я решил создать лирический генератор на основе лирики Arctic Monkeys. Идея была разделена на три основных..