Результаты довольно впечатляющие и → очень похожи на человеческие. (многие люди используют это → для создания других вещей)

Большую модель → сложно запустить из-за большого количества параметров → более продвинутая кодировка токена → поэтому процесс генерации становится более похожим на человеческий.

Русский или неанглийский — не лучшая идея → модели 355 могут работать лучше.

Кто-то сделал простую оболочку → вокруг огромного GPT2 → поэтому мы можем использовать ее для создания более сложных вариантов использования.

Получение хорошего текста потребует времени → так как присутствует элемент случайности → это интересная находка. (может быть интереснее).

Есть несколько способов генерировать меньший / более короткий текст → это может быть более полезным в некоторых сценариях. (интересный).

Запустить это приложение сложно → поэтому было бы неплохо иметь умное решение LOL.



Генерация текста — еще одна горячая ОБЛАСТЬ → НЛП участвует в быстром масштабировании → GPT2 — это предварительно обученная модель, в которой мы можем использовать ее для создания → текста.

У него большой размер параметров → безумное количество данных → действительно круто.

Некоторые модели публикуются → в то время как другие не публикуются → для защиты общественности от фейковых новостей.

Что, черт возьми, мы читаем LOL → но это имеет большой смысл → очень интересно и круто → очень хорошая идея – как-то это использовать.

Люди не смогут отличить.



Мы смогли создать → текстовый классификатор → который может ранжировать комментарий → или обзор → все хорошо.

Однако мы не знаем, почему модель принимает те или иные решения.

Предложение разбивается на более мелкие токены → в быстром тексте Facebook → это очень интересный подход.

И это снова представлено в векторе документа → и, наконец, выполняется линейная классификация → но в процессе выполняется много кодирования.

Мы не можем напрямую понять, что это делает.

Удалите один элемент из модели классификации → и создайте прогноз. (это хороший подход, но он не масштабируется).

Эти красные области → объясняют, почему модель классифицирует это как более низкие или отрицательные показатели. (это имеет смысл).

Что произойдет, если мы растянем приговор? → данный прогноз был → 2 звезды → это правильно, так как нам не понравилось это место.

Модель смогла извлечь причины, почему → отзыв был плохим → это отличный результат!

Текст не имеет значения → он имеет значение с учетом контекста → это то, что имеет значение.



Человекоподобное поколение → теперь так легко создавать фейковые новости → и многое другое → это так интересно.

Это так интересно → как они создаются → мы можем генерировать фейковые новости и многое другое.

Как работает RNN в целом → у нас есть немного памяти → мы собираемся использовать ее для языкового моделирования. И внимание → было кикером для создания реалистичных текстов → но теперь дела пойдут лучше.

Есть модель → именно ДЛЯ фейковых новостей → это так интересно и круто!

Очень круто!