Результаты довольно впечатляющие и → очень похожи на человеческие. (многие люди используют это → для создания других вещей)
Большую модель → сложно запустить из-за большого количества параметров → более продвинутая кодировка токена → поэтому процесс генерации становится более похожим на человеческий.
Русский или неанглийский — не лучшая идея → модели 355 могут работать лучше.
Кто-то сделал простую оболочку → вокруг огромного GPT2 → поэтому мы можем использовать ее для создания более сложных вариантов использования.
Получение хорошего текста потребует времени → так как присутствует элемент случайности → это интересная находка. (может быть интереснее).
Есть несколько способов генерировать меньший / более короткий текст → это может быть более полезным в некоторых сценариях. (интересный).
Запустить это приложение сложно → поэтому было бы неплохо иметь умное решение LOL.
Генерация текста — еще одна горячая ОБЛАСТЬ → НЛП участвует в быстром масштабировании → GPT2 — это предварительно обученная модель, в которой мы можем использовать ее для создания → текста.
У него большой размер параметров → безумное количество данных → действительно круто.
Некоторые модели публикуются → в то время как другие не публикуются → для защиты общественности от фейковых новостей.
Что, черт возьми, мы читаем LOL → но это имеет большой смысл → очень интересно и круто → очень хорошая идея – как-то это использовать.
Люди не смогут отличить.
Мы смогли создать → текстовый классификатор → который может ранжировать комментарий → или обзор → все хорошо.
Однако мы не знаем, почему модель принимает те или иные решения.
Предложение разбивается на более мелкие токены → в быстром тексте Facebook → это очень интересный подход.
И это снова представлено в векторе документа → и, наконец, выполняется линейная классификация → но в процессе выполняется много кодирования.
Мы не можем напрямую понять, что это делает.
Удалите один элемент из модели классификации → и создайте прогноз. (это хороший подход, но он не масштабируется).
Эти красные области → объясняют, почему модель классифицирует это как более низкие или отрицательные показатели. (это имеет смысл).
Что произойдет, если мы растянем приговор? → данный прогноз был → 2 звезды → это правильно, так как нам не понравилось это место.
Модель смогла извлечь причины, почему → отзыв был плохим → это отличный результат!
Текст не имеет значения → он имеет значение с учетом контекста → это то, что имеет значение.
Человекоподобное поколение → теперь так легко создавать фейковые новости → и многое другое → это так интересно.
Это так интересно → как они создаются → мы можем генерировать фейковые новости и многое другое.
Как работает RNN в целом → у нас есть немного памяти → мы собираемся использовать ее для языкового моделирования. И внимание → было кикером для создания реалистичных текстов → но теперь дела пойдут лучше.
Есть модель → именно ДЛЯ фейковых новостей → это так интересно и круто!
Очень круто!