Достижения в области искусственного интеллекта привлекли большое внимание к ряду субдоменов в этой обширной области. Одним из интересных является обработка естественного языка.

Что такое обнимающее лицо-трансформер?

Почему мы не позволяем их предварительно обученным моделям ответить на этот вопрос?

Transformers предоставляет архитектуры общего назначения для понимания естественного языка (NLU) и генерации естественного языка (NLG) с более чем 32 предварительно обученными моделями на более чем 100 языках. В настоящее время библиотека содержит реализации PyTorch, Tensorflow и Flax, предварительно обученные веса моделей, сценарии использования и утилиты преобразования для следующих моделей.

Не плохой ИИ. Совсем неплохо. Приведенная выше цитата — это то, что обеспечивает предварительно обученная модель с использованием конвейера суммирования применительно к содержимому Документации по трансформерам Hugging Face.

Использование этих конвейеров позволяет практически любому начать работу с обработкой естественного языка без особого понимания внутренней части PyTorch или TensorFlow.

Как использовать Обобщение текста обнимающего лица

Сначала вам нужно установить пакет трансформеров для Python.

pip3 install transformers

После того, как вы это установили, достаточно просто импортировать конвейер, указав тип модели, которую мы хотим запустить; в этом случае суммирование, а затем передача вашего контента для суммирования.

Для начинающих и экспертов

Простота этих библиотек означает, что вы можете быстро приступить к работе. Вы можете многое сделать с этими библиотеками, и вы быстро заметите ограничения ванильных моделей. Не поймите меня неправильно, они потрясающие, но если вы хотите сделать точную настройку, рассчитывайте прочитать некоторую документацию.

Я бы предложил определить модель, предложенную сообществом, которая кажется интересной, а затем провести обратный инжиниринг, если вы хотите увидеть, как они объединяются.

В конечном счете, я считаю, что Hugging Face в некотором смысле приносит разработчикам демократизацию НЛП. Гораздо проще применять предварительно обученные модели для выполнения общих задач, таких как анализ настроений, суммирование текста и даже генерация вопросов!

Это также позволяет специалистам по НЛП и искусственному интеллекту участвовать в создании моделей и улучшать качество выходных данных, которыми энтузиасты, такие как я, могут наслаждаться, не просматривая документацию, настраивая параметры, когда это не моя повседневная работа!

Попробуйте эти трансформеры и предварительно обученные модели и дайте мне знать, что вы думаете! Вы нашли для них интересное применение в каких-либо проектах?