Публикации по теме 'hugging-face'


Ознакомьтесь с инструментами Prompt Engineering: руководство по OpenAI GPT-3, трансформеры Hugging Face…
Инжиниринг подсказок является неотъемлемой частью обработки естественного языка (NLP) и включает в себя создание подсказок, которые генерируют текст. Существует множество доступных инженерных инструментов, таких как GPT-3 от OpenAI, Transformers от Hugging Face и T5 от Google. В этой статье мы предоставим руководство о том, как ознакомиться с этими инструментами для быстрого проектирования. GPT-3 от OpenAI GPT-3 от OpenAI — один из самых мощных инструментов разработки подсказок,..

Как развернуть веб-приложение модели машинного обучения Python с помощью Gradio, ничего не зная о…
Прежде всего, на этот пост полностью повлиял фастбук Fast AI, а точнее вторая глава о развертывании моделей, которая идет вместе со вторым уроком курса, который они сделали с книгой. Книга немного отличается от видеоуроков в этой главе, поэтому в этом руководстве я буду использовать видеоуроки, которые являются более современными и более простыми в использовании. Для начала вам нужно иметь обученную модель, если у вас ее нет, вы можете скачать мою в качестве примера (это модель..

Как получить высокий балл с помощью MMBT и CLIP в конкурсе Hateful Memes Competition
Используйте CLIP в качестве кодировщика функций для Multimodal Bitransformer и заставьте MMBT действительно работать с Huggingface Transformers, чтобы получить удивительно высокую точность Дополнительный этап конкурса Hateful Memes Competition от Facebook завершился несколько месяцев назад. Моей команде посчастливилось поучаствовать в этом соревновании и даже получить неплохие результаты (мы заняли десятое место). Как мы это сделали и какие методы использовали - расскажу в этой..

Сравнение NeuralSpace с Hugging Face на индийских языках
Введение Обладая более чем 14 000 моделей с открытым исходным кодом на 150 языках в своем хабе моделей и почти 500 общедоступными наборами данных, Hugging Face по любым меркам является самым динамичным сообществом по обработке естественного языка (NLP) в мире. AWS, Институт искусственного интеллекта Аллена, Microsoft или Google AI - некоторые из его известных пользователей, и с помощью Hugging Face были созданы выдающиеся решения. Однако его сообщество не проявляет большой..

Насколько быстр Fast Tokenizer Huggingface?
Huggingface — самая популярная библиотека НЛП с открытым исходным кодом. Это позволяет создавать сквозное приложение NLP из обработки текста, обучения модели, оценки, а также поддерживает функции для простого преобразования для его размещения с помощью различных методов обслуживания, таких как TFServing, TorchServing, TRTServing и ONNXConvertion. После выпуска 4.0 библиотеки Transformer они сделали токенизатор на основе Rust токенизатором по умолчанию. Они утверждают, что это может..

Более быстрый вывод для конвейера NLP с использованием Hugging Face Transformers и ONNX Runtime
Трансформеры штурмом захватывают мир НЛП, поскольку это мощный двигатель в понимании контекста. В настоящее время с использованием трансформаторов мы можем достичь самых современных результатов в решении различных задач, таких как система ответов на вопросы, машинный перевод, обобщение, классификация предложений и системы генерации текста. В современном мире преобладают большие модели Transformer, что создает проблемы для производства из-за их размера, и иногда очень сложно развернуть..

Прогнозирование пропаганды с помощью BERT: код
В соответствующем посте я рассказал о работе, которую я выполнил, чтобы предсказать, содержит ли новостная статья примеры пропаганды или нет, как я собирал дополнительные обучающие данные для моделей и как я создал, обучил и оценил ряд моделей, включая современная модель на основе BERT. Этот пост доступен здесь . В этом посте я предоставляю подробную информацию и доступ к соответствующему коду, размещенному на GitHub. Нажмите здесь, чтобы перейти в репозиторий GitHub . ЭДА..