Публикации по теме 'hugging-face'
Тонкая настройка BERT для классификации текста
Использование Hugging Face и Comet для точной настройки моделей BERT
BERT — представления двунаправленного кодировщика от Transformers — это предварительно обученная языковая модель для задач обработки естественного языка, таких как классификация текста и вопросы и ответы. В этой статье мы рассмотрим тонкую настройку BERT для классификации текста. В конце концов, модель BERT научится маркировать, является ли отзыв из набора данных imdb положительным или отрицательным.
Чтобы..
🤗 Hugging Face: сообщество искусственного интеллекта с открытым исходным кодом
Hugging Face — это платформа сообщества и науки о данных, которая предоставляет инструменты, позволяющие пользователям создавать, обучать и развертывать модели машинного обучения на основе открытого исходного кода и технологий. Это также место, где широкое сообщество ученых, исследователей и инженеров по машинному обучению может собраться вместе и поделиться идеями, получить поддержку и внести свой вклад в проекты с открытым исходным кодом.
История обнимания лица
Hugging Face была..
Эмпирическое исследование повторного использования предварительно обученной модели в реестре моделей глубокого обучения Hugging Face
Это краткое изложение двух научных работ:
Эмпирическое исследование артефактов и рисков безопасности в цепочке поставок предварительно обученной модели (опубликовано на ICSE 2023 ). Полный текст статьи доступен здесь . Артефакт нашего кода и данных доступен на GitHub и Zenodo . PTMTorrent: набор данных для интеллектуального анализа пакетов предварительно обученных моделей с открытым исходным кодом ( опубликовано в MSR 2023). Полный документ доступен здесь". Артефакт..
Общайтесь с любым репозиторием GitHub, используя встраивание Hugging Face, OpenAI GPT3 и Streamlit
Сегодня мы углубимся в увлекательную тему: создание приложения, которое позволит вам общаться с любым репозиторием GitHub. Это инновационная идея, ставшая возможной благодаря пересечению обработки естественного языка (NLP), машинного обучения (ML) и веб-разработки. Используя преобразователи предложений Hugging Face, GPT-3 OpenAI и…
Генерация текста AI GPT с использованием библиотеки Hugging Face Transformers Python (ключи API OpenAI не требуются)
В библиотеке Hugging Face Transformers доступно несколько моделей для генерации текста и обработки естественного языка, включая модели GPT-2 различных размеров, модели GPT-3, модели GPT-4, модели T5, модели BERT, модели XLNet, модели RoBERTa. , модели DistilBERT, модели Turing-NLG, модели BART и многие другие модели, доступные в библиотеке Hugging Face Transformers.
Каждый из них имеет свои особенности и варианты использования. Вы можете выбрать модель, которая лучше всего подходит для..
Создание генератора подсказок кода с открытым исходным кодом с помощью StarCoder — Часть 2
ЧАСТЬ-2: Создание генератора кода
ПРЕДВАРИТЕЛЬНЫЕ ТРЕБОВАНИЯ: Пройдите Часть 1 , чтобы понять и интегрировать HuggingFace Inference API для модели StarCoder.
В последней истории мы получили такой вывод:
{‘generated_text’: ‘Не могли бы вы сообщить нам более подробную информацию о вашем втором сценарии?\n‹issue_comment›username_0: @username_1 я обновил описание на»}]
с этим вводом: «Не могли бы вы сообщить нам более подробную информацию о вашем»
Эта конкретная модель не подходит..
Перевод аудио с использованием Python и глубокого обучения
Будучи родом из такой разнообразной страны, как Индия, я понимаю важность точного и удобного перевода идей с одного языка на другой.
В этом проекте я намеревался перевести речь, доступную в виде аудиозаписи, с английского на немецкий.
Чтобы выполнить требования проекта, я использовал библиотеку Huggingface.
Инициализация модели
Модель можно инициировать следующим образом:
from transformers import pipeline
model = pipeline(
"automatic-speech-recognition",..