Публикации по теме 'hugging-face'


Тонкая настройка BERT для классификации текста
Использование Hugging Face и Comet для точной настройки моделей BERT BERT — представления двунаправленного кодировщика от Transformers — это предварительно обученная языковая модель для задач обработки естественного языка, таких как классификация текста и вопросы и ответы. В этой статье мы рассмотрим тонкую настройку BERT для классификации текста. В конце концов, модель BERT научится маркировать, является ли отзыв из набора данных imdb положительным или отрицательным. Чтобы..

🤗 Hugging Face: сообщество искусственного интеллекта с открытым исходным кодом
Hugging Face — это платформа сообщества и науки о данных, которая предоставляет инструменты, позволяющие пользователям создавать, обучать и развертывать модели машинного обучения на основе открытого исходного кода и технологий. Это также место, где широкое сообщество ученых, исследователей и инженеров по машинному обучению может собраться вместе и поделиться идеями, получить поддержку и внести свой вклад в проекты с открытым исходным кодом. История обнимания лица Hugging Face была..

Эмпирическое исследование повторного использования предварительно обученной модели в реестре моделей глубокого обучения Hugging Face
Это краткое изложение двух научных работ: Эмпирическое исследование артефактов и рисков безопасности в цепочке поставок предварительно обученной модели (опубликовано на ICSE 2023 ). Полный текст статьи доступен здесь . Артефакт нашего кода и данных доступен на GitHub и Zenodo . PTMTorrent: набор данных для интеллектуального анализа пакетов предварительно обученных моделей с открытым исходным кодом ( опубликовано в MSR 2023). Полный документ доступен здесь". Артефакт..

Общайтесь с любым репозиторием GitHub, используя встраивание Hugging Face, OpenAI GPT3 и Streamlit
Сегодня мы углубимся в увлекательную тему: создание приложения, которое позволит вам общаться с любым репозиторием GitHub. Это инновационная идея, ставшая возможной благодаря пересечению обработки естественного языка (NLP), машинного обучения (ML) и веб-разработки. Используя преобразователи предложений Hugging Face, GPT-3 OpenAI и…

Генерация текста AI GPT с использованием библиотеки Hugging Face Transformers Python (ключи API OpenAI не требуются)
В библиотеке Hugging Face Transformers доступно несколько моделей для генерации текста и обработки естественного языка, включая модели GPT-2 различных размеров, модели GPT-3, модели GPT-4, модели T5, модели BERT, модели XLNet, модели RoBERTa. , модели DistilBERT, модели Turing-NLG, модели BART и многие другие модели, доступные в библиотеке Hugging Face Transformers. Каждый из них имеет свои особенности и варианты использования. Вы можете выбрать модель, которая лучше всего подходит для..

Создание генератора подсказок кода с открытым исходным кодом с помощью StarCoder — Часть 2
ЧАСТЬ-2: Создание генератора кода ПРЕДВАРИТЕЛЬНЫЕ ТРЕБОВАНИЯ: Пройдите Часть 1 , чтобы понять и интегрировать HuggingFace Inference API для модели StarCoder. В последней истории мы получили такой вывод: {‘generated_text’: ‘Не могли бы вы сообщить нам более подробную информацию о вашем втором сценарии?\n‹issue_comment›username_0: @username_1 я обновил описание на»}] с этим вводом: «Не могли бы вы сообщить нам более подробную информацию о вашем» Эта конкретная модель не подходит..

Перевод аудио с использованием Python и глубокого обучения
Будучи родом из такой разнообразной страны, как Индия, я понимаю важность точного и удобного перевода идей с одного языка на другой. В этом проекте я намеревался перевести речь, доступную в виде аудиозаписи, с английского на немецкий. Чтобы выполнить требования проекта, я использовал библиотеку Huggingface. Инициализация модели Модель можно инициировать следующим образом: from transformers import pipeline model = pipeline( "automatic-speech-recognition",..