Публикации по теме 'hugging-face'


Углубление в классификацию речевых акцентов: тематическое исследование
Бинарная классификация для Архива речевых акцентов по ​​модели facebook/wav2vec2-base-960h В этой статье я описываю процесс создания простого классификатора акцента речи. Он основан на этой записной книжке Kaggle с небольшими изменениями, такими как использование обновленной модели facebook/wav2vec2-base-960h , предварительно обученной и …

Как настроить модель Роберта для классификации текста
Как настроить модель Роберта для классификации текста Аннотированные наборы данных Чтобы иметь возможность точно настроить предварительно обученную модель Роберты для выполнения задач классификации текста, вам необходимо собрать и аннотировать обучающие данные. Данные для обучения должны быть структурированы следующим образом: { "data": [ { "label": 0, "text": "neutral example"}, {..

Обрезайте и сегментируйте изображения с помощью CLIP от OpenAI.
Вы когда-нибудь задавались вопросом, можем ли мы обрезать части изображения в зависимости от наших интересов или сегментировать изображения на основе наших желаний, просто используя словесный запрос, но есть способ, которым мы можем добиться того же. Используя модели компьютерного зрения OpenAI CLIP и DeTr (также можно использовать любые другие), мы можем сегментировать и вырезать части изображений с помощью простых текстовых запросов. Обрезка разделов может быть достигнута с..

Подготовка к интервью NLP Data Scientist — Пример (EDA, нормализация, модели машинного обучения)
Подготовка к интервью NLP Data Scientist — тематическое исследование (EDA, нормализация, модели машинного обучения) В этой статье я хотел показать вам, как подготовиться к должности NLP Data Scientist. Он охватывает основные моменты, такие как исследовательский анализ данных, очистка данных, нормализация и применение моделей ML от простых (логистическая регрессия) до продвинутых (преобразователи). Пожалуйста, напишите мне сообщение или подключитесь через LinkedIn:..

НЛП с трансформерами — 1 (ТОЧНАЯ НАСТРОЙКА ДЛЯ КЛАССИФИКАЦИИ ТЕКСТА) !!!🚀🚀🚀
BERT (представление двунаправленного кодировщика от трансформаторов) — это тип преобразователя, представленный Google, который состоит только из кодировщика и не содержит декодера. Модель BERT доступна в двух размерах: BERT BASE, который имеет 12 слоев кодировщика, 12 головок внимания, 768 скрытых слоев и 110 миллионов параметров. BERT LARGE, который имеет 24 слоя кодировщика, 16 головок внимания, 1024 скрытых слоя с 340 миллионами параметров. Модель BERT обучалась с двумя..

NLP с использованием синтаксиса SQL с MindsDB и Hugging Face
Вы устали от утомительного процесса интеграции моделей машинного обучения в свои проекты? Не смотрите дальше. MindsDB и Hugging Face объединили усилия, чтобы революционизировать то, как мы используем машинное обучение. Бесшовная интеграция передовой платформы машинного обучения MindsDB с современными моделями обработки естественного языка Hugging Face открывает безграничные возможности. Эта мощная комбинация обеспечивает упрощенное развертывание и простое использование передовых моделей..

Создание простого семантического поиска с использованием преобразователей предложений 🚀
Прежде всего, что такое семантический поиск? Семантический поиск – это поиск с значением . «Смысл» здесь относится к пониманию намерения искателя получить правильные данные; он отличается от лексического поиска (Google, Bing и т. д.), который ищет буквальные совпадения запроса с пониманием его значения. Предположим, что рисунок ниже — это воображение ребенка. Родители кормят ребенка шоколадом, выпечкой и брокколи (фу). Однажды родители пытаются накормить ребенка..