Публикации по теме 'hugging-face'
HuggingFace — Токенизация
Как мы знаем, ни одна модель машинного обучения не может получать на вход необработанные данные. Текст должен быть токенизирован, и он должен быть закодирован как числовые векторы, а затем передан в модель. Токенизация — это шаг, который оптимально разделит слова корпуса на части.
Можно сказать, что существует 3 метода токенизации.
1). Токенизация персонажей
2). Токенизация слов
3). Токенизация подслов
Токенизация персонажей:
Строка — это не что иное, как массив символов,..
Talk@PyData London 2022 — «Машинное обучение 2.0 с обнимающим лицом»
На этом занятии мы познакомим вас с моделями Transformer и с тем, какие бизнес-задачи вы можете решить с их помощью. Затем мы покажем вам, как вы можете упростить и ускорить свои сквозные проекты машинного обучения: экспериментирование, обучение, оптимизацию и развертывание. Попутно мы запустим несколько демонстраций, чтобы все было конкретно и увлекательно!
Новичок в Трансформерах?
https://huggingface.co/tasks https://huggingface.co/course https://discuss.huggingface.co
Тонкая настройка LLM для генеративного решения загадочных кроссвордов (ЧАСТЬ 1/2)
В последнее время мой интерес к разгадыванию загадочных кроссвордов, по общему признанию, стал чем-то вроде навязчивой идеи — даже если они доставляют мне немало хлопот! Однажды я решил поэкспериментировать, смогу ли я решить их, используя методы глубокого обучения вместо своего мозга — и именно здесь начинается этот мини-сериал.
Сериал разбит на две части:
ЧАСТЬ 1 . Тонкая настройка google/t5-small-ssm , небольшого экземпляра T5 LLM с 77M параметрами, доступного на..
Наборы данных HuggingFace
Наиболее распространенной задачей НЛП является классификация текста. Он имеет различные приложения, такие как пометка отзывов клиентов по категориям или маршрутизация обращений в службу поддержки на соответствующие языки и т. д.
Анализ настроений — еще один распространенный тип применения НЛП. Анализ настроений дает полярность данного текста.
Таким образом, НЛП имеет различные применения в самых разных областях. В этой статье я кратко расскажу о HuggingFace и о том, как мы можем..
Уменьшите ваши новости!
В постоянно развивающемся мире данных и технологий обработка больших объемов текста является серьезной проблемой. Обобщение текста — решение этой проблемы, и сегодня мы углубимся в одну из лучших моделей для этой задачи — BART-Large-CNN от Facebook от Hugging Face. Используя эту модель для набора данных из 100 новостных статей, мы стремимся создать DataFrame со статьями и их краткими сводками. Однако давайте сначала разберемся с организацией, стоящей за этим чудом — Hugging Face...
Трансформеры HuggingFace: новая эра нейронных сетей.
Трансформаторы - это новое семейство архитектур нейронных сетей, впервые предложенное в 2017 году и в основном используемое в области НЛП, оно похоже на другие семейства нейронных сетей, такие как сверточная нейронная сеть, рекуррентная нейронная сеть. CNN работает, имея скользящее окно, которое перемещается по входному массиву и проецирует его на меньший массив. Эти свертки затем накладываются друг на друга. Обычно эти типы моделей используются для данных изображений и не имеют большого..
Как использовать новую оценочную библиотеку Hugging Face
Узнайте, как использовать новую библиотеку Hugging Face под названием Evaluate для оценки ваших моделей ИИ, написав всего несколько строк кода
К настоящему времени я уверен, что мы все слышали о Hugging Face — компании, которая прокладывает путь для моделей искусственного интеллекта с открытым исходным кодом со своей библиотекой Transformers, имеющей более 64 тысяч звезд на GitHub…