Публикации по теме 'large-language-models'


ИИ везде
ИИ везде Хотя мы видим большой вклад и изменяющие правила игры технологические стеки различных моделей генеративного ИИ и больших языков, получает ли пользователь наилучший результат во всех приложениях? Потратив более 100 часов программирования на тренды, готовые к использованию больших языковых моделей и оболочек, таких как PrivateGPT, PandasAI, Hugging Face, LangChain и некоторых других, результаты были просто удовлетворительными. Только ChatGPT смог дать мне именно тот результат,..

Асимметричные тематические модели
Если вы ищете информацию в Интернете в наши дни, существует высокая вероятность того, что ваш поиск, по крайней мере частично, выполняется с использованием тематических моделей, чтобы предоставить вам семантически выровненные результаты, связанные с вашим запросом. Тематическое моделирование — это метод обработки естественного языка для группировки семантически схожих документов. Это часто делается путем встраивания документов в многомерное пространство. Это скрытое пространство имеет..

Разрешение кореференции сущности
Корреферентное разрешение сущности ‹PERSON› Мир ИИ с энтузиазмом использует большие языковые модели (LLM) из-за их поразительных преимуществ, которые могут упростить или даже устранить необходимость в предварительной обработке текста. Я должен признать, что они работают во многих случаях, но все же есть случаи, когда обычные модели лучше. Вы можете обратиться к этой статье для действительных сравнений https://arxiv.org/pdf/2304.13712v2.pdf . Вы также должны знать, что некоторые LLM,..

Тонкая настройка многоязычной модели T5 от Huggingface с помощью Keras
Многоязычный T5 (mT5) — это многоязычная версия модели преобразования текста в текст T5 от Google. Он предварительно обучен на корпусе mC4 , охватывающем 101 язык! Однако, поскольку mT5 был предварительно обучен только без присмотра, его необходимо настроить, прежде чем его можно будет использовать для какой-либо последующей задачи, в отличие от исходного T5. В этом уроке мы создадим простую записную книжку, настроив mT5 с помощью Keras. Продемонстрированные процедуры предварительной..

Обнаружение настроений с помощью IBM watsonx.ai
Анализ тональности — это мощная техника, используемая для определения эмоционального тона фрагмента текста. Он имеет множество применений, от понимания отзывов клиентов до анализа тенденций в социальных сетях. 11 июля IBM объявила об общедоступной платформе watsonx. В этом блоге я использовал платформу watsonx.ai, которая включает большие языковые модели (LLM), которые помогают организациям создавать специализированные приложения для решения своих бизнес-задач. В этом блоге я..

Prompt Engineering руководство для начинающих
Итак, давайте посмотрим на основные настройки LLM. Базовое быстрое обучение Пример Подсказка: Это круто! // Положительный Это плохо! // Отрицательный Вау, фильм был классным! // Положительный Какое ужасное зрелище! // Вывод: Отрицательный Элементы подсказки Инструкция — конкретная задача или инструкция, которую вы хотите, чтобы модель выполняла. Контекст  — внешняя информация или дополнительный контекст, который может направить модель на..

3D-LLM: интегрируйте трехмерный мир в языковые модели
В последние годы заслуживают внимания успехи моделей больших языков (LLM) и моделей Vision-Language (VLM). Однако эти мощные модели в основном работали в рамках 2D-области, им не хватало возможностей для решения реальных 3D-задач, требующих обработки более сложных концепций, таких как пространственные отношения, возможности, физика и планировка. Устранив этот недостаток, в своей новой статье 3D-LLM: Injecting the 3D World in Large Language Models исследовательская группа из..