В этом уроке я расскажу вам, как использовать LLama2 с langchain для суммирования текста и распознавания именованных объектов с помощью блокнота Google Colab:
Meta, более известная большинству из нас как Facebook, выпустила коммерческую версию Llama-v2, своей модели большого языка (LLM) с открытым исходным кодом, которая использует искусственный интеллект (ИИ) для генерации текста, изображений, и код.
Что такое LLama2?
Meta, более известная большинству из нас как Facebook, выпустила коммерческую версию Llama-v2, своей модели большого языка (LLM) с открытым исходным кодом, которая использует искусственный интеллект (ИИ) для генерации текста, изображений, и код.
Llama 2 является преемником модели Llama 1, выпущенной ранее в этом году. Однако Лама 1 находилась под «тщательной охраной» и была доступна только по запросу.
Приступаем к кодированию
Настройте Google Colab: перейдите в Google Colab (colab.research.google.com) и создайте новый блокнот.
Установите необходимые библиотеки: в первой ячейке кода вашей записной книжки Colab установите необходимые библиотеки, используя следующий код:
!pip install -q transformers einops accelerate langchain bitsandbytes
Войдите в систему !huggingface-cli
!huggingface-cli login
Если у вас уже есть учетная запись Hugging Face, вы можете получить токен доступа, перейдя в раздел настроек на веб-сайте Hugging Face. Оттуда перейдите на вкладку «Токены доступа», и вы сможете создать или скопировать свой личный токен доступа.
Если у вас еще нет учетной записи Hugging Face, вы можете легко зарегистрировать ее на их веб-сайте. Если у вас есть учетная запись, вы можете выполнить те же шаги, упомянутые выше, чтобы получить свой токен доступа и использовать его для доступа к частным моделям и ресурсам через API Hugging Face или интерфейс командной строки.
установил SentencePiece
Если вы не установили SentencePiece
библиотеку, вы можете установить ее в свой блокнот Colab, используя: