В этом уроке я расскажу вам, как использовать LLama2 с langchain для суммирования текста и распознавания именованных объектов с помощью блокнота Google Colab:

Meta, более известная большинству из нас как Facebook, выпустила коммерческую версию Llama-v2, своей модели большого языка (LLM) с открытым исходным кодом, которая использует искусственный интеллект (ИИ) для генерации текста, изображений, и код.

Что такое LLama2?

Meta, более известная большинству из нас как Facebook, выпустила коммерческую версию Llama-v2, своей модели большого языка (LLM) с открытым исходным кодом, которая использует искусственный интеллект (ИИ) для генерации текста, изображений, и код.

Llama 2 является преемником модели Llama 1, выпущенной ранее в этом году. Однако Лама 1 находилась под «тщательной охраной» и была доступна только по запросу.

Приступаем к кодированию

Настройте Google Colab: перейдите в Google Colab (colab.research.google.com) и создайте новый блокнот.

Установите необходимые библиотеки: в первой ячейке кода вашей записной книжки Colab установите необходимые библиотеки, используя следующий код:

!pip install -q transformers einops accelerate langchain bitsandbytes

Войдите в систему !huggingface-cli

!huggingface-cli login

Если у вас уже есть учетная запись Hugging Face, вы можете получить токен доступа, перейдя в раздел настроек на веб-сайте Hugging Face. Оттуда перейдите на вкладку «Токены доступа», и вы сможете создать или скопировать свой личный токен доступа.

Если у вас еще нет учетной записи Hugging Face, вы можете легко зарегистрировать ее на их веб-сайте. Если у вас есть учетная запись, вы можете выполнить те же шаги, упомянутые выше, чтобы получить свой токен доступа и использовать его для доступа к частным моделям и ресурсам через API Hugging Face или интерфейс командной строки.

установил SentencePiece

Если вы не установили SentencePiece

библиотеку, вы можете установить ее в свой блокнот Colab, используя: