Адаптация низкого ранга (LoRA) — это новый метод, представленный Microsoft в 2021 году для тонкой настройки больших языковых моделей (LLM). LoRA — это эффективная стратегия адаптации, которая не приводит к дополнительной задержке вывода и существенно сокращает количество обучаемых параметров для последующих задач, сохраняя при этом качество модели.