Об авторе- научный сотрудник НИВЦ МГУ
- один из создателей методологии Ruadapt по адаптации LLM на русский язык
Аннотация курсаБольшие языковые модели (LLM) приобретают всю большую популярность за счет своих обширных навыков и знаний, что позволяет использовать LLM как в повседневной жизни, так и в профессиональных задачах. Однако, для большей эффективности взаимодействия с LLM и для понимания, где языковые модели применимы, а где нет, необходимо понимать устройство современных систем на основе LLM, а также как языковые модели обучают, дообучают и применяют.
Содержание курсаДанный курс рассчитан на быстрое погружение в основы функционирования и обучения современных больших языковых моделей (LLM).
Темы курса включают в себя:
1) Архитектура трансформер, механизм внимания, токенизация, модель BERT, модель GPT, от трансформера до ChatGPT
2) Промптинг, zero-shot, few-shot
3) Выравнивание (alignment) LLM, методы дообучения LLM инструкциям, LoRa
4) Претрейнинг LLM: подготовка данных, разбор кода обучения, методы параллелизма
5) Inference LLM: vLLM, llama.cpp, ollama, sglang
6) Технические основы: связьpytorch-cuda-nvidia_drivers, docker. Квантизация, flash-attention
7) MoE, Архитектура DeepSeek, GRPO
8) SentenceBERT, векторные базы данных (Qdrant), RAG (retrieval augmented generation)
9) Оценка качества LLM
В рамках курса планируется практическая часть, связанная с задачами:
1) Использование инструктивных LLM для решения прикладных задач (промптинг)
2) Дообучение LLM инструкциям с использованием unsloth
3) Инференс LLM через: transformers, vllm, llama.cpp
4) Реализация RAG пайплайна в двух частях:
1. подготовка + векторизация датасета и реализация функции поиска
2. сборка RAG пайплайна с LLM в качестве генератора + сравнение качества RAG подхода и обычного подхода