При поддержке некоммерческого фонда развития науки и образования «Интеллект»
Искусственный интеллект и наука МГУ имени М. В. Ломоносова
Лекции от приглашённых экспертов для слушателей и выпускников MSU.AI
Лекции от приглашённых экспертов позволяют получить углубленные знания по определённой теме и познакомиться с опытом применения ИИ в научной деятельности российских исследователей.
Расписание лекций на 2025 год в разработке и появится позже.
Записи прошедших лекций доступны к просмотру всем желающим.
Если вы хотите прочитать лекцию о применении ИИ в вашем исследовании или на актуальные темы в области применения искусственного интеллекта, свяжитесь, пожалуйста, с нами neiropr@gmail.com
Прошедшие мероприятия
Использование больших языковых моделей с RAG
Занимается автоматизацией процесса управления мультимедийными пространствами с помощью больших языковых моделей
Самир Ахмед
Тезисы выступления:
• Поговорим про LLM, зачем они нужны, с чем едят • Обсудим промптинг, продвинутый промптинг и почему это важно • Продемонстрируем работу языковой модели YandexGPT с туристическими и архивными документами • Ответы на вопросы слушателей
консультант по ML в Yandex Cloud преподаватель-исследователь в Московском авиационном институте
Регистрация
Скоро здесь будет видеозапись лекции
Физически-информированное машинное обучение
Занимается генеративным ИИ, индустриальными приложениями ИИ
Евгений Бурнаев
профессор, директор Центра ИИ Сколтеха, руководитель научной группы в AIRI
Тезисы выступления:
• Машинное обучение и модели на основе физики процессов • Машинное обучение на основе данных физического моделирования • Учет структурных особенностей физических моделей при построении предиктивных моделей • Физически информированные нейросети и нейросетевые операторы • Индустриальные приложения • Ответы на вопросы слушателей
От стохастических дифференциальных уравнений до задачи Монжа-Канторовича и обратно: путь к искусственному интеллекту?
Занимается генеративным ИИ, индустриальными приложениями ИИ
Евгений Бурнаев
профессор, директор Центра ИИ Сколтеха, руководитель научной группы в AIRI
Тезисы выступления:
• Обзор методов построения генеративных моделей
• Диффузионные генеративные модели
• Генеративные модели на основе решения задачи оптимального транспорта
• Непарное обучение и мост Шредингера
• Мост Шредингера между оптимальным транспортом и диффузионными моделями
• Ответы на вопросы слушателей
Скоро здесь появятся ссылки на видео и материалы лекции
Тренирую модель чтобы что?: Как донести результаты экспериментов до коллег и будущего себя
Занимается построением Q&A, RAG и MultiTask систем на базе LLM
Илья Начевский
Senior Data Scientist, R&D Engineer in Skyeng Выпускник MSU.AI
Тезисы выступления:
• Приёмы минимизации правила 80/20
• Docker для повышения воспроизводимости среды
• Linter and logger для ускорения воспроизведения результатов эксперимента
• Повышение утилизации GPU и ускорение обучения
• Подготовка модели для запуска на стенде
Занимается обучением графовых нейросетевых моделей для решения задач квантовой химии
Кузьма Храбров
Инженер-исследователь в Институте Искусственного Интеллекта AIRI
Тезисы выступления:
• Обзор задач вычислительной квантовой химии
• Представления молекул для машинного обучения
• Решение электронного уравнения Шрёдингера с помощью нейронных сетей
• Задача оптимизации молекулярной геометрии
• Задача молекулярного докинга
• Ответы на вопросы слушателей
Скоро здесь появятся ссылки на видео и материалы лекции
• Обзор LLaMA
• Синтетический сбор инструктивных данных
• Что такое low-rank adaptation ускорение
• 100500 дообучений LLaMA: Alpaca, Vicuña, Koala, GPT4all, WizardLM, StackLLaMA
• Ответы на вопросы слушателей
NLP researcher "Innotech"
ВНИМАНИЕ! Блокнот предназначен только для демонстрации. Обучение модели производилось на двух видеокартах. Ресурсов Google Colab для его запуска недостаточно
Использование больших языковых моделей
для обработки и генерации текста
Ведет научные исследования по обработке естественного языка с использованием больших языковых моделей в Московском Университете
Ксения Студеникина
Тезисы выступления:
• Что такое языковое моделирование. Обзор архитектуры трансформер
• Обзор моделей-энкодеров: BERT, RoBERTa, ALBERT
• Дообучение BERT для анализа тональности на практическом примере
• Обзор моделей-декодеров: GPТ, GPT-2, GPT-3
• Обучение с подкреплением на основе отзывов людей: InstructGPT
• Дообучение ruGPT-3 для генерации текста в определенном стиле на практическом примере
• Тренды развития больших языковых моделей: мультиязычность, мультимодальность
• Ответы на вопросы слушателей
Как использовать мультимодальные трансформеры в исследованиях
и не страдать?
Исследует гигантские мультимодальные
трансформеры
Александр Николич
Senior data sceintist
Тезисы выступления:
• История: мультиэнкодерные модели от DSSM к CLIP
• Мультмодальные трансформеры, почему можно совмещать модальности
• Visual transformer
• CLIP like архитектуры
• DALLE like архитектуры
• Multimodal attention
• Решение мультимодальной задачи классификации на CLIP
• Ответы на вопросы слушателей
• В чём состоит идея механизма внимания
• Архитектура Трансформер и Зрительный трансформер (ViT)
• Трудности обучения ViT, сколько данных действительно "много"
• Как учить ViT если есть только миллион размеченных изображений
• Применение механизма внимания в задачах обработки медицинских изображений
• Ответы на вопросы слушателей
Руководит отделом краудсорсинга, отвечает за инструменты по разметке данных. Преподает краудсорсинг в ШАДе и ВШЭ
Роман Куцев
Тезисы выступления:
• Сколько данных нужно для обучения нейронной сети
• Что выгоднее: улучшать архитектуру нейронной сети или увеличивать датасет
• Зачем использовать Active Learning
• Как предразметка позволяет удешевить создание датасета
• В чем главный плюс концепции Human in the Loop
• Тренды в разметке данных
• Применение разметки для обучения нейронных сетей в науке