При поддержке некоммерческого фонда развития науки и образования «Интеллект»
Искусственный интеллект и наука МГУ имени М. В. Ломоносова
Лекции от приглашённых экспертов для слушателей и выпускников MSU.AI
Лекции от приглашённых экспертов позволяют получить углубленные знания по определённой теме и познакомиться с опытом применения ИИ в научной деятельности российских исследователей.

Записи лекций доступны к просмотру всем желающим.
Если вы хотите прочитать лекцию о применении ИИ в вашем исследовании или на актуальные темы в области применения искусственного интеллекта, свяжитесь, пожалуйста, с нами neiropr@gmail.com

Расписание лекций от экспертов на 2024 год

Очная лекция
Физически-информированное машинное обучение
30 мест

Занимается генеративным ИИ, индустриальными приложениями ИИ
Евгений Бурнаев
Тезисы выступления:
• Машинное обучение и модели на основе физики процессов
• Машинное обучение на основе данных физического моделирования
• Учет структурных особенностей физических моделей при построении предиктивных моделей
• Физически информированные нейросети и нейросетевые операторы
• Индустриальные приложения
• Ответы на вопросы слушателей
профессор, директор Центра ИИ Сколтеха, руководитель научной группы в AIRI
Регистрация закрыта
24 мая
с 16:00 до 18:00
Прошедшие мероприятия
От стохастических дифференциальных уравнений до задачи Монжа-Канторовича и обратно: путь к искусственному интеллекту?

Занимается генеративным ИИ, индустриальными приложениями ИИ
Евгений Бурнаев
профессор, директор Центра ИИ Сколтеха, руководитель научной группы в AIRI
Тезисы выступления:
• Обзор методов построения генеративных моделей
• Диффузионные генеративные модели
• Генеративные модели на основе решения задачи оптимального транспорта
• Непарное обучение и мост Шредингера
• Мост Шредингера между оптимальным транспортом и диффузионными моделями
• Ответы на вопросы слушателей
Скоро здесь появятся ссылки на видео и материалы лекции
Тренирую модель чтобы что?: Как донести результаты экспериментов до коллег и будущего себя
Занимается построением Q&A, RAG и MultiTask систем на базе LLM
Илья Начевский
Senior Data Scientist, R&D Engineer in Skyeng
Выпускник MSU.AI

Тезисы выступления:
• Приёмы минимизации правила 80/20
• Docker для повышения воспроизводимости среды
• Linter and logger для ускорения воспроизведения результатов эксперимента
• Повышение утилизации GPU и ускорение обучения
• Подготовка модели для запуска на стенде
Deep Learning for Quantum Chemistry

Занимается обучением графовых нейросетевых моделей для решения задач квантовой химии
Кузьма Храбров
Инженер-исследователь в Институте Искусственного Интеллекта AIRI
Тезисы выступления:
• Обзор задач вычислительной квантовой химии
• Представления молекул для машинного обучения
• Решение электронного уравнения Шрёдингера с помощью нейронных сетей
• Задача оптимизации молекулярной геометрии
• Задача молекулярного докинга
• Ответы на вопросы слушателей
Скоро здесь появятся ссылки на видео и материалы лекции
Llama and it's fine-tunning
Занимается обработкой естественного языка (NLP)
Карина Романова
Тезисы выступления:
• Обзор LLaMA
• Синтетический сбор инструктивных данных
• Что такое low-rank adaptation ускорение
• 100500 дообучений LLaMA: Alpaca, Vicuña, Koala, GPT4all, WizardLM, StackLLaMA
• Ответы на вопросы слушателей
NLP researcher "Innotech"
ВНИМАНИЕ! Блокнот предназначен только для демонстрации. Обучение модели производилось на двух видеокартах. Ресурсов Google Colab для его запуска недостаточно
Использование больших языковых моделей
для обработки и генерации текста
Ведет научные исследования по обработке естественного языка с использованием больших языковых моделей в Московском Университете
Ксения Студеникина
Тезисы выступления:
• Что такое языковое моделирование. Обзор архитектуры трансформер
• Обзор моделей-энкодеров: BERT, RoBERTa, ALBERT
• Дообучение BERT для анализа тональности на практическом примере
• Обзор моделей-декодеров: GPТ, GPT-2, GPT-3
• Обучение с подкреплением на основе отзывов людей: InstructGPT
• Дообучение ruGPT-3 для генерации текста в определенном стиле на практическом примере
• Тренды развития больших языковых моделей: мультиязычность, мультимодальность
• Ответы на вопросы слушателей
Программист «НИВЦ МГУ»
Как использовать мультимодальные трансформеры в исследованиях
и не страдать?
Исследует гигантские мультимодальные
трансформеры
Александр Николич
Senior data sceintist
Тезисы выступления:
• История: мультиэнкодерные модели от DSSM к CLIP
• Мультмодальные трансформеры, почему можно совмещать модальности
• Visual transformer
• CLIP like архитектуры
• DALLE like архитектуры
• Multimodal attention
• Решение мультимодальной задачи классификации на CLIP
• Ответы на вопросы слушателей
Vision Transformer (ViT) и его применение в науке
Преподаёт на Факультете компьютерных наук ВШЭ
Анвар Курмуков
Тезисы выступления:
Старший научный сотрудник AIRI, руководитель команды Medical Image Analysis, научный сотрудник ИППИ РАН
• В чём состоит идея механизма внимания
• Архитектура Трансформер и Зрительный трансформер (ViT)
• Трудности обучения ViT, сколько данных действительно "много"
• Как учить ViT если есть только миллион размеченных изображений
• Применение механизма внимания в задачах обработки медицинских изображений
• Ответы на вопросы слушателей
Методы оптимизации процесса разметки для обучения нейронных сетей
Руководит отделом краудсорсинга, отвечает за инструменты по разметке данных. Преподает краудсорсинг в ШАДе и ВШЭ
Роман Куцев
Тезисы выступления:
• Сколько данных нужно для обучения нейронной сети
• Что выгоднее: улучшать архитектуру нейронной сети или увеличивать датасет
• Зачем использовать Active Learning
• Как предразметка позволяет удешевить создание датасета
• В чем главный плюс концепции Human in the Loop
• Тренды в разметке данных
• Применение разметки для обучения нейронных сетей в науке