При поддержке некоммерческого фонда развития науки и образования «Интеллект»
Искусственный интеллект и наука МГУ имени М. В. Ломоносова
При поддержке некоммерческого фонда развития науки и образования «Интеллект»
Искусственный интеллект и наука МГУ имени М. В. Ломоносова
Потоковые лекции для слушателей и выпускников MSU.AI
Лекции от приглашенных экспертов позволяют получить углубленные знания по определенной теме и познакомиться с опытом применения ИИ в научной деятельности российских исследователей.

Записи потоковых лекций доступны к просмотру всем желающим.

Расписание потоковых лекций

Очная лекция
2 июня с 16:00 до 18:00
30 мест
Использование больших языковых моделей
для обработки и генерации текста
Ксения Студеникина
Ведет научные исследования по обработке естественного языка с использованием больших языковых моделей в Московском Университете
Тезисы выступления:
• Что такое языковое моделирование. Обзор архитектуры трансформер
• Обзор моделей-энкодеров: BERT, RoBERTa, ALBERT
• Дообучение BERT для анализа тональности на практическом примере
• Обзор моделей-декодеров: GPТ, GPT-2, GPT-3
• Обучение с подкреплением на основе отзывов людей: InstructGPT
• Дообучение ruGPT-3 для генерации текста в определенном стиле на практическом примере
• Тренды развития больших языковых моделей: мультиязычность, мультимодальность
• Ответы на вопросы слушателей

Полная программа лекции на странице для регистрации

Программист «НИВЦ МГУ»
ВНИМАНИЕ! Регистрация на лекцию обязательна!
Прошедшие мероприятия
Онлайн - лекция
3 июня 18:30 - 20:30
100 мест
Как использовать мультимодальные трансформеры в исследованиях
и не страдать?
Александр Николич
Исследует гигантские мультимодальные
трансформеры
Senior data sceintist
Тезисы выступеления:
• История: мультиэнкодерные модели от DSSM к CLIP
• Мультмодальные трансформеры, почему можно совмещать модальности
• Visual transformer
• CLIP like архитектуры
• DALLE like архитектуры
• Multimodal attention
• Решение мультимодальной задачи классификации на CLIP
• Ответы на вопросы слушателей
Онлайн - лекция
12 мая 12:00 - 14:00
100 мест
Vision Transformer (ViT)
и его применение в науке
Анвар Курмуков
Преподаёт на Факультете компьютерных наук ВШЭ
Тезисы выступления:
Старший научный сотрудник AIRI, руководитель команды Medical Image Analysis, научный сотрудник ИППИ РАН
• В чём состоит идея механизма внимания
• Архитектура Трансформер и Зрительный трансформер (ViT)
• Трудности обучения ViT, сколько данных действительно "много"
• Как учить ViT если есть только миллион размеченных изображений
• Применение механизма внимания в задачах обработки медицинских изображений
• Ответы на вопросы слушателей
Очная лекция
14 апреля 13:00 - 15:00
50 мест
Методы оптимизации процесса разметки для обучения нейронных сетей
Роман Куцев
Руководит отделом краудсорсинга, отвечает за инструменты по разметке данных. Преподает краудсорсинг в ШАДе и ВШЭ
Тезисы выступления:
• Сколько данных нужно для обучения нейронной сети
• Что выгоднее: улучшать архитектуру нейронной сети или увеличивать датасет
• Зачем использовать Active Learning
• Как предразметка позволяет удешевить создание датасета
• В чем главный плюс концепции Human in the Loop
• Тренды в разметке данных
• Применение разметки для обучения нейронных сетей в науке