ПРИ ПОДДЕРЖКЕ НЕКОММЕРЧЕСКОГО ФОНДА РАЗВИТИЯ НАУКИ И ОБРАЗОВАНИЯ «ИНТЕЛЛЕКТ»
Искусственный интеллект и наука МГУ имени М.В. Ломоносова
Расписание потоковых лекций
Следующие потоковые лекции в разработке. Расписание лекций уточняется. Вы можете посмотреть записи прошедших лекций.
Прошедшие мероприятия
Онлайн - лекция
3 июня 18:30 - 20:30
100 мест
Как использовать мультимодальные трансформеры в исследованиях и не страдать?
Александр Николич
Исследует гигантские мультимодальные трансформеры
Senior data sceintist
Программа лекции:
• История: мультиэнкодерные модели от DSSM к CLIP • Мультмодальные трансформеры, почему можно совмещать модальности • Visual transformer • CLIP like архитектуры • DALLE like архитектуры • Multimodal attention • Решение мультимодальной задачи классификации на CLIP • Ответы на вопросы слушателей
Старший научный сотрудник AIRI, руководитель команды Medical Image Analysis, научный сотрудник ИППИ РАН
• В чём состоит идея механизма внимания • Архитектура Трансформер и Зрительный трансформер (ViT) • Трудности обучения ViT, сколько данных действительно "много" • Как учить ViT если есть только миллион размеченных изображений • Применение механизма внимания в задачах обработки медицинских изображений • Ответы на вопросы слушателей
Руководит отделом краудсорсинга, отвечает за инструменты по разметке данных. Преподает краудсорсинг в ШАДе и ВШЭ
Программа лекции
• Сколько данных нужно для обучения нейронной сети • Что выгоднее: улучшать архитектуру нейронной сети или увеличивать датасет • Зачем использовать Active Learning • Как предразметка позволяет удешевить создание датасета • В чем главный плюс концепции Human in the Loop • Тренды в разметке данных • Применение разметки для обучения нейронных сетей в науке