При поддержке некоммерческого фонда развития науки и образования «Интеллект»
Искусственный интеллект и наука МГУ имени М. В. Ломоносова
При поддержке некоммерческого фонда развития науки и образования «Интеллект»
Искусственный интеллект и наука МГУ имени М. В. Ломоносова
Потоковые лекции для слушателей и выпускников MSU.AI
Лекции от приглашенных экспертов позволяют получить углубленные знания по определенной теме и познакомиться с опытом применения ИИ в научной деятельности российских исследователей.
Записи потоковых лекций доступны к просмотру всем желающим.
Расписание потоковых лекций
Следующие лекции в разработке. Расписание появится позже
Если вы хотите прочитать лекцию о применении ИИ в вашем исследовании или на актуальные темы в области применения искусственного интеллекта, свяжитесь, пожалуйста, с нами neiropr@gmail.com
Прошедшие мероприятия
7 июля 16:00 - 18:00
30 мест
Deep Learning for Quantum Chemistry
Занимается обучением графовых нейросетевых моделей для решения задач квантовой химии
Кузьма Храбров
Инженер-исследователь в Институте Искусственного Интеллекта AIRI
Тезисы выступеления:
• Обзор задач вычислительной квантовой химии • Представления молекул для машинного обучения • Решение электронного уравнения Шрёдингера с помощью нейронных сетей • Задача оптимизации молекулярной геометрии • Задача молекулярного докинга • Ответы на вопросы слушателей
Скоро здесь появятся ссылки на видео и материалы лекции
• Обзор LLaMA • Синтетический сбор инструктивных данных • Что такое low-rank adaptation ускорение • 100500 дообучений LLaMA: Alpaca, Vicuña, Koala, GPT4all, WizardLM, StackLLaMA • Ответы на вопросы слушателей
NLP researcher "Innotech"
ВНИМАНИЕ! Блокнот предназначен только для демонстрации. Обучение модели производилось на двух видеокартах. Ресурсов Google Colab для его запуска недостаточно
Использование больших языковых моделей для обработки и генерации текста
Ведет научные исследования по обработке естественного языка с использованием больших языковых моделей в Московском Университете
Ксения Студеникина
Тезисы выступления:
• Что такое языковое моделирование. Обзор архитектуры трансформер • Обзор моделей-энкодеров: BERT, RoBERTa, ALBERT • Дообучение BERT для анализа тональности на практическом примере • Обзор моделей-декодеров: GPТ, GPT-2, GPT-3 • Обучение с подкреплением на основе отзывов людей: InstructGPT • Дообучение ruGPT-3 для генерации текста в определенном стиле на практическом примере • Тренды развития больших языковых моделей: мультиязычность, мультимодальность • Ответы на вопросы слушателей
Как использовать мультимодальные трансформеры в исследованиях и не страдать?
Исследует гигантские мультимодальные трансформеры
Александр Николич
Senior data sceintist
Тезисы выступеления:
• История: мультиэнкодерные модели от DSSM к CLIP • Мультмодальные трансформеры, почему можно совмещать модальности • Visual transformer • CLIP like архитектуры • DALLE like архитектуры • Multimodal attention • Решение мультимодальной задачи классификации на CLIP • Ответы на вопросы слушателей
• В чём состоит идея механизма внимания • Архитектура Трансформер и Зрительный трансформер (ViT) • Трудности обучения ViT, сколько данных действительно "много" • Как учить ViT если есть только миллион размеченных изображений • Применение механизма внимания в задачах обработки медицинских изображений • Ответы на вопросы слушателей
Руководит отделом краудсорсинга, отвечает за инструменты по разметке данных. Преподает краудсорсинг в ШАДе и ВШЭ
Роман Куцев
Тезисы выступления:
• Сколько данных нужно для обучения нейронной сети • Что выгоднее: улучшать архитектуру нейронной сети или увеличивать датасет • Зачем использовать Active Learning • Как предразметка позволяет удешевить создание датасета • В чем главный плюс концепции Human in the Loop • Тренды в разметке данных • Применение разметки для обучения нейронных сетей в науке