NLP
Видеокурс «Нейронные сети для обработки текстов в гуманитарных науках»

Видеокурс «Нейронные сети для обработки текстов в гуманитарных науках»

Видеокурс «Нейронные сети для обработки текстов в гуманитарных науках» от команды MSU.AI разработан специально по запросу представителей гуманитарных дисциплин, которые хотят научиться решать NLP-задачи и применять инструментарий нейросетей к языковым данным.

Направление NLP объединяет в себе лингвистику, компьютерные науки и искусственный интеллект. Наша команда создала образовательный видеокурс, который поможет в освоении алгоритмов машинного обучения для автоматической обработки текстов, научит решать прикладные задачи, связанные с обработкой естественного языка и будет полезен широкому кругу представителей гуманитарных специальностей: от лингвистов до социологов.

Первые видеолекции будут посвящены базовым инструментам и алгоритмам машинного обучения, общим принципам нейронных сетей, а затем, в ходе изучения видеокурса, вы познакомитесь с представлением текстовой информации, обработкой текстов с помощью рекуррентных сетей и сетей-трансформеров.

Формат коротких видеоуроков позволит изучить темы в любое удобное время. Видеозаписи и учебные материалы находятся в свободном доступе для всех желающих.

Необходимые навыки для освоения курса:

• Базовое умение программировать на языке Python
• Базовые знания математического анализа
• Базовые знания линейной алгебры
• Базовые знания математической статистики
Ксения Андреевна Студеникина МГУ
Ксения Студеникина
  • Разработчики:
    Студеникина Ксения Андреевна
    Ивченко Александр Владимирович
    Елизаров Сергей Георгиевич
    Запуниди Сергей Александрович
  • Преподаватели:
    Студеникина Ксения Андреевна
  • Нагрузка:
    Самостоятельная [ч]: 14
  • Формат:
    Видеолекции

Тематическое содержание курса.

Каждая лекция разделена на несколько мини-видео, что позволит вам лучше усвоить и закрепить материал.

Лекция 1. Введение в машинное обучение

Лекция 1. Часть 1.
Два пути. Задача курса. AI, ML, ANN, DL. Области применения. Обзор курса. Задачи машинного обучения. Обучение с учителем (supervised learning). Обучение без учителя (unsupervised learning).
Лекция 1. Часть 2.
План исследования. Инструменты. Сбор данных. Предобработка текста. Векторизация текста. Разведочный анализ данных. Обучение модели. Обучение и применение. Оценка качества классификации.
Лекция 1. Часть 3.
Пример работы с данными и моделью. Предобработка данных. Разведочный анализ данных. Обучение и тестирование модели. Подбор гиперпараметров.

Лекция 2. Модели машинного обучения

Лекция 2. Часть 1.
Лекция 2. Часть 2.
Метод градиентного спуска. Точки минимума и максимума функции. Ландшафт функции потерь. Частная производная и градиент функции. Градиентный спуск и скорость обучения. Необходимость нормализации. Cтохастический градиентный спуск.
Лекция 2. Часть 4.
Лекция 2. Часть 5.
Заставка. Усреднение предсказания классификаторов. Случайный лес. Boosting. Gradient boosting (градиентный бустинг). Модификации градиентного бустинга.

Лекция 3. Нейронные сети

Лекция 3. Часть 1.
Ограничения линейных моделей. Проблема ХОR. Внутриклассовая вариативность. Многослойные нейронные сети. Веса и смещения. Нейронная сеть как универсальный аппроксиматор. Библиотека PyTorch. Обучение нейронной сети.
Лекция 3. Часть 2.
Функции активации. Требования к функциям активации. Логистическая функция. Гиперболический тангенс. ReLU. Leaky ReLU. GELU (Gaussian Error Linear Unit). Функции потерь (loss functions).
Лекция 3. Часть 3.
Метод обратного распространения ошибки. Вычислительный граф. Пошаговый разбор метода обратного распространения. Анимация работы метода обратного распространения ошибки. Автоматическое вычисление градиента в PyTorch.

Лекция 4. Рекуррентные нейронные сети

Лекция 4. Часть 1.
Архитектура рекуррентных нейронных сетей. LSTM (Архитектуры рекуррентных нейронных сетей). GRU. Для каких задач применимы рекуррентные нейронные сети.

Лекция 5. Архитектура трансформер

Лекция 6. Модели на основе энкодера трансформера

Лекция 7. Модели на основе декодера трансформера