• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта
Бакалавриат 2019/2020

Генеративные модели в машинном обучении

Направление: 01.03.02. Прикладная математика и информатика
Когда читается: 4-й курс, 3 модуль
Формат изучения: без онлайн-курса
Преподаватели: Артемьев Максим Радикович, Деркач Денис Александрович, Рыжиков Артём Сергеевич
Язык: русский
Кредиты: 4
Контактные часы: 46

Программа дисциплины

Аннотация

Глубинные генеративные модели широко используются во многих областях применения искусственного интеллекта и машинного обучения. В этом курсе мы рассмотрим современные архитектуры генеративных моделей и алгоритмы их обучения. На семинарах будут разобраны индустриальные примеры приложения генеративных моделей, включая вариационные автоэнкодеры (VAE), генеративные состязательные сети (GAN), авторегрессионные модели и модели нормализующих потоков. На курсе также будут приведены области знания, которые выигрывают от применения генеративных моделей в настоящее время и могут выиграть в будущем. Задания на семинарах продиктованы известными приложениями генеративных моделей в науке и индустрии.
Цель освоения дисциплины

Цель освоения дисциплины

  • ознакомление студентов с современными генеративными моделями
  • обучение использованию вариационных автокодировщиков для генерации новых объектов
  • обучение использования генеративно-состязательных сетей для генерации новых объектов
  • обучение использования нормализирующих потоков для генерации изображений
Планируемые результаты обучения

Планируемые результаты обучения

  • понимает разницу между генеративными и дискриминативными моделями
  • владеет необходимым аппаратом теории вероятностей
  • знает способы задания расстояний между распределениями
  • использует различные метрики качества для проверки генеративных моделей
  • Умеет тренировать автокодировщики
  • умеет тренировать вариацонные актокодировщики
  • объясняет выбор размерности латентного пространства
  • умеет применять нормализующие потоки для генерации изображений
  • ориентируется в перспективных разработках в области генеративных моделей
Содержание учебной дисциплины

Содержание учебной дисциплины

  • Введение в генеративные модели
    Основные концепции генеративных моделей. Формальная постановка задачи и размерность сигнала. Автокодировщики как генеративные модели, разреженный и шумоподавляющий автокодировщики. Расстояния между распределениями, дивергенция Кульбака-Лейблера, Йенсена-Шеннона и другие. Способы оценки качества генеративных моделей. Примеры построения метрик.
  • Генеративно-состязательные сети и вариационные автокодировщики
    Постановка задачи. Общая идея генеративно-состязательных сетей. Генератор. Дискриминатор. Обучение Генеративно-состязательных сетей. Проблемы классических генеративно-состязательных сетей: коллапс мод, исчезающие градиенты. Возможности решения проблем. f-GAN, сходимость произвольных дивергенций. Задача оптимального транспорта. Расстояние Васерштейна, и его использование в генеративно-состязательных сетях (WGAN), проблемы подхода. Смещённые градиенты расстояния Васерштейна. Градиентный штраф и спектральная нормализация. Задача сверхразрешения. Перенос стиля. Парный и непарный перевод. Идея вариационного автокодировщика (VAE). Математическая постановка. Вариационный вывод, нижняя граница обоснованности (ELBO). Скрытые переменные. Обучение VAE. Репараметризационный трюк. Итоговый алгоритм обучения VAE. Применение VAE. Скрытые переменные. Исследование скрытого пространства для генеративно-состязательных сетей и вариационных автокодировщиков. Объединение идей GAN и VAE: состязательные автокодировщики (AAE (Adversarial Autoencoder), VEEGAN (Variational Encoder Enhancement to Generative Adversarial Network). Векторная квантизация VAE (VQ-VAE) и генерация текстов.
  • Обратимые модели
    Обратимость в генеративных моделях. Авторегрессионные генеративные модели, идея. PixelCNN, PixelRNN. Генерация текстов с помощью pixeRNN. Нормализующие потоки. Планарный и радиальный потоки. Подсчёт Якобиана. Авторегрессионные потоки: Маскированный авторегрессионный поток, Инвертированный авторегрессионный поток. Дистилляция вероятностей. Модель учитель-ученик. Поиск аномалий генеративными моделями. Генерация звука с помощью Parallel Wavenet. Дискретные нормализующие потоки, генерация текстов с помощью норм потоков. Применение нейронных сетей-трансформеров для генерации текстов. Генеративные потоки со свёртками (GLOW). Обратимые свёрточные нейросети (i-DenseNet). Переход к непрерывному времени, FFJORD. Генерация 3D облака точек с помощью непрерывных нормализующих потоков (pointFlow).
Элементы контроля

Элементы контроля

  • неблокирующий Домашнее задание 1
    прикладные задачи по простейшим генеративным моделям и mcmc
  • неблокирующий Домашнее задание 2
    Задачи по автокодировщикам
  • неблокирующий Домашнее задание 3
    Задачи по генеративно-состязательным сетям
  • неблокирующий Домашнее задание 4
    Задачи по нормализующим потокам
  • неблокирующий Экзамен
    Экзамен состоит из теоретических вопросов, освещённых на лекциях, проходит письменно. Экзамен проходит в дистанционной форме в системе Zoom. Технические требования: web-камера, микрофон,, колонки / наушники., Zoom.
Промежуточная аттестация

Промежуточная аттестация

  • Промежуточная аттестация (3 модуль)
    0.2 * Домашнее задание 1 + 0.2 * Домашнее задание 2 + 0.2 * Домашнее задание 3 + 0.2 * Домашнее задание 4 + 0.2 * Экзамен
Список литературы

Список литературы

Рекомендуемая основная литература

  • Гудфеллоу Я., Бенджио И., Курвилль А. - Глубокое обучение - Издательство "ДМК Пресс" - 2018 - 652с. - ISBN: 978-5-97060-618-6 - Текст электронный // ЭБС ЛАНЬ - URL: https://e.lanbook.com/book/107901
  • Паттерсон Дж., Гибсон А. - Глубокое обучение с точки зрения практика - Издательство "ДМК Пресс" - 2018 - 418с. - ISBN: 978-5-97060-481-6 - Текст электронный // ЭБС ЛАНЬ - URL: https://e.lanbook.com/book/116122