• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта
Бакалавриат 2019/2020

Глубинное обучение

Направление: 01.03.02. Прикладная математика и информатика
Когда читается: 4-й курс, 1, 2 модуль
Формат изучения: без онлайн-курса
Преподаватели: Ашуха Арсений Павлович, Осокин Антон Александрович, Сапарина Ирина Олеговна
Язык: русский
Кредиты: 5
Контактные часы: 60

Программа дисциплины

Аннотация

В последние году методы глубинного обучения (нейросети) позволили достигнуть впечатляющих успехов в решении прикладных задач из таких областей как компьтерное зрение, обработка естественного языка, обработка аудио. В рамках данного курса мы рассмотрим основные нейросетевые модели, а также способы их применения и обучения. Студенты получат навыки использования этих технологий в стандартных задачах, а также разработки и модификации методов для новых задач.
Цель освоения дисциплины

Цель освоения дисциплины

  • Ознакомление студентов с основными принципами применения методов, основанных на глубоких нейросетях, для решения задач машинного обучения.
  • Формирование у студентов практических навыков применения и обучения глубоких нейросетей в прикладных задачах анализа данных из таких областей как компьютерное зрение, обработка текстов, и др.
Планируемые результаты обучения

Планируемые результаты обучения

  • знать основные принципы построения моделей на основе нейросетей
  • знать стандартные алгоритмы обучения и регуляризации нейросетей
  • владеть навыками работы с библиотекой pytorch и ее документацией
  • владеть навыками реализации систем для обучения и использования нейросетей
  • владеть навыками тестирования и отладки существующих систем
  • уметь обучать нейросетевые модели на новых наборах данных
  • знать наиболее часто используемые стандартные архитектуры и области их применимости
  • знать виды задач, которые уместно решать при помощи методов глубинного обучения
  • уметь распознавать задачи, которые потенциально можно решить при помощи методов глубинного обучения
  • уметь подбирать наиболее подходящий набор алгоритмов
Содержание учебной дисциплины

Содержание учебной дисциплины

  • Введение в глубинное обучение
    Нейронные сети для задачи классификации, оптимизация методом стохастического гради-ента, примеры задач.
  • Механика нейросетей и алгоритм обратного распространения ошибок
    Обратное распространение ошибки как основной способ обучения нейросетей, дифферен-цирование основных операций (полносвязные слой, свёртка), автоматической дифференциро-вание сложных моделей, подходы к реализации нейросетевых библиотек (статический и дина-мический графы вычислений)
  • Основные виды нейросетей
    Повышение эффективности использования параметров, операция свёрки для изображений, основные принципы построения свёрточных сетей, рекуррентные сети для обработки последо-вательностей, основные виды рекуррентных блоков и способов построения рекуррентных мо-делей.
  • Обучение и регуляризация нейросетей
    Методы регуляризации нейросетей (L2, dropout, batchnorm, data augmentation и др.), методы оптимизации (SGDи его улучшения, подбор длины шага и масштаба каждого из параметров), архитектурные элементы, улучшающие обучение нейросетей (gating, skip connections). Настоящая дисциплина относится к циклу дисциплин по машинному обучению и анализу данных.
  • Глубинное обучение для задач компьютерного зрения
    Примеры построения сложных архитектур для задач компьютерного зрения: поиск объектов на изображении (object detection), сегментация изображений (image segmentation), обучение представлений и поиск изображений (representation learning and image retrieval), и др.
  • Глубинное обучение для построения вероятностных моделей
    Прямые вероятностные модели (NADE, PixelCNN и др.), вероятностные модели со скрыты-ми переменными (вариационный автокодировщик, VAE).
  • Непрямые способы использования нейросетей
    Адаптация нейросетей к новым наборам данных (domain adaptation), противоборствующее обучение (adversarial trainings), построение примеров, на которых нейросети ошибаются (ad-versarial examples).
  • Встраивание алгоритмов в слои нейросетей
    Алгоритм вывода в функции потерь на примере структурного метода опорных векторов, дифференцируемый вывод на примере гауссовского марковского поля, итерационные алгорит-мы как вычислительные графы на примере алгоритма передачи сообщений.
  • Недифференцируемые модели и глубинное обучение с подкреплением
    Введение в обучение с подкреплением и основные алгоритмы (policy gradients), глубинное обучение с покреплением, байесовские нейросети.
  • Глубинное обучение для задач обработки текстов
    Представления слов (word embeddings), модели для предсказания последовательностей (se-quence-to-sequence), задачи машинного перевода и генерации подписи к изображениям.
Элементы контроля

Элементы контроля

  • неблокирующий Домашнее задание (ДЗ1)
    Домашнее задание категории ДЗ1 выдается после каждого семинара
  • неблокирующий Домашнее задание (ДЗ2)
    В рамках курса будет выдано 3 домашних задания категории ДЗ2
  • неблокирующий Проект (ПР)
    Вторая половина курса посвящена выполнению проекта
  • неблокирующий Экзамен (Э)
Промежуточная аттестация

Промежуточная аттестация

  • Промежуточная аттестация (2 модуль)
    О_ДЗ1: Итоговая оценка за домашние задания категории ДЗ1 вычисляется путем усреднения оценок за все задания этой катерогии, шкала от 0 до 10. <br /> О_ДЗ2: Итоговая оценка за домашние задания категории ДЗ2 вычисляется путем усреднения оценок за все задания этой катерогии, шкала от 0 до 10. <br /> О_ПР: Оценка за проект выставляется по итогам выполнения проекта, шкала от 0 до 10. <br /> О_накопл: Накопленная оценка выставляется по итогам работы в семестре по следующей нелинейной формуле, шкала от 0 до 10. <br /> О_накопл := округление( О_ДЗ1 * w_ДЗ1 + О_ДЗ2 * w_ДЗ2 + О_ПР * w_ПР ), где веса w_ДЗ1, w_ДЗ2, w_ПР вычисляются при помощи взвешенной функции softmin. <br /> w_ДЗ1 := s_ДЗ1 / (s_ДЗ1 + s_ДЗ2 + s_ПР)<br /> w_ДЗ2 := s_ДЗ2 / (s_ДЗ1 + s_ДЗ2 + s_ПР)<br /> w_ПР := s_ПР / (s_ДЗ1 + s_ДЗ2 + s_ПР) <br /> s_ДЗ1 := exp( -О_ДЗ1 / T) * с_ДЗ1 <br /> s_ДЗ2 := exp( -О_ДЗ2 / T) * с_ДЗ2 <br /> s_ПР := exp( -О_ПР / T) * с_ПР <br /> Значения параметров: T:= 20, s_ДЗ1:=0.2, s_ДЗ2:= 0.3, s_ПР := 0.5 <br /> О_Э: оценка за экзамен выставляется в шкале от 0 до 10. По взаимному согласию студента и преподавателя оценка за экзамен может быть выставлена равной накопленной оценке.<br /> Итоговая оценка вычисляется по формуле<br /> О_итог := округление(0.7 * О_накопл + 0.3 * О_Э)
Список литературы

Список литературы

Рекомендуемая основная литература

  • Гудфеллоу Я., Бенджио И., Курвилль А. - Глубокое обучение - Издательство "ДМК Пресс" - 2018 - 652с. - ISBN: 978-5-97060-618-6 - Текст электронный // ЭБС ЛАНЬ - URL: https://e.lanbook.com/book/107901

Рекомендуемая дополнительная литература

  • Kelleher, J. D. (2019). Deep Learning. Cambridge: The MIT Press. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsebk&AN=2234376