• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта
Бакалавриат 2019/2020

Байесовские методы в машинном обучении

Лучший по критерию «Полезность курса для расширения кругозора и разностороннего развития»
Лучший по критерию «Новизна полученных знаний»
Направление: 01.03.02. Прикладная математика и информатика
Когда читается: 4-й курс, 1, 2 модуль
Формат изучения: с онлайн-курсом
Язык: русский
Кредиты: 5

Программа дисциплины

Аннотация

Изучение дисциплины «Байесовские методы машинного обучения» нацелено на освоение т.н. байесовского подхода к теории вероятностей как одного из последовательных способов математических рассуждений в условиях неопределенности. В байесовском подходе вероятность интерпретируется как мера незнания, а не как объективная случайность. Простые правила оперирования с вероятностью, такие как формула полной вероятности и формула Байеса, позволяют проводить рассуждения в условиях неопределенности. В этом смысле байесовский подход к теории вероятностей можно рассматривать как обобщение классической булевой логики. Целью курса также является освоение студентами основных способов применения байесовского подхода при решении задач машинного обучения. Байесовский подход позволяет эффективно учитывать различные предпочтения пользователя при построении решающих правил прогноза. Кроме того, он позволяет решать задачи выбора структурных параметров модели. В частности, здесь удается решать без комбинаторного перебора задачи селекции признаков, выбора числа кластеров в данных, размерности редуцированного пространства при уменьшении размерности, значений коэффициентов регуляризации и проч. Предполагается, что в результате освоения курса студенты будут способны строить комплексные вероятностные модели, учитывающие структуру прикладной задачи машинного обучения, выводить необходимые формулы для решения задач обучения и вывода в рамках построенных вероятностных моделей, а также эффективно реализовывать данные модели на компьютере.
Цель освоения дисциплины

Цель освоения дисциплины

  • Освоение байесовского подхода к теории вероятностей и основных способов его применения для решения задач машинного обучения.
  • Приобретение навыков построения комплексные вероятностных моделей, вывода необходимых формул для решения задач обучения и вывода в рамках построенных вероятностных моделей, а также эффективной реализации данных моделей на компьютере.
Планируемые результаты обучения

Планируемые результаты обучения

  • Знать основные методы обучения и вывода в вероятностных моделях (точные и приближенные).
  • Уметь выбирать наиболее подходящий метод обучения для данных моделей
  • Уметь выводить необходимые формулы для решения задач обучения и вывода в рамках построенных вероятностных моделей
  • Уметь эффективно реализовывать данные модели на компьютере
  • Уметь строить вероятностные модели, учитывающие структуру прикладной задачи машинного обучения
  • Знать основные байесовские модели, используемые для решения различных задач машинного обучения (смеси распределений, модель релевантных векторов, LDA и т.д.)
  • Знать основные методы обучения и вывода в вероятностных моделях (точные и приближенные)
  • Знать основные методы генерации выборки из ненормированного вероятностного распределения
Содержание учебной дисциплины

Содержание учебной дисциплины

  • Байесовский подход к теории вероятностей. Полный байесовский вывод.
    Введение. Частотный и байесовский подходы к теории вероятностей. Примеры байесовских рассуждений. Сопряжённые распределения. Примеры. Экспоненциальный класс распределений, его свойства.
  • Байесовский выбор модели.
    Принцип наибольшей обоснованности. Интерпретация понятия обоснованности, ее геометрический смысл, иллюстративные примеры, связь с принципом Оккама.
  • Модель релевантных векторов для задачи регрессии. Модель релевантных векторов для задачи классификации
    Обобщенные линейные модели, вероятностная модель линейной регрессии. Метод релевантных векторов, вывод формул для регрессии. Свойства решающего правила. Матричные вычисления и нормальное распределение. Логистическая и мультиномиальная регрессия. Метод релевантных векторов для задачи классификации. Приближение Лапласа для оценки обоснованности в случае задачи классификации, его достоинства и недостатки.
  • ЕМ-алгоритм
    EM-алгоритм в общем виде. EM-алгоритм как покоординатный подъем. ЕМ-алгоритм для задачи разделения смеси нормальных распределений. Байесовский метод главных компонент.
  • Вариационный подход
    Приближенные методы байесовского вывода. Минимизация дивергенции Кульбака-Лейблера и факторизованное приближение. Идея вариационного подхода, вывод формул для вариационной смеси нормальных распределений
  • Методы Монте Карло по схеме марковских цепей (МСМС). Стохастические методы МСМС
    Методы генерации выборки из одномерных распределений. Методы MCMC для оценки статистик вероятностных распределений. Теоретические свойства марковских цепей. Схема Метрополиса-Хастингса и схема Гиббса. Примеры использования. Продвинутые методы самплирования, использующие градиент лог-правдоподобия. Динамика Гамильтона и Ланжевена. Масштабируемые обобщения этих методов
  • Гауссовские процессы для регрессии и классификации
    Гауссовские случайные процессы. Выбор наиболее адекватной ковариационной функции
  • Тематическая модель Latent Dirichlet Allocation (LDA)
    Обучение и вывод в модели LDA с помощью вариационного подхода. Вывод в модели LDA с помощью схемы Гиббса. Способы использования LDA.
  • Стохастический вариационный вывод. Вариационный автокодировщик
    Схема масштабируемого вариационного вывода. Дважды стохастическая процедура настройки байесовских нейросетевых моделей на примере модели нелинейного понижения размерности.
Элементы контроля

Элементы контроля

  • блокирующий Устный экзамен
  • неблокирующий Домашнее задание (практические)
    2 практических домашних задания (вывод формул, программная реализация модели, проведение экспериментов, написание полного отчета).
  • неблокирующий Домашнее задание (теоретические)
    3 теоретических домашних задания (решение теоретических задач по материалам лекций)
  • неблокирующий Домашнее задание (лабораторные)
    4 домашних лабораторных работы (выполнение короткого практического задания на закрепление материала)
Промежуточная аттестация

Промежуточная аттестация

  • Промежуточная аттестация (2 модуль)
    0.229 * Домашнее задание (лабораторные) + 0.3 * Домашнее задание (практические) + 0.171 * Домашнее задание (теоретические) + 0.3 * Устный экзамен
Список литературы

Список литературы

Рекомендуемая основная литература

  • Barber, D. (2012). Bayesian Reasoning and Machine Learning. Cambridge: Cambridge eText. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsebk&AN=432721
  • Christopher M. Bishop. (n.d.). Australian National University Pattern Recognition and Machine Learning. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.EBA0C705
  • Hoffman, M., Blei, D. M., Wang, C., & Paisley, J. (2012). Stochastic Variational Inference. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsarx&AN=edsarx.1206.7051
  • Kingma, D. P., & Welling, M. (2013). Auto-Encoding Variational Bayes. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsarx&AN=edsarx.1312.6114
  • Matthew D. Hoffman, David M. Blei, Chong Wang, John Paisley, & Tommi Jaakkola. (2013). Stochastic variational inference. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.5C2D1B3B

Рекомендуемая дополнительная литература

  • Tipping, M. E. (2001). Sparse Bayesian Learning and the Relevance Vector Machine. Journal of Machine Learning Research, 1(3), 211–244. https://doi.org/10.1162/15324430152748236