• A
  • A
  • A
  • ABC
  • ABC
  • ABC
  • А
  • А
  • А
  • А
  • А
Regular version of the site

Optimization in Machine Learning

2019/2020
Academic Year
RUS
Instruction in Russian
4
ECTS credits
Course type:
Elective course
When:
1 year, 3, 4 module

Instructor

Программа дисциплины

Аннотация

Методы оптимизации лежат в основе решения многих задач компьютерных наук. Например, в машинном обучении задачу оптимизации необходимо решать каждый раз при настройке какой-то модели алгоритмов по данным. Причём от эффективности решения соответствующей задачи оптимизации зависит практическая применимость самого метода машинного обучения. Данный курс посвящен изучению классических и современных методов решения задач непрерывной оптимизации (в том числе невыпуклой), а также особенностям применения этих методов в задачах оптимизации, возникающих в машинном обучении. Основной акцент в изложении делается на практические аспекты реализации и использования методов. Целью курса является выработка у слушателей навыков по подбору подходящего метода для своей задачи, наиболее полно учитывающего её особенности.
Цель освоения дисциплины

Цель освоения дисциплины

  • Цель - освоение основных методов непрерывной оптимизации, приобретение компетенций в области использования методов оптимизации в задачах машинного обучения.
Планируемые результаты обучения

Планируемые результаты обучения

  • Знать основные методы непрерывной оптимизации, в том числе невыпуклой.
  • Уметь толковать задачи машинного обучения как задачи оптимизации и применять релевантные задаче методы.
  • Владеть методами теоретического исследования оптимизационного процесса.
  • Владеть навыками обработки и интерпретации результатов эксперимента.
  • Уметь находить градиенты и гессианы функций от многих переменных.
  • Уметь примененять методы оптимизации с использованием глобальных верхних оценок.
  • Уметь определять возможности применения того или иного метода оптимизации.
  • Уметь ориентироваться в потоке научной информации для использования новых методах оптимизации в отсекающих плоскостей.
  • Уметь примененять bundle-метода для задачи обучения SVM.
  • Уметь применять стохастический градиентный спуск как метод оптимизации и как метод обучения.
  • Уметь определять возможности применения того или иного метода стохатсической оптимизации.
Содержание учебной дисциплины

Содержание учебной дисциплины

  • Основные понятия и примеры задач.
    "Градиент и гессиан функции многих переменных, их свойства, необходимые и достаточные условия безусловного экстремума; Матричные разложения, их использование для решения СЛАУ; Структура итерационного процесса в оптимизации, понятие оракула, критерии останова; Глобальная и локальная оптимизация, скорости сходимости итерационных процессов оптимизации; Примеры оракулов и задач машинного обучения со «сложной» оптимизацией."
  • Методы одномерной оптимизации
    "Минимизация функции без производной: метод золотого сечения, метод парабол; Гибридный метод минимизации Брента; Методы решения уравнения : метод деления отрезка пополам, метод секущей; Минимизация функции с известной производной: кубическая аппроксимация и модифицированный метод Брента; Поиск ограничивающего сегмента; Условия Армихо-Голдштайна-Вольфа для неточного решения задачи одномерной оптимизации; Неточные методы одномерной оптимизации, backtracking."
  • Методы многомерной оптимизации
    "Методы линейного поиска и доверительной области; Метод градиентного спуска: наискорейший спуск, спуск с неточной одномерной оптимизацией, скорость сходимости метода для сильно-выпуклых функций с липшицевым градиентом, зависимость от шкалы измерений признаков; Сходимость общего метода линейного поиска с неточной одномерной минимизацией; Метод Ньютона: схема метода, скорость сходимости для выпуклых функций с липшицевым гессианом, подбор длины шага, способы коррекции гессиана до положительно-определённой матрицы; Метод сопряженных градиентов для решения систем линейных уравнений, скорость сходимости метода, предобуславливание; Метод сопряженных градиентов для оптимизации неквадратичных функций, стратегии рестарта, зависимость от точной одномерной оптимизации; Неточный (безгессианный) метод Ньютона: схема метода, способы оценки произведения гессиана на вектор через вычисление градиента; Применение неточного метода Ньютона для обучения линейного классификатора и нелинейной регрессии, аппроксимация Гаусса-Ньютона и адаптивная стратегия Levenberg-Marquardt; Квазиньютоновские методы оптимизации: DFP, BFGS и L-BFGS;"
  • Методы оптимизации с использованием глобальных верхних оценок, зависящих от параметра
    "Вероятностная модель линейной регрессии с различными регуляризациями: квадратичной, L1, Стьюдента; Идея метода оптимизации, основанного на использовании глобальных оценок, сходимость; Пример применения метода для обучения LASSO; Построение глобальных оценок с помощью неравенства Йенсена, ЕМ-алгоритм, его применение для вероятностных моделей линейной регрессии; Построение оценок с помощью касательных и замены переменной; Оценка Jaakkola-Jordan для логистической функции, оценки для распределений Лапласа и Стьюдента; Применение оценок для обучения вероятностных моделей линейной регрессии; Выпукло-вогнутая процедура, примеры использования."
  • Методы внутренней точки.
    "Необходимые и достаточные условия оптимальности в задачах условной оптимизации, условия Куна-Таккера и условия Джона, соотношение между ними; Выпуклые задачи условной оптимизации, двойственная функция Лагранжа, двойственная задача оптимизации; Решение задач условной оптимизации с линейными ограничениями вида равенство, метод Ньютона; Прямо-двойственный метод Ньютона, неточный вариант метода; Метод логарифмических барьерных функций; Методы первой фазы; Прямо-двойственный метод внутренней точки; Использование методов внутренней точки для обучения SVM."
  • Разреженные методы машинного обучения
    "Модели линейной/логистической регрессии с регуляризациями L1 и L1/L2; Понятие субградиента выпуклой функции, его связь с производной по направлению, необходимое и достаточное условие экстремума для выпуклых негладких задач безусловной оптимизации; Метод наискорейшего субградиентного спуска; Проксимальный метод; Метод покоординатного спуска и блочной покоординатной оптимизации."
  • Методы отсекающих плоскостей
    "Понятие отделяющего оракула, базовый метод отсекающих плоскостей (cutting plane); Надграфная форма метода отсекающих плоскостей; Bundle-версия метода отсекающих плоскостей, зависимость от настраиваемых параметров; Применение bundle-метода для задачи обучения SVM; Добавление эффективной процедуры одномерного поиска; Реализация метода с использованием параллельных вычислений и в условиях ограничений по памяти."
  • Стохастическая оптимизация
    "Общая постановка задачи стохастической оптимизации, пример использования; Задачи минимизации среднего и эмпирического риска; Метод стохастического градиентного спуска, две фазы итерационного процесса, использование усреднения и инерции; Стохастический градиентный спуск как метод оптимизации и как метод обучения; Метод SAG; Применение стохастического градиентного спуска для SVM (алгоритм PEGASOS)."
Элементы контроля

Элементы контроля

  • неблокирующий Домашняя работа 1
  • неблокирующий Домашняя работа 2
  • неблокирующий Экзамен
    Оценка за дисциплину выставляется в соответствии с формулой оценивания от всех пройденных элементов контроля. Экзамен не проводится.
Промежуточная аттестация

Промежуточная аттестация

  • Промежуточная аттестация (4 модуль)
    0.3 * Домашняя работа 1 + 0.3 * Домашняя работа 2 + 0.4 * Экзамен
Список литературы

Список литературы

Рекомендуемая основная литература

  • БОНДАРЕНКО ДМИТРИЙ ОЛЕГОВИЧ, ЕВСЮТИН ОЛЕГ ОЛЕГОВИЧ, & РАЩУПКИНА АНЖЕЛИКА ВЛАДИМИРОВНА. (2015). Непрерывная Оптимизация С Помощью Клеточного Автомата С Адаптивным Выбором Правила Развития. Доклады Томского Государственного Университета Систем Управления и Радиоэлектроники, (4 (38)). Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsclk&AN=edsclk.16438393
  • Велмуруган, Т., Хара, С., Нандакумар, С., & Сумаси, Д. (2017). Непрерывная вертикальная передача обслуживания в гетерогенных беспроводных сетях с использованием алгоритма модифицированной оптимизации удаления ненужных данных. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.D3D8214B
  • ГРИГОРЕНКО, Ю. В., Grigorenko, Y. V., & Григоренко, Ю. В. (2015). МОДЕЛІ, МЕТОДИ ТА ЗАСОБИ МАТЕМАТИЧНОГО МОДЕЛЮВАННЯ ПРОЦЕСІВ ПЕРВИННОЇ ПЕРЕРОБКИ СИРИХ ВУГЛЕВОДНІВ ; Models, methods and tools applied mathematical modeling of processes and apparatuses of primary processing of raw hydrocarbons. ; Модели, методы и средства прикладного математического моделирования процессов и аппаратов первичной переработки сырых углеводородов. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.6226D7A0
  • КУРЕЙЧИК ВЛАДИМИР ВИКТОРОВИЧ, ЗАРУБА ДАРЬЯ ВИКТОРОВНА, & ЗАПОРОЖЕЦ ДМИТРИЙ ЮРЬЕВИЧ. (2015). Алгоритм параметрической оптимизации на основе модели поведения роя светлячков. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.4C032290
  • П. Леончик В. (2018). Минимизация Систем Булевых Функций В Классе Дизъюнктивных Нормальных Форм. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.66A09856
  • Практическая оптимизация, Гилл, Ф., 1985
  • Системный анализ, оптимизация и принятие решений : учеб. пособие для вузов, Козлов, В. Н., 2010

Рекомендуемая дополнительная литература

  • P. Bibilo N., Y. Lankevich Y., П. Бибило Н., & Ю. Ланкевич Ю. (2017). Minimizing the Multilevel Representations of Systems of Boolean Functions Based on Shannon Decomposition ; Минимизация Многоуровневых Представлений Систем Булевых Функций На Основе Разложения Шеннона. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.4C5CF3CF
  • НИКОЛАЕВ АЛЕКСАНДР СЕРГЕЕВИЧ. (2016). Минимизация Формулы Пороговой Функции. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.3324022F