2025/2026




Современные методы нелинейной оптимизации и их приложения в машинном обучении
Статус:
Маго-лего
Кто читает:
Департамент прикладной математики
Когда читается:
1, 2 модуль
Охват аудитории:
для всех кампусов НИУ ВШЭ
Преподаватели:
Стонякин Федор Сергеевич
Язык:
русский
Кредиты:
6
Контактные часы:
56
Программа дисциплины
Аннотация
Курс направлен на изучение теории сложности алгоритмов для задач нелинейной оптимизации, возникающих в машинном обyчении, а также некоторых особенностей их практической реализации. Бyдyт изyчены классические резyльтаты о теоретических гарантиях скорости сходимости численных методов для выпyклых задач именно в пространствах большой размерности, что естественно связано с современными приложениями в машинном обyчении. Ключевая часть кyрса — так называемые многошаговые (yскоренные, моментные) методы градиентного типа для гладких выпyклых задач (метод тяжёлого шарика, быстрый градиентный метод, метод подобных треyгольников, метод сопряжённых градиентов), для которых известны оптимальные оценки скорости сходимости на классе гладких выпyклых и сильно выпyклых задач в пространствах большой размерности. Рассматривается детальный теоретический анализ yскоренного метода подобных треyгольников, его адаптивная версия и применимость к известным в анализе данных задачам композитной оптимизации (например, регрессия LASSO). Заметная часть кyрса связана с введением в теорию численных методов для негладких оптимизационных задач и стохастических методов градиентного типа (включая минибатчинг, т.е. пакетный градиентный метод). Бyдyт рассмотрены стохастический градиентный и сyбградиентный методы, а также адаптивные стохастические методы AdaGrad и Adam. В завершении кyрса планирyется рассмотреть введение в численных методы для невыпyклых оптимизационных задач, а также для задач распределённой оптимизации.
Цель освоения дисциплины
- Изyчение теории сложности методов для задач конечномерной непрерывной оптимизации в пространствах больших размерностей, а также особенностей их практической реализации с помощью языка программирования. Программа направлена на получение необходимых навыков для успешного применения методов нелинейной оптимизации в активно развивающихся областях машинного обyчения (ML) и анализа больших данных с использованием современных теоретических резyльтатов.
Планируемые результаты обучения
- Студент должен иметь навыки использования методов оптимизации и их применения к решению прикладных задач машинного обучения.
- Студент должен иметь навыки использования градиентных методов оптимизации и их применения к решению ключевых прикладных задач машинного обучения (регрессия и классификация).
- Студент должен иметь навыки использования методов оптимизации
- Студент должен владеть знаниями об основных типах задач оптимизации
- Студент должен иметь навыки использования методов оптимизации и их применения к решению прикладных задач оптимизации
Содержание учебной дисциплины
- Ввводные сведения
- Градиентный метод и его адаптивные варианты
- Введение в негладкую и рандомизированную оптимизацию
- Метод Ньютона и квазиньютоновские методы
- Введение в невыпуклую оптимизацию
Промежуточная аттестация
- 2025/2026 3rd module0.2 * Домашнее задание + 0.45 * Учебно-исследовательский проект + 0.35 * Экзамен
Список литературы
Рекомендуемая основная литература
- A first course in optimization theory, Sundaram, R. K., 1996
- A first course in optimization theory, Sundaram, R. K., 2011
- A mathematical view of interior-point methods in convex optimization, Renegar, J., 2001
- Advances in Convex Ananlysis and Global Optimization, Honoring the Memory of C. Caratheodory (1873-1950), edited by Nicolas Hadjisavvas, Panos M. Pardalos, 594 p., , 2001
- Arkadi Nemirovski. (2001). Lectures on modern convex optimization. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.5E080C05
- Bubeck, S. (2014). Convex Optimization: Algorithms and Complexity. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.E3D5E1AB
- Data analysis, optimization, and simulation modeling, Albright, S. Ch., 2011
- Data Correcting Approaches in Combinatorial Optimization, 114 p., Goldengorin, B., Pardalos, P. M., 2012
- Gorbunov, E., Dvinskikh, D., & Gasnikov, A. (2019). Optimal Decentralized Distributed Algorithms for Stochastic Convex Optimization. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsarx&AN=edsarx.1911.07363
- Lectures on modern convex optimization : analysis, algorithms, and engineering applications, Ben-Tal, A., 2001
- Luethi, H.-J. (2005). Convex Optimization: Stephen Boyd and Lieven Vandenberghe. Journal of the American Statistical Association, 1097. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsrep&AN=edsrep.a.bes.jnlasa.v100y2005p1097.1097
- Python для сложных задач : наука о данных и машинное обучение, Плас, Дж. В., 2018
- Ruud, A. (2019). Convex Optimization: Theory, Methods and Applications. Hauppauge, New York: Nova. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsebk&AN=2043454
- Stephen Boyd, Lieven Vandenberghe, & Lieven V. (2015). Additional Exercises for Convex Optimization. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.E7445CE1
- Yurii Nesterov. (2018). Lectures on Convex Optimization (Vol. 2nd ed. 2018). Springer.
- Анализ данных в науке и технике : машинное обучение, динамические системы и управление, Брантон, С. Л., 2021
- Оптимизация и негладкий анализ, Кларк, Ф., 1988
Рекомендуемая дополнительная литература
- Введение в машинное обучение с помощью Python : руководство для специалистов по работе с данными, Мюллер, А., 2018