• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Родоманов Антон Олегович, Факультет компьютерных наук (Москва)

НОМИНАЦИЯ «СЕРЕБРЯНЫЙ ПТЕНЕЦ»

Родоманов Антон Олегович

2-й курс магистратуры

Кандидатуру выдвигает Ветров Дмитрий Петрович, профессор-исследователь Департамента больших данных и информационного поиска ФКН ВШЭ. Кандидатуру поддерживают: Подольский Владимир Владимирович, руководитель Департамента больших данных и информационного поиска ФКН ВШЭ; Конушин Антон Сергеевич, доцент Департамента больших данных и информационного поиска ФКН ВШЭ, академический руководитель образовательной программы "Прикладная математика и информатика".

Являясь научным руководителем Антона с 2013 г., хочу отметить, что Антон является одним из лучших студентовв моей научной группе. За четыре года нашей совместной работы он принял участие в нескольких научных проектах и проявил себя как отличный начинающий ученый. К настоящему времени Антон имеет 5 научных публикаций, 2 из которых опубликованы на ведущей международной конференции по машинному обучению ICML, имеющей наивысший рейтинг A* по международному классификатору CORE.(Труды данной конференции индексируются в базе данных WoS/Scopus.) Кроме этого, Антон многократно выступал с устными и постерными докладами на различных конференциях, научных семинарах и школах, многие из которых являются международными и проводились в таких городах как Нью-Йорк (США), Монреаль (Канада), Пекин (Китай), Кембридж (Великобритания), Гонконг (Китай). За весь мой педагогический опыт практически никому из студентов не удавалось добиться таких значительных успехов, особенно учитывая тот факт, что Антон пока еще не является аспирантом.

За свои успехи в научной и учебной деятельности Антон уже был удостоен следующих наград:

1.   Именная стипендия Благотворительного фонда «ЛУКОЙЛ», 2016.

2.   Лауреат стипендии имени Ильи Сегаловича, 2016.

3.   Победитель конкурса выпускных работ (1-­е место) факультета ВМК МГУ им. М.В. Ломоносова, 2015.

Данные награды лишний раз подтверждают высокие достижения Антона.

Также хотелось бы отметить, что Антон обладает прекрасными методическими и преподавательскими навыками. Он уже трижды проводил семинарские занятия по курсу «Методы оптимизации в машинном обучении»: студентов 1-го и 2-го года обучения в Школе Анализа Данных (ШАД) Яндекса (весной 2015 и 2016 гг.) и для магистров 1-го года обучения на факультете ВМК МГУ (осенью 2016 г.). Кроме этого, осенью 2015 г. Антон также выступал в роли учебного ассистента по курсу «Machine Learning» в СколТехе. Зимой и весной 2017 г. (помимо уже традиционных семинаров в ШАДе) Антон также будет проводить семинары по «Методам оптимизации» для бакалавров 3-го курса ФКН ВШЭ.

Несмотря на то, что наше общение с Антоном в основном касается научной работы или преподавательской деятельности, нужно признать, что Антон также имеет большие успехи в учебе. Например, его оценки за последние два модуля составляют абсолютный максимум в 10 баллов по каждой из 7 дисциплин.

Без всяких сомнений, считаю, что Антон всецело заслуживает присуждения премии «Золотая Вышка» в номинации «Серебряный птенец» и прошу конкурсную комиссию поддержать его кандидатуру.

Список публикаций:

WoS/Scopus

1.    A. Rodomanov , D. Kropotov. A Superlinearly-Convergent Proximal Newton-Type Method for the Optimization of Finite Sums. // ​Proceedings of the 33rd​International Conference on Machine Learning (ICML), 2016.

2.    A. Novikov, A. Rodomanov, A. Osokin, D. Vetrov. Putting MRFs on a Tensor Train// Proceedings of the 31st International Conference on Machine Learning (ICML), 2014.

РИНЦ

1.   P. Dvurechensky, A. Gasnikov, E. Gasnikova, S. Matsievsky, A. Rodomanov, I. Usik. Primal-Dual Method for Searching Equilibrium in Hierarchical Congestion Population Games // Supplementary Proceedings of the 9th International Conference on Discrete Optimization and Operations Research and Scientific School (DOOR), 2016.

2.    Родоманов А.О. , Кропотов Д.А.. Быстрый инкрементальный метод оптимизации больших сумм функций с суперлинейной скоростью сходимости // Машинное обучение и анализ данных, 2015.

3.   Новиков А.В., Родоманов А.О., Осокин А.А., Ветров Д.П.. Тензорный поезд в марковском случайном поле // Интеллектуальные системы. Теория и приложения, 2014.

 

Устные доклады на конференциях, научных семинарах и школах:

1.    Инкрементальный метод Ньютона для больших сумм функций // Семинар «Стохастический анализ в задачах», НМУ, Москва, Россия, октябрь 2016.

2.    A Superlinearly-Convergent Proximal Newton-Type Method for the Optimization of Finite Sums //International Conference on Machine Learning (ICML), New York, USA, June 2016.

3.    Optimization Methods for Big Sums of Functions // Deep Machine Intelligence Workshop, Skoltech, Moscow, Russia, June 2016.

4.    Incremental Newton Method for Minimizing Big Sums of Functions // ВыезднойсеминарВШЭпомашинномуобучению, Вороново, Россия, май 2016.

5.    Introduction to the Tensor Train Decomposition and Its Applications in Machine Learning // Семинар «Прикладныепроблемылинейнойалгебры», ВШЭ, Москва, Россия, март 2016.

6.    Proximal Incremental Newton Method //Seminar on Bayesian Methods in Machine Learning, CMC MSU, Moscow, Russia, February 2016.

7.    Probabilistic Graphical Models: a Tensorial Perspective // International Conference on Matrix Methods in Mathematics and Applications (MMMA), Skoltech, Moscow, Russia, August 2015.

8.    A Fast Incremental Optimization Method with a Superlinear Rate of Convergence // ТрадиционнаямолодежнаяШкола «Управление, информацияиоптимизация», Солнечногорск, Россия, июнь 2015.

9.    Low-Rank Representation of MRF Energy by Means of the TT-Format // SIAM Conference in Imaging Science (SIAM-IS), Hong-Kong, China, May 2014.

10. Марковские цепи и спектральная теория // Спецсеминар «Байесовские методы машинного обучения», ВМК МГУ, Москва, Россия, октябрь 2014.

11. Быстрый градиентный метод // Спецсеминар «Байесовские методы машинного обучения», ВМК МГУ, Москва, Россия, апрель 2014.

12. TT-разложение для компактного представления тензоров // Спецсеминар «Байесовские методы машинного обучения», ВМК МГУ, Москва, Россия, октябрь 2013.

Постерные доклады:

1.    A Superlinearly-Convergent Proximal Newton-Type Method for the Optimization of Finite Sums // International Conference on Machine Learning (ICML), New York, USA, June 2016.

2.    A Newton-type Incremental Method with a Superlinear Convergence Rate // NIPS Workshop on Optimization for Machine Learning (Optimization@NIPS), Montreal, Canada, December 2015.

3.    A Fast Incremental Second-­Order Optimization Method with a Superlinear Rate of Convergence // Microsoft Research PhD Summer School, Cambridge, United Kingdom, July 2015.

4.    Putting MRFs on a Tensor Train // International Conference on Machine Learning (ICML), Beijing, China, June 2014.

Личная страница Антона Олеговича, на которой приведены ссылки на его статьи и научные доклады: https://cs.hse.ru/en/bayesgroup/people/rodomanov.

Комментарии:

5 декабря 2016 18:21
Пользователь портала
Поддерживаю кандидатуру Антона!