Кропотов Дмитрий Александрович
- Старший преподаватель:Факультет компьютерных наук / Департамент больших данных и информационного поиска
- Старший научный сотрудник, Научный сотрудник:Факультет компьютерных наук / Департамент больших данных и информационного поиска / Центр глубинного обучения и байесовских методов
- Начал работать в НИУ ВШЭ в 2017 году.
- Научно-педагогический стаж: 14 лет.
Полномочия / обязанности
Проведение научных исследований с применением методов оптимизации в машинном обучении, байесовских методов, нейросетевых моделей в машинном обучении
Образование
Специалитет: Московский государственный университет им. М.В. Ломоносова, специальность «Прикладная математика и информатика»
Учебные курсы (2020/2021 уч. год)
- Методы оптимизации в машинном обучении (Бакалавриат; где читается: Факультет компьютерных наук; 3-й курс, 3, 4 модуль)Рус
- Архив учебных курсов
Учебные курсы (2019/2020 уч. год)
Учебные курсы (2018/2019 уч. год)
Публикации5
- Статья Rodomanov A., Kropotov D. A randomized coordinate descent method with volume sampling // SIAM Journal on Optimization. 2020. Vol. 30. No. 3. P. 1878-1904. doi
- Препринт Kodryan M., Kropotov D., Vetrov D. MARS: Masked Automatic Ranks Selection in Tensor Decompositions / First Workshop on Quantum Tensor Networks in Machine Learning, 34th Conference on Neural Information Processing Systems (NeurIPS 2020). Series QTNML 2020 "First Workshop on Quantum Tensor Networks in Machine Learning, NeurIPS 2020". 2020.
- Глава книги Izmailov P., Novikov A., Kropotov D. Scalable Gaussian Processes with Billions of Inducing Inputs via Tensor Train Decomposition, in: Proceedings of Machine Learning Research. Proceedings of The International Conference on Artificial Intelligence and Statistics (AISTATS 2018). , 2018. P. 726-735.
- Статья Izmailov P., Kropotov D. Faster variational inducing input Gaussian process classification // Journal of machine learning and data analysis. 2017. Vol. 3. No. 1. P. 20-35. doi
- Глава книги Rodomanov A., Kropotov D. A Superlinearly-Convergent Proximal Newton-type Method for the Optimization of Finite Sums, in: Proceedings of Machine Learning Research. Proceedings of the International Conference on Machine Learning (ICML 2016) Vol. 48. NY : , 2016. P. 2597-2605.
Выпуск 2020. Часть II
В 2020 году Факультет компьютерных наук выпускает 233 бакалавра и 154 магистра в области анализа данных и машинного обучения, хранения и обработки больших данных, биоинформатики, программной инженерии и системного программирования. 18 красных дипломов получили выпускники бакалавриата и 36 – магистратуры. Более того, в этом году ФКН закончили 9 лауреатов стипендии им. Ильи Сегаловича и 3 лауреата научной премии им. Ильи Сегаловича в номинации “Молодые исследователи” и 4 первых лауреата стипендии ИСП РАН. Выпускники ФКН 2020 вспомнили о самых ярких моментах обучения на факультете, рассказали про сложности, с которыми сталкивались, и поделились своими планами на будущее.
NeurIPS 2019
С 8 по 14 декабря в Ванкувере пройдет 33-я конференция Neural Information Processing Systems (NeurIPS).