Чиркова Надежда Александровна
- Преподаватель:Факультет компьютерных наук / Департамент больших данных и информационного поиска
- Научный сотрудник:Факультет компьютерных наук / Департамент больших данных и информационного поиска / Центр глубинного обучения и байесовских методов
- Начала работать в НИУ ВШЭ в 2016 году.
- Научно-педагогический стаж: 4 года.
Образование
Бакалавриат, магистратура: Московский государственный университет им. М.В. Ломоносова, специальность «Прикладная математика и информатика», квалификация «Бакалавр»
Достижения и поощрения
- Благодарность факультета (август 2018)
Надбавка за публикацию в международном рецензируемом научном издании (2021-2022)

Группа высокого профессионального потенциала (кадровый резерв НИУ ВШЭ)
Категория "Новые исследователи" (2018)
Учебные курсы (2021/2022 уч. год)
- Байесовские методы в анализе данных (Магистратура; где читается: Факультет компьютерных наук; 2-й курс, 1 модуль)Рус
- Машинное обучение (Бакалавриат; где читается: Факультет экономических наук; 4-й курс, 1, 2 модуль)Рус
- Машинное обучение (Бакалавриат; где читается: Факультет экономических наук; 3-й курс, 1, 2 модуль)Рус
- Машинное обучение (Бакалавриат; где читается: Факультет экономических наук; 2-й курс, 1, 2 модуль)Рус
- Основы машинного обучения (Майнор; где читается: Факультет компьютерных наук; 3, 4 модуль)Рус
- Архив учебных курсов
Учебные курсы (2020/2021 уч. год)
- Байесовские методы в анализе данных (Магистратура; где читается: Факультет компьютерных наук; 2-й курс, 1 модуль)Рус
- Введение в анализ данных (Майнор; где читается: Факультет компьютерных наук; 3, 4 модуль)Рус
- Машинное обучение (Бакалавриат; где читается: Факультет экономических наук; 4-й курс, 1, 2 модуль)Рус
- Машинное обучение (Бакалавриат; где читается: Факультет экономических наук; 3-й курс, 1, 2 модуль)Рус
Учебные курсы (2019/2020 уч. год)
- Байесовские методы в анализе данных (Магистратура; где читается: Факультет компьютерных наук; 2-й курс, 1, 2 модуль)Рус
- Введение в анализ данных (Майнор; где читается: Факультет компьютерных наук; 3, 4 модуль)Рус
- Машинное обучение (Бакалавриат; где читается: Факультет экономических наук; 4-й курс, 1, 2 модуль)Рус
- Машинное обучение (Бакалавриат; где читается: Факультет экономических наук; 3-й курс, 1, 2 модуль)Рус
Учебные курсы (2018/2019 уч. год)
- Введение в анализ данных (Майнор; где читается: Факультет компьютерных наук; 3, 4 модуль)Рус
- Машинное обучение (Магистратура; где читается: Факультет компьютерных наук; 1-й курс, 1, 2 модуль)Рус
Публикации9
- Глава книги Chirkova N., Troshin S. A Simple Approach for Handling Out-of-Vocabulary Identifiers in Deep Learning for Source Code, in: 2021 Annual Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL 2021). Association for Computational Linguistics, 2021. P. 278-288. doi
- Глава книги Chirkova N., Troshin S. Empirical Study of Transformers for Source Code, in: ESEC/FSE 2021: Proceedings of the 29th ACM Joint Meeting on European Software Engineering Conference and Symposium on the Foundations of Software Engineering. Association for Computing Machinery (ACM), 2021. P. 703-715. doi
- Глава книги Chirkova N. On the Embeddings of Variables in Recurrent Neural Networks for Source Code, in: 2021 Annual Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL 2021). Association for Computational Linguistics, 2021. P. 2679-2689. doi
- Глава книги Sadrtdinov I., Chirkova N., Lobacheva E. On the Memorization Properties of Contrastive Learning, in: ICML 2021 Workshop, Overparameterization: Pitfalls & Opportunities. , 2021.
- Глава книги Lobacheva E., Kodryan M., Chirkova N., Malinin A., Vetrov D. On the Periodic Behavior of Neural Network Training with Batch Normalization and Weight Decay, in: Advances in Neural Information Processing Systems 34 (NeurIPS 2021). Curran Associates, Inc., 2021. P. 21545-21556.
- Глава книги Lobacheva E., Chirkova N., Kodryan M., Vetrov D. On Power Laws in Deep Ensembles, in: Advances in Neural Information Processing Systems 33 (NeurIPS 2020). Curran Associates, Inc., 2020. P. 2375-2385.
- Глава книги Lobacheva E., Chirkova N., Markovich A., Vetrov D. Structured Sparsification of Gated Recurrent Neural Networks, in: Thirty-Fourth AAAI Conference on Artificial Intelligence Vol. 34. Palo Alto, California USA: AAAI Press, 2020. Ch. 5938. P. 4989-4996. doi
- Глава книги Chirkova N., Lobacheva E., Vetrov D. Bayesian Compression for Natural Language Processing, in: Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. Association for Computational Linguistics, 2018. P. 2910-2915.
- Статья N. A. Chirkova, K. V. Vorontsov. Additive Regularization for Hierarchical Multimodal Topic Modeling // Journal of machine learning and data analysis. 2016. Vol. 2. No. 2. P. 187-200. doi
Опыт работы
Младший разработчик-исследователь, ЗАО Антиплагиат, июль 2016 - август 2016. Разработка прототипа предметно-ориентированной поисковой системы, учитывающей иерархическую тематическую структуру набора текстов.
Ассистент, Специализация "Машинное обучение и анализ данных" на платформе Coursera, январь 2016 - март 2017. Разработка практических заданий для слушателей курса, поясняющих основные принципы работы алгоритмов машинного обучения.
Информация*
- Общий стаж: 5 лет
- Научно-педагогический стаж: 4 года
Десять статей исследователей ФКН приняты на конференцию NeurIPS 2021
35-ая конференция NeurIPS 2021 (Conference on Neural Information Processing Systems) — одна из крупнейших в мире конференций по машинному обучению и нейронным сетям, которая проводится с 1989 года. В 2021 году конференция проходит онлайн 6-14 декабря.
Две статьи приняты на конференцию NAACL 2021
Two papers were accepted to the 2021 Annual Conference of the North American Chapter of the Association for Computational Linguistics (NAACL 2021):“On the Embeddings of Variables in Recurrent Neural Networks for Source Code” by Nadezhda Chirkova;“A Simple Approach for Handling Out-of-Vocabulary Identifiers in Deep Learning for Source Code” by Nadezhda Chirkova and Sergey Troshin.The final versions of the papers and the source code will be released soon. The research is conducted with the use of the computational resources of the HSE Supercomputer Modeling Unit.Both papers address the problem of improving the quality of deep learning models for source code by utilizing the specifics of variables and identifiers. The first paper proposes a recurrent architecture that explicitly models the semantic meaning of each variable in the program. The second paper proposes a simple method for preprocessing rarely used identifiers in the program so that a neural network (particularly, Transformer architecture) would better recognize the patterns in the program. The proposed methods were shown to significantly improve the quality of code completion and variable misuse detection.
Объявлены результаты отбора на трек магистратура — аспирантура
Подведены итоги первого набора на трек “магистратура – аспирантура”. Три студента будут обучаться в аспирантской школе по компьютерным наукам.
Три статьи сотрудников ФКН приняты на конференцию NeurIPS — 2020
NeurIPS, одна из крупнейших в мире конференций по машинному обучению, всегда пользуется большой популярностью, и в этом году на нее было подано 9 454 статьи, а принято — 1900. Среди них — три статьи сотрудников ФКН.
ФКН на NeurIPS 2019
C 8 по 14 декабря 2019 года в Ванкувере состоялась конференця NeurIPS, на которой выступали сотрудники и студенты факультета.
Сотрудники факультета представили результаты своих исследований на крупнейшей мировой конференции по машинному обучению NeurIPS
Сотрудники Факультета компьютерных наук представили свои доклады на ежегодной конференции Neural Information Processing Systems (NeurIPS), которая проходила с 2 по 8 декабря 2018 года в Монреале, Канада.
Faculty of Computer Science Staff Attend International Conference on Machine Learning
On August 6-11 the 34th International Conference on Machine Learning was held in Sydney, Australia. This conference is ranked A* by CORE, and is one of two leading conferences in the field of machine learning. It has been held annually since 2000, and this year, more than 1,000 participants from different countries took part.
Состоялся интенсив для преподавателей НИУ ВШЭ в рамках проекта Data Culture
14 и 15 июня в Московском офисе Яндекса состоялся интенсив для преподавателей и сотрудников НИУ ВШЭ, заинтересованных в тематике Data Science. Этот двухдневный цикл занятий проходил в рамках проекта Data Culture и был нацелен на подготовку преподавателей университета к участию в данном проекте.
'Machine Learning Algorithm Able to Find Data Patterns a Human Could Not'
In December 2016, five new international laboratories opened up at the Higher School of Economics, one of which was the International Laboratory of Deep Learning and Bayesian Methods. This lab focuses on combined neural Bayesian models that bring together two of the most successful paradigms in modern-day machine learning – the neural network paradigm and the Bayesian paradigm.
«Алгоритм машинного обучения умеет находить закономерности в данных, которые не видит человек»
В декабре 2016 года в Вышке были открыты пять новых международных лабораторий, в том числе Международная лаборатория глубинного обучения и байесовских методов. Предмет ее исследований — комбинированные нейробайесовские модели, объединяющие достоинства двух наиболее успешных в настоящее время парадигм машинного обучения — нейросетевой и байесовской.