• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта
ФИО студента
Название работы
Руководитель
Факультет
Программа
Оценка
Год защиты
Аланов Айбек -
Variance Reduction Methods in Stochastic Computational Graphs
2017
Recent advances in deep variational inference methods lead research into scaling the training process to large models. There was a breakthrough in estimating the gradient in stochastic neural networks with continuous latent variables which allow training these models for large datasets. Now the attention of researchers focuses on the problem of estimating the gradient for models with discrete latent variables. This paper considers the state-of-the-art variance reduction methods in stochastic neural networks with discrete latent variables. A comprehensive comparison between these methods based on their performances across a range of real-world datasets was provided.

Выпускные квалификационные работы (ВКР) в НИУ ВШЭ выполняют все студенты в соответствии с университетским Положением и Правилами, определенными каждой образовательной программой.

Аннотации всех ВКР в обязательном порядке публикуются в свободном доступе на корпоративном портале НИУ ВШЭ.

Полный текст ВКР размещается в свободном доступе на портале НИУ ВШЭ только при наличии согласия студента – автора (правообладателя) работы либо, в случае выполнения работы коллективом студентов, при наличии согласия всех соавторов (правообладателей) работы. ВКР после размещения на портале НИУ ВШЭ приобретает статус электронной публикации.

ВКР являются объектами авторских прав, на их использование распространяются ограничения, предусмотренные законодательством Российской Федерации об интеллектуальной собственности.

В случае использования ВКР, в том числе путем цитирования, указание имени автора и источника заимствования обязательно.

Расширенный поиск ВКР