• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Ускорение байесовской оптимизации в задаче обучения GAN

ФИО студента: Хайруллин Рустэм Мухамедович

Руководитель: Устюжанин Андрей Евгеньевич

Кампус/факультет: Факультет компьютерных наук

Программа: Науки о данных (Магистратура)

Год защиты: 2018

На данный момент существует множество работ посвященных генера­тивно-состязательным сетям (англ. Generative Adversarial Network, сокращённо GAN). Как правило, под генеративно-состязательной сетью понимают две нейронные сети: генератор и дискриминатор. Данные сети обучаются одновре­менно, при этом цель генератора научиться генерировать объекты так, чтобы дискриминатор воспринимал их как реальные, а цель дискриминатора научить­ся отличать реальные объекты от тех, которые создает генератор. Затем, после обучения, натренированный генератор может быть использован для генерации новых объектов. Данная задача в исходной постановке хорошо изучена, однако, предположим, что генератор не является сетью, и более того, не существует явной зависимости между параметрами генератора и объектами. Например, подобной задачей может служить уточнение некоторых физических констант по имеющимся реальным экспериментам, и другие обратные задачи. Существующие на сегодняшний день алгоритмы используют различные методы оптимизации для нахождения оптимальных параметров, но при этом требуют большого числа сгенерированных примеров. Основной целью данной работы является разработка нового метода без­градиентной оптимизации, для которого потребуется меньшее число примеров, за счет введения многошагового процесса оптимизации. Так, основная идея состоит в том, чтобы использовать постепенный переход от простых классификаторов к сложным, применяя последние только в тех областях параметров, где простые не смогли справиться. В ходе работы был построен многошаговый алгоритм, а также проведены эксперименты на демонстрационных задачах. В результате проведенных экспериментов было показано премущество построенного алгоритма, над существующими подходами. В силу довольно общей постановки алгоритм может быть также при­менен в других оптимизационных задачах.

Выпускные квалификационные работы (ВКР) в НИУ ВШЭ выполняют все студенты в соответствии с университетским Положением и Правилами, определенными каждой образовательной программой.

Аннотации всех ВКР в обязательном порядке публикуются в свободном доступе на корпоративном портале НИУ ВШЭ.

Полный текст ВКР размещается в свободном доступе на портале НИУ ВШЭ только при наличии согласия студента – автора (правообладателя) работы либо, в случае выполнения работы коллективом студентов, при наличии согласия всех соавторов (правообладателей) работы. ВКР после размещения на портале НИУ ВШЭ приобретает статус электронной публикации.

ВКР являются объектами авторских прав, на их использование распространяются ограничения, предусмотренные законодательством Российской Федерации об интеллектуальной собственности.

В случае использования ВКР, в том числе путем цитирования, указание имени автора и источника заимствования обязательно.

Реестр дипломов НИУ ВШЭ