• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Модели и методы понижения точности представления данных в нейронных сетях без полного переобучения

ФИО студента: Антюх Михаил Сергеевич

Руководитель: Ильвовский Дмитрий Алексеевич

Кампус/факультет: Факультет компьютерных наук

Программа: Прикладная математика и информатика (Бакалавриат)

Год защиты: 2021

Целочисленная квантизация для моделей глубинного обучения становится все более популярным методом для уменьшения размеров моделей и ускорения их работы. На данный момент существует довольно много подходов к квантизации и способов ее улучшения, которые рассмотрены в большом количестве статей. В нашей работе рассматривается новый подход к обучению квантованных моделей с регуляризацией. Основная идея представленного метода заключается в использование новой функции QSin, которая представляет собой аппроксимацию ошибки квантизации. В настоящей работе мы представляем программную реализацию данного подхода и проводим тестирование различных методов квантизации для модели ResNet и BERT.

Выпускные квалификационные работы (ВКР) в НИУ ВШЭ выполняют все студенты в соответствии с университетским Положением и Правилами, определенными каждой образовательной программой.

Аннотации всех ВКР в обязательном порядке публикуются в свободном доступе на корпоративном портале НИУ ВШЭ.

Полный текст ВКР размещается в свободном доступе на портале НИУ ВШЭ только при наличии согласия студента – автора (правообладателя) работы либо, в случае выполнения работы коллективом студентов, при наличии согласия всех соавторов (правообладателей) работы. ВКР после размещения на портале НИУ ВШЭ приобретает статус электронной публикации.

ВКР являются объектами авторских прав, на их использование распространяются ограничения, предусмотренные законодательством Российской Федерации об интеллектуальной собственности.

В случае использования ВКР, в том числе путем цитирования, указание имени автора и источника заимствования обязательно.

Реестр дипломов НИУ ВШЭ