• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Обучение авторегрессионных моделей, адаптивное к метрикам качества

ФИО студента: Сапарина Ирина Олеговна

Руководитель: Осокин Антон Александрович

Кампус/факультет: Факультет компьютерных наук

Программа: Статистическая теория обучения (Магистратура)

Оценка: 10

Год защиты: 2020

Данная работа посвящена исследованию процедур обучения авторегрессионных моделей. Авторегрессионные модели широко используются во многих важных приложениях, включая машинный перевод и генерацию кода, они предсказывают последовательно, и каждое предсказанное значение зависит от предыдущих. Такие модели могут предсказывать текст, звуковую волну или временной ряд. Согласно исследованиям, авторегрессионные модели, обученные напрямую максимизировать тестовую метрику, а не правдоподобие, часто показывают более качественные результаты. Однако такой способ обучения имеет свои сложности, что препятствует более широкому распространению. В этой работе мы исследуем компоненты подхода “обучение поиску” (learning-to-search) (Daumé III et al.,2009; Leblond et al.,2018) : политику, определяющую на каждом шаге наилучшее предсказание (reference policy), функцию оценки предсказаний (costs) и функцию потерь. Мы экспериментируем на трех сложных задачах: упорядочение слов, нейросетевой машинный перевод и генерация кода. Во-первых, мы предлагаем способ построения политики, основанной на сопоставлении предсказаний модели и правильных ответов. Мы доказываем, что предложенная политика оптимальна для расстояния Кендалла-тау между перестановками (появляются в задаче упорядочения слов). С помощью этой политики можно приблизительно считать метрику METEOR на каждом шаге обучения. Мы используем это свойство политики для задач нейросетевого машинного перевода и генерации кода. Во-вторых, мы наблюдаем, что используемый подход выигрывает от выбора функций оценки предсказаний, связанных с тестовыми метриками. Наконец, мы изучаем различные функции потерь и обнаруживаем, что стандартная функция потерь на основе дивергенции Кульбака-Лейблера учитывает только несколько токенов, имеющих высокую вероятность. Мы предлагаем функции потерь, чувствительные только к порядку, обучение с которыми явно нацелено на токены имеющие высокую вероятность. Такие функции могут заменить стандартную дивергенцию Кульбака-Лейблера.

Текст работы (работа добавлена 24 мая 2020 г.)

Выпускные квалификационные работы (ВКР) в НИУ ВШЭ выполняют все студенты в соответствии с университетским Положением и Правилами, определенными каждой образовательной программой.

Аннотации всех ВКР в обязательном порядке публикуются в свободном доступе на корпоративном портале НИУ ВШЭ.

Полный текст ВКР размещается в свободном доступе на портале НИУ ВШЭ только при наличии согласия студента – автора (правообладателя) работы либо, в случае выполнения работы коллективом студентов, при наличии согласия всех соавторов (правообладателей) работы. ВКР после размещения на портале НИУ ВШЭ приобретает статус электронной публикации.

ВКР являются объектами авторских прав, на их использование распространяются ограничения, предусмотренные законодательством Российской Федерации об интеллектуальной собственности.

В случае использования ВКР, в том числе путем цитирования, указание имени автора и источника заимствования обязательно.

Реестр дипломов НИУ ВШЭ