• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Нейросетевые детекторы объектов

ФИО студента: Шафаростов Артем Алексеевич

Руководитель: Конушин Антон Сергеевич

Кампус/факультет: Факультет компьютерных наук

Программа: Прикладная математика и информатика (Бакалавриат)

Год защиты: 2018

В силу быстро растущего количества данных, все чаще и чаще различные IT-компании сталкиваются с проблемой поддержания модели в актуальном состоянии, так как переобучать ее на объединенном наборе нецелесообразно с точки зрения и времени, и качества и затраченных ресурсов. И область self-driving car не исключение, такие компании как Yandex, Tesla получают в свое распоряжение большой массив новых данных каждый день. Однако основная трудность дообучения детекторов на новом наборе данных заключается в том, что простой fine-tuning ведет к проблеме называемой catastrophic forgetting. В данной работе мы исследуем возможности дообучения плотных детекторов объектов на новом наборе данных без потери (с малой потерью) уже выученных паттернов с предыдущего датасета. В качестве примера, на котором проводились опыты была выбрана архитектура - RetinaNet\cite{focal}, лучшая по качеству в своем классе на момент написания текущего исследования. Для сравнения разных подходов была выбрана метрика AP, а датасеты на которых проводились опыты: CityScapes\cite{cityscape}, на котором обучалась базовая модель и RTSD\cite{rtsd}, на котором модель дообучалась. Были проведены следующие эксперименты для установления оптимального подхода к решению данной задачи: дообучение с выбором в батч различных примеров из обоих датасетов, инкрементальное обучение, дистилляция данных с онлайн размножением. В результате проведенных экспериментов было получено, что наилучший способ для дообучения плотных детекторов объектов инкрементальный подход с онлайн размножением, который позволяет терять в среднем от $3\%$ до $5\%$ в качестве по AP по каждому классу в отличие например от обычного fine-tuning, который быстро забывает выученный паттерны с предыдущего датасета и теряет в качестве до 20-30\% по каждому из классов.

Выпускные квалификационные работы (ВКР) в НИУ ВШЭ выполняют все студенты в соответствии с университетским Положением и Правилами, определенными каждой образовательной программой.

Аннотации всех ВКР в обязательном порядке публикуются в свободном доступе на корпоративном портале НИУ ВШЭ.

Полный текст ВКР размещается в свободном доступе на портале НИУ ВШЭ только при наличии согласия студента – автора (правообладателя) работы либо, в случае выполнения работы коллективом студентов, при наличии согласия всех соавторов (правообладателей) работы. ВКР после размещения на портале НИУ ВШЭ приобретает статус электронной публикации.

ВКР являются объектами авторских прав, на их использование распространяются ограничения, предусмотренные законодательством Российской Федерации об интеллектуальной собственности.

В случае использования ВКР, в том числе путем цитирования, указание имени автора и источника заимствования обязательно.

Реестр дипломов НИУ ВШЭ