Методы и проблемы децентрализованного глубинного обученияMethods and problems of decentralized deep learning
Соискатель:
Руководитель:
Члены комитета:
Деркач Денис Александрович (НИУ ВШЭ, PhD, председатель комитета), Дэн Алистарх (Институт науки и технологий Австрии, PhD, член комитета), Лешем Чошен ( IBM Research, PhD, член комитета), Людвиг Шмидт (Университет Вашингтона, PhD, член комитета), Самуэль Хорват (Институт Искусственного Интеллекта им. Мохамеда бин Зайда, PhD, член комитета)
Диссертация принята к предварительному рассмотрению:
4/25/2023
Диссертация принята к защите:
6/9/2023
Дисс. совет:
Совет по компьютерным наукам
Дата защиты:
7/3/2023
Обучение больших нейронных сетей, достигающих в настоящее время наилучших результатов на большинстве прикладных задач, требует существенных вычислительных ресурсов. Доступ к суперкомпьютерам, обладающим достаточной мощностью, имеется только у ограниченного круга исследователей, что ограничивает возможности для развития машинного обучения как научной области. В данной работе предлагается способ для решения проблемы нехватки вычислительных ресурсов посредством добровольных вычислений, то есть использования свободных ресурсов волонтеров, подключенных к одной распределенной сети. Для решения проблем, возникающих при использовании распределенного машинного обучения в этой постановке, предлагается ряд методов, учитывающих такие её особенности, как ненадежность отдельных узлов, гетерогенность аппаратного обеспечения и сравнительно низкая скорость сетевых соединений. В частности, в работе предложена специализированная нейросетевая архитектура, устойчивая к сетевым задержкам и нестабильности узлов, разработан эффективный способ агрегации параметров моделей в неустойчивой сети, а также представлен метод для совместного предварительного обучения с учетом возможностей каждого участвующего устройства. Предложенные методы позволяют эффективно использовать мощности устройств волонтеров или вытесняемых облачных узлов при распределенном обучении нейронных сетей для широкого ряда сценариев.
Диссертация [*.pdf, 3.47 Мб] (дата размещения 5/2/2023)
Резюме [*.pdf, 739.28 Кб] (дата размещения 5/2/2023)
Summary [*.pdf, 699.77 Кб] (дата размещения 5/2/2023)
Публикации, в которых излагаются основные результаты диссертации
M.Diskin, A.Bukhyiyarov, M.Ryabinin, L.Saulnier, Q.Lhoest, A.Sinitsin ... G.Pekhimenko Distributed deep learning in open collaborations (смотреть на сайте журнала)
Max Ryabinin, Eduard Gorbunov, Vsevolod Plokhotnyuk, Gennady Pekhimenko Moshpit SGD: communication-efficient decentralized training on heterogeneous unreliable devices (смотреть на сайте журнала)
Max Ryabinin, Anton Gusev Towards crowdsources training of large neural networks using decentralized mixture-of-experts (смотреть на сайте журнала)
Отзывы
Отзыв научного руководителя
- Артём Валерьевич Бабенко (дата размещения 4/28/2023)
Отзыв члена Комитета
- Деркач Денис Александрович (дата размещения 6/22/2023)
- Людвиг Шмидт (дата размещения 6/22/2023)
- Лешем Чошен (дата размещения 6/22/2023)
- Дэн Алистарх (дата размещения 6/22/2023)
- Самуэль Хорват (дата размещения 6/22/2023)
Сведения о результатах защиты:
Комитет по диссертации рекомендовал присудить ученую степень кандидата наук (протокол №2 от 03.07.2023). Решением диссертационного совета (протокол №9 от 08.09.2023) присуждена ученая степень кандидата компьютерных наук.
См. на ту же тему
Методы глубинного обучения для предсказания Z-ДНК на основе омиксных данныхКандидатская диссертация
Соискатель: Бекназаров Назар Сохибжонович
Руководитель: Попцова Мария Сергеевна
Построение информационно-аналитических инструментов для организации оперативного геомониторинга опасных явленийКандидатская диссертация
Соискатель: Некрасов Глеб Александрович
Руководитель: Белов Александр Владимирович
Дата защиты: 10/16/2025
Приложение машинного обучения к теоретико-игровым задачам: аукционы и марковские игрыКандидатская диссертация
Соискатель: Иванов Дмитрий Игоревич
Руководитель: Нестеров Александр Сергеевич
Дата защиты: 12/27/2024