Методы и проблемы децентрализованного глубинного обученияMethods and problems of decentralized deep learning
Соискатель:
Руководитель:
Члены комитета:
Деркач Денис Александрович (НИУ ВШЭ, PhD, председатель комитета), Дэн Алистарх (Институт науки и технологий Австрии, PhD, член комитета), Лешем Чошен ( IBM Research, PhD, член комитета), Людвиг Шмидт (Университет Вашингтона, PhD, член комитета), Самуэль Хорват (Институт Искусственного Интеллекта им. Мохамеда бин Зайда, PhD, член комитета)
Диссертация принята к предварительному рассмотрению:
4/25/2023
Диссертация принята к защите:
6/9/2023
Дисс. совет:
Совет по компьютерным наукам
Дата защиты:
7/3/2023
Обучение больших нейронных сетей, достигающих в настоящее время наилучших результатов на большинстве прикладных задач, требует существенных вычислительных ресурсов. Доступ к суперкомпьютерам, обладающим достаточной мощностью, имеется только у ограниченного круга исследователей, что ограничивает возможности для развития машинного обучения как научной области. В данной работе предлагается способ для решения проблемы нехватки вычислительных ресурсов посредством добровольных вычислений, то есть использования свободных ресурсов волонтеров, подключенных к одной распределенной сети. Для решения проблем, возникающих при использовании распределенного машинного обучения в этой постановке, предлагается ряд методов, учитывающих такие её особенности, как ненадежность отдельных узлов, гетерогенность аппаратного обеспечения и сравнительно низкая скорость сетевых соединений. В частности, в работе предложена специализированная нейросетевая архитектура, устойчивая к сетевым задержкам и нестабильности узлов, разработан эффективный способ агрегации параметров моделей в неустойчивой сети, а также представлен метод для совместного предварительного обучения с учетом возможностей каждого участвующего устройства. Предложенные методы позволяют эффективно использовать мощности устройств волонтеров или вытесняемых облачных узлов при распределенном обучении нейронных сетей для широкого ряда сценариев.
Диссертация [*.pdf, 3.47 Мб] (дата размещения 5/2/2023)
Резюме [*.pdf, 739.28 Кб] (дата размещения 5/2/2023)
Summary [*.pdf, 699.77 Кб] (дата размещения 5/2/2023)
Публикации, в которых излагаются основные результаты диссертации
M.Diskin, A.Bukhyiyarov, M.Ryabinin, L.Saulnier, Q.Lhoest, A.Sinitsin ... G.Pekhimenko Distributed deep learning in open collaborations (смотреть на сайте журнала)
Max Ryabinin, Eduard Gorbunov, Vsevolod Plokhotnyuk, Gennady Pekhimenko Moshpit SGD: communication-efficient decentralized training on heterogeneous unreliable devices (смотреть на сайте журнала)
Max Ryabinin, Anton Gusev Towards crowdsources training of large neural networks using decentralized mixture-of-experts (смотреть на сайте журнала)
Отзывы
Отзыв научного руководителя
- Артём Валерьевич Бабенко (дата размещения 4/28/2023)
Сведения о результатах защиты:
Комитет по диссертации рекомендовал присудить ученую степень кандидата наук (протокол №2 от 03.07.2023). Решением диссертационного совета (протокол №9 от 08.09.2023) присуждена ученая степень кандидата компьютерных наук.
См. на ту же тему
Приложение машинного обучения к теоретико-игровым задачам: аукционы и марковские игрыКандидатская диссертация
Соискатель: Иванов Дмитрий Игоревич
Руководитель: Нестеров Александр Сергеевич
Исследование универсальности моделей статистической механики методами машинного обученияКандидатская диссертация
Соискатель: Чертенков Владислав Игоревич
Руководитель: Щур Лев Николаевич
Дата защиты: 11/5/2024
Новые представления для изображений и 3D сценКандидатская диссертация
Соискатель: Хахулин Тарас Андреевич
Руководитель: Лемпицкий Виктор Сергеевич
Дата защиты: 10/28/2024