Диссертации, представленные на защиту и подготовленные в НИУ ВШЭ
Сортировка:по дате защитыпо имени научного руководителяпо имени соискателя
Показаны работы: 1 - 3 из 3
Тензорные методы для многомерных дифференциальных уравненийКандидатская диссертацияУченая степень НИУ ВШЭ
Соискатель:
Чертков Андрей Владимирович
Руководитель:
Оселедец Иван Валерьевич
Дисс. совет:
Совет по компьютерным наукам
Дата защиты:
27.11.2023
В диссертации предложены новые методы на основе разложения тензорного поезда (tensor train; TT) для решения задач аппроксимации и оптимизации функций многих переменных, которые могут применяться для решения дифференциальных уравнений в частных производных, включая уравнение диффузии и многомерное уравнение Фоккера-Планка. Разработанные общие методы TT-ANOVA-ALS, TTOpt и Optima-TT позволяют строить суррогатные модели и осуществлять безградиентную оптимизацию для широкого класса функций, при этом, в сравнении с альтернативными подходами, они имеют преимущество по точности и скорости. Предложенная в работе схема дискретизации FS-QTT допускает использование очень мелких расчетных сеток для одномерного и двумерного уравнения диффузии, что делает ее особенно перспективной для многомасштабных задач. Разработанный метод FPCross позволяет эффективно решать уравнение Фоккера-Планка, при этом использование TT-разложения приводит к значительному снижению вычислительной сложности в многомерном случае.
Ключевые слова:
аппроксимация, безградиентная оптимизация, дискретная оптимизация, дифференциальные уравнения, дифференциальные уравнения в частных производных, малоранговые тензорные аппроксимации, оптимизация, разложение тензорного поезда, стохастические дифференциальные уравнения, суррогатные модели, тензорные методы, тензорный поезд, уравнение Фоккера-Планка
Диссертация [*.pdf, 2.95 Мб] (дата размещения 27.07.2023)
Резюме [*.pdf, 495.53 Кб] (дата размещения 27.07.2023)
Summary [*.pdf, 471.45 Кб] (дата размещения 27.07.2023)
Ускорение, сжатие и усовершенствование нейросетевых алгоритмов классификации и распознавания объектов на изображении и в видеопотоке.Кандидатская диссертацияУченая степень НИУ ВШЭ
Соискатель:
Пономарёв Евгений Сергеевич
Руководитель:
Оселедец Иван Валерьевич
Дисс. совет:
Совет по инженерным наукам и прикладной математике
Дата защиты:
19.09.2023
Диссертационное исследование посвящено разработке методов ускорения, сжатия нейронных сетей и построению системы по оценке времени их исполнения на конечных устройствах. В работе ключевыми являются три результата. Во–первых, создан алгоритм сжатия предварительно обученных нейронных сетей, основанный на многократном применении тензорных аппроксимаций к весам слоев нейронных сетей. Во-вторых, представлен метод ускорения предварительно обученных глубоких нейронных сетей. Ускорение достигается за счет замены больших блоков сети на крошечные полносвязные слои. Этот метод вдохновлен аналогией с идеями сокращения размерности для решения уравнений в динамических системах. Оба представленных подхода апробированы на задачах компьютерного зрения и продемонстрировали свою эффективность в сравнении с существующими методами сжатия и ускорения вывода нейронных сетей. В-третьих, построен метод оценки времени работы нейросетевых моделей для заданных программной реализации и целевого устройства. Создана система по сбору и обработке экспериментальных данных, и применению алгоритмов машинного обучения для предсказания времени исполнения моделей по их параметризации.
Диссертация [*.pdf, 3.46 Мб] (дата размещения 19.07.2023)
Резюме [*.pdf, 1.18 Мб] (дата размещения 19.07.2023)
Summary [*.pdf, 616.19 Кб] (дата размещения 19.07.2023)
Тензорные методы в задачах машинного обученияКандидатская диссертацияУченая степень НИУ ВШЭ
Соискатель:
Новиков Александр Витальевич
Руководители
Ветров Дмитрий Петрович, Оселедец Иван Валерьевич
Дисс. совет:
Совет по компьютерным наукам
Дата защиты:
16.12.2021
Машинное обучение позволяет решить все новые и новые задачи, но одновременно с этим растут требования к вычислительным ресурсам как для обучения моделей, так и для применения обученных моделей на практике. Данная диссертация посвящена использованию тензорных разложений (обобщения матричных низкоранговых разложений на многомерные массивы) для ускорения и сжатия нейронных сетей и марковских случайных полей. В работе показано, что при помощи параметризации линейных слоев сверточных нейронных сетей низкоранговыми тензорами можно достичь существенного сжатия моделей без потери качества; предложена модель машинного обучения, позволяющая эффективно учитывать полиномиальные взаимодействия признаков высоких порядков; и получен метод оценки нормировочной константы марковского случайного поля существенно опережающий аналоги по точности работы. Также в работе предложен метод автоматического риманова дифференцирования для многообразия тензоров и матриц низкого ранга и реализована библиотека для работы с разложением в тензорный поезд поддерживающая автоматическое риманово дифференцирование, которая позволит упростить дальнейшие разработки на стыке машинного обучения и тензорных методов.
Ключевые слова:
Диссертация [*.pdf, 2.93 Мб] (дата размещения 21.09.2021)
Резюме [*.pdf, 289.29 Кб] (дата размещения 21.09.2021)
Summary [*.pdf, 238.82 Кб] (дата размещения 21.09.2021)