• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта
Магистратура 2023/2024

Нейронные сети в машинном обучении

Лучший по критерию «Полезность курса для Вашей будущей карьеры»
Лучший по критерию «Полезность курса для расширения кругозора и разностороннего развития»
Направление: 01.04.02. Прикладная математика и информатика
Когда читается: 1-й курс, 3, 4 модуль
Формат изучения: без онлайн-курса
Охват аудитории: для своего кампуса
Преподаватели: Асланов Андрей Борисович, Беляев Владимир Михайлович, Богатырев Евгений Николаевич, Кашин Данил Андреевич, Рогачев Александр Игоревич, Спасёнов Алексей Юрьевич, Храбров Кузьма Андреевич
Прогр. обучения: Прикладные модели искусственного интеллекта
Язык: русский
Кредиты: 6
Контактные часы: 60

Программа дисциплины

Аннотация

Курс посвящен изучению архитектур нейросетей, среди которых полносвязные, сверточные, рекуррентные, глубинные, генеративные и дискриминативные. Практическая часть курса предполагает обучение работы с библиотекой pytorch.
Цель освоения дисциплины

Цель освоения дисциплины

  • Глубокое понимание нейронных сетей. Овладение теоретическими основами для критического взгляда на внутреннюю механику нейронных сетей.
  • Применение в задачах машинного обучения. Навыки применения нейронных сетей в различных областях, от распознавания образов до обработки текста.
  • Освоение глубокого обучения. Обучение использованию и оптимизации глубоких нейронных сетей.
  • Работа с реальными данными. Навыки обработки и анализа реальных данных для эффективного обучения моделей.
  • Разработка и исследование новых моделей. Развитие творческого мышления в создании и исследовании инновационных архитектур нейронных сетей.
Планируемые результаты обучения

Планируемые результаты обучения

  • Знает, какие существуют области применения нейронных сетей
  • Может реализовать Back propagation для MLP
  • Знает, что такое Back propagation
  • Понимает принципы реализации ветвящихся структур
  • Знает, какие существуют практические проблемы методов в оптимизации
  • Понимает, как реализовать метод Stochastic Gradient Descent (SGD)
  • Может сравнить графики обучения для полносвязной нейросети на методах Adam, Adagrad, AdaDelta и SGD (на MNIST)
  • Знает, какие существуют проблемы полносвязных нейронных сетей
  • Понимает принципы работы Transfer learning
  • Знает, как устроены архитектуры CNN
  • Знает основные метрики детекции объектов на изображении
  • Понимает, в каких ситуациях используется тот или иной подход
  • Понимает, в каких ситуациях оптимально использовать Semantic Segmentation
  • Может обучить U-Net модель отделения предметов от фона на корпусе Pascal VOC
  • Понимает принцип работы LIME и какие проблемы он помогает решать
  • Знает, что такое Grad-CAM и как он расширяет идеи CAM с использованием градиентов
  • Понимает, как вычислительный граф RNN позволяет модели обрабатывать последовательные данные и какие вычисления выполняются на каждом этапе
  • Может обучить модель классификации букв для задачи расстановки ударения с помощью методов из библиотеки transformers
  • Знает, что такое генеративные модели и как они отличаются от других типов нейронных сетей
  • Может реализовать Wasserstein GAN, используя weight clipping.
  • Знает, что такое метод диффузии Денсона-Дохлера-Папано (DDPM) и как он применяется в генерации изображений
  • Понимает принцип работы автокодировщиков и как происходит кодирование и декодирование данных в этой архитектуре
  • Понимает основные алгоритмы для решения задачи многоруких бандитов и их применение в принятии решений в условиях неопределенности
  • Понимает, как работает процесс передачи сообщений (message passing) в графовых структурах и как это может быть использовано для извлечения информации из графов
  • Понимает, как графовое внимание (graph attention) улучшает обработку графов
Содержание учебной дисциплины

Содержание учебной дисциплины

  • Введение. Основы нейронных сетей
  • Детали обучения нейронных сетей
  • Свёрточные сети (CNN)
  • Методы оптимизации
  • Глубинные нейронные сети
  • Детекция объектов на изображениях
  • Сегментация
  • Анализ нейронных сетей + Metric Learning
  • Рекуррентные сети (RNN)
  • Нейронные сети для обработки естественного языка
  • Соперничающие сети (GAN)
  • Вариационные автокодировщики (VAE) и Diffusion Models
  • Обучение с подкреплением (RL)
  • Графовые нейронные сети (GNN)
Элементы контроля

Элементы контроля

  • неблокирующий Домашние задания
  • неблокирующий Тестирование
  • неблокирующий Коллоквиум
  • неблокирующий Итоговый экзамен
    Итоговый контроль осуществляется по итогам защиты проекта.
Промежуточная аттестация

Промежуточная аттестация

  • 2023/2024 учебный год 4 модуль
    0.48 * Домашние задания + 0.32 * Итоговый экзамен + 0.15 * Коллоквиум + 0.05 * Тестирование
Список литературы

Список литературы

Рекомендуемая основная литература

  • 9781838820046 - Lapan, Maxim - Deep Reinforcement Learning Hands-On : Apply Modern RL Methods to Practical Problems of Chatbots, Robotics, Discrete Optimization, Web Automation, and More, 2nd Edition - 2020 - Packt Publishing - http://search.ebscohost.com/login.aspx?direct=true&db=nlebk&AN=2366458 - nlebk - 2366458
  • Introduction to deep learning, Charniak, E., 2018
  • The book of why : the new science of cause and effect, Pearl, J., 2018
  • Глубокое обучение на Python, Шолле, Ф., 2019
  • Глубокое обучение, Гудфеллоу, Я., 2017
  • Обучение с подкреплением, Саттон, Р. С., 2011

Рекомендуемая дополнительная литература

  • Learning from data : a short course, Abu-Mostafa, Y. S., 2012
  • Molnar, C. (2018). iml: An R package for Interpretable Machine Learning. https://doi.org/10.5281/zenodo.1299058
  • The hundred-page machine learning book, Burkov, A., 2019

Авторы

  • Крепкер Виктор Алексеевич
  • Сластников Сергей Александрович