Магистратура
2020/2021
Проектный семинар "Технологии моделирования сложных систем"
Статус:
Курс обязательный (Науки о данных)
Направление:
01.04.02. Прикладная математика и информатика
Кто читает:
Кафедра технологий моделирования сложных систем
Где читается:
Факультет компьютерных наук
Когда читается:
1-й курс, 2-4 модуль
Формат изучения:
без онлайн-курса
Прогр. обучения:
Науки о данных
Язык:
русский
Кредиты:
4
Контактные часы:
40
Программа дисциплины
Аннотация
Математика - это такой же язык, как естественный русский или английский: иногда, одни и те же слова разными людьми интерпретируются по-разному; иногда, абсолютно разные слова могут разными людьми интерпретироваться одинаково. Вообще, интерпретируемость - очень сложная вещь, которую не так просто формализовать (если вообще возможно). Тем не менее, можно сформулировать некоторые концепты, в рамках которых пытаться объяснять предсказания тех или иных математических моделей, и снабдить людей инструментами для этого. Этот курс знакомит слушателей с идеями зарождающегося (на мой взгляд) направления в машинном обучении, которое можно назвать “Интерпретируемое ML”. Лекции призваны дать обзор того, что сейчас происходит в данной области (скорее всего, этот обзор не будет полным, но, по крайней мере, он может послужить небольшим введением), и показать слушателям набор инструментов, с которыми можно работать в рамках предложенных идей.
Цель освоения дисциплины
- Предоставить студентам вводный обзор интерпритируемого машинного обучения
- Сформировать у студентов представление о том, что такое интерпритируемость
- Познакомить студентов с базовыми инструментами интерпритируемого машинного обучения
- Познакомить студентов с реальными примерами задач, где возникает необходимость интерпритируемости
Планируемые результаты обучения
- Знать основные принципы интерпретируемого машинного обучения
- Знать таксономию оценки интерпритируемость и задачи, в которых может пригодиться каждый из методов оценки
- Знать основные преимущества и недостатки базовых интерпретируемых моделей
- Знать и уметь пользоваться основными инструментами ретроспективной интерпретации на основе визуализации
- Знать и уметь пользоваться основными инструментами ретроспективной интерпретации на основе глобальных и локальных объяснений
- Знать и уметь пользоваться основными инструментами ретроспективной интерпретации на основе примеров
- Знать примеры задач, в которых может возникнуть дискриминация по какому-либо признаку
Содержание учебной дисциплины
- Знакомство с основными принципами интерпретируемого машинного обучения.Вводное занятие, на котором слушатели курса узнают чем обусловлено развитие интерпритируемого машинного обучения и познакомяться с основными принципами. Распределение по проектам.
- Таксономия оценки интерпретируемостиНа занятии слушатели узнают о том, чем отличаются и для каких задач важен каждый из способов оценки: Application-grounded Evaluation, Human-grounded Metrics, Functionally-grounded Evaluation
- Ретроспективная интерпретация: визуализацияОбзор инструментов визуализации для ретроспективной интерпретации и задач, где они могут использоваться
- “Интерпретируемые” моделиОбзор простых моделей, таких как решающие деревья, линейная и логистическая регрессии, их преимущества и недостатки с точки зрения “интерпретируемости”
- Ретроспективная интерпретация: объяснения на основе примеровОбзор инструментов, дающих объяснение на основе инструментов
- Ретроспективная интерпретация: глобальные и локальные объясненияОбзор инструментов, таких как LIME, Deep-Lift, и др.
- Честное и этичное принятие решенийПримеры задач, в которых модели допускали дискриминацию по какому-либо признаку, как это понять и как с этим бороться
Элементы контроля
- индивидуальный проектЗнать основные принципы интерпретирцемого машинного обучения Знать таксономию оценки интерпритируемость и задачи, в которых может пригодиться каждый из методов оценки Знать основные преимущества и недостатки базовых интерпретируемых моделей Знать и уметь пользоваться основными инструментами ретроспективной интерпретации на основе визуализации Знать и уметь пользоваться основными инструментами ретроспективной интерпретации на основе глобальных и локальных объяснений Знать и уметь пользоваться основными инструментами ретроспективной интерпретации на основе примеров Знать примеры задач, в которых может возникнуть дискриминация по какому-либо признаку Продемонстрировать полученные знания посредством сдачи проектной работы
- зачетОценка за дисциплину выставляется в соответствии с формулой оценивания от всех пройденных элементов контроля. Экзамен не проводится.
Промежуточная аттестация
- Промежуточная аттестация (4 модуль)0.5 * зачет + 0.5 * индивидуальный проект
Список литературы
Рекомендуемая основная литература
- Doshi-Velez, F., & Kim, B. (2017). Towards A Rigorous Science of Interpretable Machine Learning. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsarx&AN=edsarx.1702.08608
- Doshi-Velez, F., & Kim, B. (2017). Towards A Rigorous Science of Interpretable Machine Learning. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.6F1676
- Goodman, B., & Flaxman, S. (2016). European Union regulations on algorithmic decision-making and a “right to explanation.” Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.670CE3E5
- Molnar, C. (2018). iml: An R package for Interpretable Machine Learning. https://doi.org/10.5281/zenodo.1299058
- Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). “Why Should I Trust You?”: Explaining the Predictions of Any Classifier. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.7DB3A973
- Shrikumar, A., Greenside, P., & Kundaje, A. (2017). Learning Important Features Through Propagating Activation Differences. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.BA6A359D
Рекомендуемая дополнительная литература
- Diptesh Das, Junichi Ito, Tadashi Kadowaki, & Koji Tsuda. (2019). An interpretable machine learning model for diagnosis of Alzheimer’s disease. PeerJ, e6543. https://doi.org/10.7717/peerj.6543
- Explainable and interpretable models in computer vision and machine learning. (2018). https://doi.org/10.1007/978-3-319-98131-4
- Lipton, Z. C. (2016). The Mythos of Model Interpretability. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.E8C74632
- LIPTON, Z. C. (2018). The Mythos of Model Interpretability. Communications of the ACM, 61(10), 36–43. https://doi.org/10.1145/3233231
- Rosnati, M., & Fortuin, V. (2019). MGP-AttTCN: An Interpretable Machine Learning Model for the Prediction of Sepsis. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsarx&AN=edsarx.1909.12637
- Shrikumar, A., Greenside, P., & Kundaje, A. (2017). Learning Important Features Through Propagating Activation Differences. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsarx&AN=edsarx.1704.02685
- Shrikumar, A., Greenside, P., Shcherbina, A., & Kundaje, A. (2016). Not Just a Black Box: Learning Important Features Through Propagating Activation Differences. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.20B0F1CF
- Zhao, X., Yan, X., & Van Hentenryck, P. (2019). Modeling Heterogeneity in Mode-Switching Behavior Under a Mobility-on-Demand Transit System: An Interpretable Machine Learning Approach. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsarx&AN=edsarx.1902.02904