• A
  • A
  • A
  • ABC
  • ABC
  • ABC
  • А
  • А
  • А
  • А
  • А
Regular version of the site

Project Seminar ''Technologies for Complex Systems Modeling''

2020/2021
Academic Year
RUS
Instruction in Russian
4
ECTS credits
Delivered at:
Department of Complex System Modelling Technologies (Faculty of Computer Science)
Course type:
Compulsory course
When:
1 year, 2-4 module

Instructors


Дерендяев Александр Борисович


Ershov, Egor

Программа дисциплины

Аннотация

Математика - это такой же язык, как естественный русский или английский: иногда, одни и те же слова разными людьми интерпретируются по-разному; иногда, абсолютно разные слова могут разными людьми интерпретироваться одинаково. Вообще, интерпретируемость - очень сложная вещь, которую не так просто формализовать (если вообще возможно). Тем не менее, можно сформулировать некоторые концепты, в рамках которых пытаться объяснять предсказания тех или иных математических моделей, и снабдить людей инструментами для этого. Этот курс знакомит слушателей с идеями зарождающегося (на мой взгляд) направления в машинном обучении, которое можно назвать “Интерпретируемое ML”. Лекции призваны дать обзор того, что сейчас происходит в данной области (скорее всего, этот обзор не будет полным, но, по крайней мере, он может послужить небольшим введением), и показать слушателям набор инструментов, с которыми можно работать в рамках предложенных идей.
Цель освоения дисциплины

Цель освоения дисциплины

  • Предоставить студентам вводный обзор интерпритируемого машинного обучения
  • Сформировать у студентов представление о том, что такое интерпритируемость
  • Познакомить студентов с базовыми инструментами интерпритируемого машинного обучения
  • Познакомить студентов с реальными примерами задач, где возникает необходимость интерпритируемости
Планируемые результаты обучения

Планируемые результаты обучения

  • Знать основные принципы интерпретируемого машинного обучения
  • Знать таксономию оценки интерпритируемость и задачи, в которых может пригодиться каждый из методов оценки
  • Знать основные преимущества и недостатки базовых интерпретируемых моделей
  • Знать и уметь пользоваться основными инструментами ретроспективной интерпретации на основе визуализации
  • Знать и уметь пользоваться основными инструментами ретроспективной интерпретации на основе глобальных и локальных объяснений
  • Знать и уметь пользоваться основными инструментами ретроспективной интерпретации на основе примеров
  • Знать примеры задач, в которых может возникнуть дискриминация по какому-либо признаку
Содержание учебной дисциплины

Содержание учебной дисциплины

  • Знакомство с основными принципами интерпретируемого машинного обучения.
    Вводное занятие, на котором слушатели курса узнают чем обусловлено развитие интерпритируемого машинного обучения и познакомяться с основными принципами. Распределение по проектам.
  • Таксономия оценки интерпретируемости
    На занятии слушатели узнают о том, чем отличаются и для каких задач важен каждый из способов оценки: Application-grounded Evaluation, Human-grounded Metrics, Functionally-grounded Evaluation
  • Ретроспективная интерпретация: визуализация
    Обзор инструментов визуализации для ретроспективной интерпретации и задач, где они могут использоваться
  • “Интерпретируемые” модели
    Обзор простых моделей, таких как решающие деревья, линейная и логистическая регрессии, их преимущества и недостатки с точки зрения “интерпретируемости”
  • Ретроспективная интерпретация: объяснения на основе примеров
    Обзор инструментов, дающих объяснение на основе инструментов
  • Ретроспективная интерпретация: глобальные и локальные объяснения
    Обзор инструментов, таких как LIME, Deep-Lift, и др.
  • Честное и этичное принятие решений
    Примеры задач, в которых модели допускали дискриминацию по какому-либо признаку, как это понять и как с этим бороться
Элементы контроля

Элементы контроля

  • неблокирующий индивидуальный проект
    Знать основные принципы интерпретирцемого машинного обучения Знать таксономию оценки интерпритируемость и задачи, в которых может пригодиться каждый из методов оценки Знать основные преимущества и недостатки базовых интерпретируемых моделей Знать и уметь пользоваться основными инструментами ретроспективной интерпретации на основе визуализации Знать и уметь пользоваться основными инструментами ретроспективной интерпретации на основе глобальных и локальных объяснений Знать и уметь пользоваться основными инструментами ретроспективной интерпретации на основе примеров Знать примеры задач, в которых может возникнуть дискриминация по какому-либо признаку Продемонстрировать полученные знания посредством сдачи проектной работы
  • неблокирующий зачет
    Оценка за дисциплину выставляется в соответствии с формулой оценивания от всех пройденных элементов контроля. Экзамен не проводится.
Промежуточная аттестация

Промежуточная аттестация

  • Промежуточная аттестация (4 модуль)
    0.5 * зачет + 0.5 * индивидуальный проект
Список литературы

Список литературы

Рекомендуемая основная литература

  • Doshi-Velez, F., & Kim, B. (2017). Towards A Rigorous Science of Interpretable Machine Learning. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsarx&AN=edsarx.1702.08608
  • Doshi-Velez, F., & Kim, B. (2017). Towards A Rigorous Science of Interpretable Machine Learning. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.6F1676
  • Goodman, B., & Flaxman, S. (2016). European Union regulations on algorithmic decision-making and a “right to explanation.” Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.670CE3E5
  • Molnar, C. (2018). iml: An R package for Interpretable Machine Learning. https://doi.org/10.5281/zenodo.1299058
  • Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). “Why Should I Trust You?”: Explaining the Predictions of Any Classifier. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.7DB3A973
  • Shrikumar, A., Greenside, P., & Kundaje, A. (2017). Learning Important Features Through Propagating Activation Differences. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.BA6A359D

Рекомендуемая дополнительная литература

  • Diptesh Das, Junichi Ito, Tadashi Kadowaki, & Koji Tsuda. (2019). An interpretable machine learning model for diagnosis of Alzheimer’s disease. PeerJ, e6543. https://doi.org/10.7717/peerj.6543
  • Explainable and interpretable models in computer vision and machine learning. (2018). https://doi.org/10.1007/978-3-319-98131-4
  • Lipton, Z. C. (2016). The Mythos of Model Interpretability. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.E8C74632
  • LIPTON, Z. C. (2018). The Mythos of Model Interpretability. Communications of the ACM, 61(10), 36–43. https://doi.org/10.1145/3233231
  • Rosnati, M., & Fortuin, V. (2019). MGP-AttTCN: An Interpretable Machine Learning Model for the Prediction of Sepsis. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsarx&AN=edsarx.1909.12637
  • Shrikumar, A., Greenside, P., & Kundaje, A. (2017). Learning Important Features Through Propagating Activation Differences. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsarx&AN=edsarx.1704.02685
  • Shrikumar, A., Greenside, P., Shcherbina, A., & Kundaje, A. (2016). Not Just a Black Box: Learning Important Features Through Propagating Activation Differences. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.20B0F1CF
  • Zhao, X., Yan, X., & Van Hentenryck, P. (2019). Modeling Heterogeneity in Mode-Switching Behavior Under a Mobility-on-Demand Transit System: An Interpretable Machine Learning Approach. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsarx&AN=edsarx.1902.02904