
Представляем книгу Серга Масиса “Интерпретируемое машинное обучение на Python”.
Книга поможет осознанно и эффективно работать с моделями машинного обучения. Дано введение в интерпретацию машинного обучения: раскрыты важность темы, ее ключевые понятия и проблемы. Рассмотрены методы интерпретации: модельно-агностические, якорные и контрфактические, для многопеременного прогнозирования, а также визуализации сверточных нейронных сетей. Раскрыты вопросы настройки на интерпретируемость: отбор и конструирование признаков, ослабление систематического смещения и причинно-следственный вывод, монотонные ограничения, настройка моделей и устойчивость к антагонизму. Показаны перспективы развития интерпретируемых моделей машинного обучения. Каждая глава книги включает подробные примеры исходного кода на языке Python.
На сайте издательства размещен архив с цветными иллюстрациями.
О чем эта книга
Эта книга поможет вам эффективно работать с моделями машинного обучения. Каждая глава включает подробные примеры исходного кода на языке Python.
Первый раздел книги представляет собой руководство для начинающих по интерпретации результатов моделирования. В нем даны основные понятия и проблемы, показано значение машинного обучения в бизнесе. Рассмотрены модели белого ящика, черного ящика и стеклянного ящика, проведено их сравнение и предложены разумные компромиссы.
Во втором разделе описан широкий спектр методов интерпретации, известных также как методы объяснимого искусственного интеллекта, и их применение в случаях классификации, регрессии, табличных временных рядов, обработки изображений или текста. Результаты моделирования сопровождаются программными кодами и понятными примерами.
В третьем разделе рассмотрена настройка моделей и работа с обучающими данными. При этом интерпретируемость обеспечивается за счет снижения сложности, ослабления систематического смещения и повышения надежности. Рассмотрены новейшие методы выбора признаков, монотонных ограничений, состязательного переобучения и др.
К концу этой книги вы сможете лучше понимать модели машинного обучения и улучшать их за счет настройки интерпретируемости.
Для кого эта книга предназначена
- для новичков и студентов, изучающих науку о данных, обладающих основополагающими знаниями машинного обучения и языка программирования Python;
- для профессионалов по работе с данными, на которых возлагается все более важная ответственность в объяснении хода работы систем ИИ, которые они разрабатывают и чью работу они сопровождают технически;
- для инженеров по машинному обучению и исследователей данных, которые хотят расширить свой набор навыков, включив в него новейшие методы интерпретации и способы уменьшения систематических ошибок;
- для специалистов по этике ИИ, чтобы углубить свое понимание имплементационных сторон своей работы в целях более эффективного ориентирования этих усилий;
- для менеджеров проектов ИИ и руководителей компаний, которые хотят внедрить интерпретируемое машинное обучение в свои производственные процессы, чтобы соответствовать принципам объективности, подотчетности и прозрачности.
Вы изучите:
• Проблемы интерпретируемости в бизнесе
• Внутренне интерпретируемые модели, такие как линейные модели, деревья решений и наивный байесовский метод
• Интерпретацию моделей с помощью методов, не зависящих от модели
• Работу классификатора изображений
• Методы ослабления систематического смещения
• Методы защиты моделей от атак
• Применение монотонных ограничений для повышения безопасности моделей
Книгу “Интерпретируемое машинное обучение на Python” можно купить со скидкой в интернет-магазине издательства “БХВ“.
Об авторе. 15
О рецензентах. 17
Предисловие. 19
Для кого эта книга предназначена. 20
Что эта книга охватывает. 21
Как получить максимальную отдачу от этой книги. 23
Загрузка файлов с исходным кодом.. 24
Загрузка цветных изображений. 25
Используемые условные обозначения. 25
Часть I. Введение в интерпретацию машинного обучения. 27
Глава 1. Интерпретация, интерпретируемость и объяснимость:
почему всё это важно?. 29
Технические требования. 30
Что такое интерпретация машинного обучения?. 30
Изучение простой модели предсказания веса. 31
Понимание разницы между интерпретируемостью и объяснимостью.. 37
Что такое интерпретируемость?. 37
Что такое объяснимость?. 40
Деловое обоснование интерпретируемости. 42
Более качественные решения. 42
Более надежные бренды.. 44
Более высокий уровень этичности. 46
Более высокая прибыльность. 49
Резюме. 50
Источники изображений. 50
Справочные материалы.. 50
Глава 2. Ключевые понятия интерпретируемости. 52
Технические требования. 52
Миссия. 52
Подробности о сердечно-сосудистых заболеваниях. 53
Подход. 54
Подготовительные работы.. 54
Загрузка библиотек. 54
Изучение проблемы и подготовка данных. 54
Ознакомление с типами методов интерпретации и диапазонами интерпретируемости 57
Типы методов модельной интерпретации. 61
Диапазоны модельной интерпретируемости. 61
Интерпретирование отдельных предсказаний с помощью логистической регрессии 62
Оценивание препятствий, мешающих интерпретируемости результатов машинного обучения 67
Нелинейность. 69
Интерактивность. 72
Немонотонность. 72
Миссия выполнена. 74
Резюме. 75
Справочные материалы.. 75
Глава 3. Трудности интерпретации. 76
Технические требования. 76
Миссия. 76
Подход. 78
Подготовительные работы.. 78
Загрузка библиотек. 78
Изучение проблемы и подготовка данных. 79
Обзор традиционных методов модельной интерпретации. 84
Предсказывание минут задержки с помощью различных
регрессионных методов. 84
Классифицирование рейсов как задержанных либо незадержанных
с использованием различных классификационных методов. 89
Визуализация задержанных рейсов с помощью методов понижения размерности 96
Ограничения традиционных методов модельной интерпретации. 102
Изучение имманентно интерпретируемых моделей (типа белого ящика) 103
Обобщенные линейные модели. 103
Деревья решений. 118
RuleFit 123
Метод ближайших соседей. 125
Наивный Байес. 127
Распознавание компромисса между результативностью
и интерпретируемостью.. 130
Особые модельные свойства. 130
Диагностика результативности. 131
Обнаружение более новых интерпретируемых (аквариумных) моделей. 134
Объяснимая бустинговая машина. 134
Skoped-Rules. 138
Миссия выполнена. 140
Резюме. 141
Источник набора данных. 141
Справочные материалы.. 142
Часть II. Освоение методов интерпретации. 143
Глава 4. Основы важности признаков и их влияние. 145
Технические требования. 145
Миссия. 146
Личность и очередность рождения. 146
Подход. 147
Подготовительные работы.. 147
Загрузка библиотек. 147
Изучение проблемы и подготовка данных. 148
Как измерить влияние признака на исход. 150
Важность признаков в древовидных моделях. 154
Важность признаков в логистической регрессии. 156
Важность признаков в линейном дискриминантном анализе. 159
Важность признаков в многослойном персептроне. 161
Применение перестановочной важности признаков на практике. 162
Недостатки метода перестановочной важности признаков. 165
Интерпретирование графиков частичной зависимости. 166
Интеракционные графики частичной зависимости. 171
Недостатки графиков частичной зависимости. 174
Объяснение графиков индивидуального условного ожидания. 174
Недостатки графиков индивидуального условного ожидания. 179
Миссия выполнена. 179
Резюме. 180
Источник набора данных. 180
Справочные материалы.. 180
Глава 5. Модельно-агностические методы глобальной интерпретации. 182
Технические требования. 182
Миссия. 183
Подход. 184
Подготовительные работы.. 185
Загрузка библиотек. 185
Изучение проблемы и подготовка данных. 186
Значения Шепли. 196
Интерпретирование сводки SHAP и графиков зависимости. 198
Генерирование сводных графиков SHAP. 202
Изучение взаимодействий. 204
Графики зависимости SHAP. 207
Силовые графики SHAP. 215
Графики накопленных локальных эффектов. 217
Глобальные суррогаты.. 221
Подгонка суррогатов. 221
Оценивание суррогатов. 222
Интерпретирование суррогатов. 223
Миссия выполнена. 225
Резюме. 225
Справочные материалы.. 226
Глава 6. Модельно-агностические методы локальной интерпретации. 227
Технические требования. 227
Миссия. 227
Подход. 228
Подготовительные работы.. 229
Загрузка библиотек. 229
Изучение проблемы и подготовка данных. 230
Задействование ядерного объяснителя SHAP для локальных интерпретаций
со значениями SHAP. 236
Обучение модели C-SVC.. 237
Вычисление значений SHAP с помощью ядерного объяснителя. 239
Локальная интерпретация для группы предсказаний с использованием графиков решений 241
Локальная интерпретация по одному предсказанию за раз
с использованием силового графика. 244
Применение локально интерпретируемых модельно-агностических
объяснений. 247
Что такое LIME?. 247
Локальная интерпретация по одному предсказанию за раз
с использованием табличного объяснителя на основе LIME. 249
Использование метода LIME для NLP. 251
Обучение модели LightGBM.. 253
Локальная интерпретация по одному предсказанию за раз
с использованием текстового объяснителя на основе LIME. 254
Опробование SHAP в обработке естественного языка. 257
Сравнение SHAP с LIME. 260
Миссия выполнена. 261
Резюме. 262
Источник набора данных. 262
Справочные материалы.. 262
Глава 7. Якорные и контрфактические объяснения. 264
Технические требования. 264
Миссия. 264
Необъективная смещенность в диагностиках риска рецидивизма. 266
Подход. 267
Подготовительные работы.. 267
Загрузка библиотек. 267
Изучение проблемы и подготовка данных. 268
Якорные объяснения. 278
Подготовительные работы для якорных и контрафактических
объяснений с помощью библиотеки alibi 279
Локальные интерпретации якорных объяснений. 281
Анализ контрфактических объяснений. 284
Контрфактические объяснения под руководством прототипов. 285
Получение контрфактических экземпляров и многого другого
с помощью инструмента What-If Tool (WIT) 289
Сравнение с помощью метода контрастивного объяснения. 299
Миссия выполнена. 303
Резюме. 304
Источник набора данных. 304
Справочные материалы.. 304
Глава 8. Визуализация сверточных нейронных сетей. 306
Технические требования. 306
Миссия. 307
Подход. 308
Подготовительные работы.. 309
Загрузка библиотек. 309
Изучение проблемы и подготовка данных. 310
Диагностика CNN-классификатора традиционными методами интерпретации 315
Визуализирование процесса усвоения с помощью активационных методов. 323
Промежуточные активации. 325
Максимизация активации. 328
Оценивание ошибочных классификаций с помощью градиентных методов атрибуции 332
Карты значимости. 333
Метод градиентных карт активаций классов Grad-CAM.. 336
Интегрированные градиенты.. 338
Окончательная сборка. 341
Объяснение классификаций с помощью пертурбационных методов
атрибуции. 344
Окклюзивная чувствительность. 344
Объяснитель изображений методом LIME. 347
Метод контрастивных объяснений. 349
Окончательная сборка. 354
Бонусный метод: глубокий объяснитель SHAP. 357
Миссия выполнена. 358
Резюме. 359
Источники данных и изображений. 359
Справочные материалы.. 360
Глава 9. Методы интерпретации для многопеременного
прогнозирования и анализа чувствительности. 361
Технические требования. 362
Миссия. 362
Подход. 364
Подготовительные работы.. 365
Загрузка библиотек. 365
Изучение проблемы и подготовка данных. 366
Диагностика моделей временного ряда с использованием традиционных методов интерпретации 375
Использование стандартных регрессионных метрик. 376
Агрегации предсказательных ошибок. 378
Оценивание как классификационная задача. 380
Генерирование LSTM-атрибуций с помощью интегрированных градиентов. 381
Вычисление глобальных и локальных атрибуций с помощью ядерного объяснителя SHAP 387
Зачем использовать ядерный объяснитель?. 387
Определение стратегии, позволяющей работать с моделью многопеременного временного ряда 388
Заложение основы для стратегии аппроксимации перестановок. 389
Выявление влияющих признаков с помощью факторной приоритизации. 394
Вычисление индексов чувствительности Морриса. 395
Анализирование элементарных эффектов. 398
Квантифицирование неопределенности и стоимостной чувствительности
с помощью фиксирования факторов. 401
Генерирование и предсказывание на образцах Сальтелли. 402
Выполнение анализа чувствительности по методу Соболя. 403
Встраивание реалистичной функции стоимости. 405
Миссия выполнена. 409
Резюме. 410
Источники данных и изображений. 411
Справочные материалы.. 411
Часть III. Настройка на интерпретируемость. 413
Глава 10. Отбор и конструирование признаков для обеспечения интерпретируемости 415
Технические требования. 416
Миссия. 416
Подход. 417
Подготовительные работы.. 418
Загрузка библиотек. 418
Изучение проблемы и подготовка данных. 419
Изучение эффекта нерелевантных признаков. 420
Построение базовой модели. 421
Оценивание модели. 422
Обучение базовой модели на разных максимальных глубинах. 425
Обзор фильтрационных методов отбора признаков. 427
Базовые фильтрационные методы.. 428
Корреляционные фильтрационные методы.. 430
Ранжирующие фильтрационные методы.. 432
Сравнение фильтрационных методов. 434
Анализ встроенных методов отбора признаков. 435
Раскрытие потенциала оберточных, гибридных и продвинутых методов
отбора признаков. 439
Оберточные методы.. 439
Гибридные методы.. 441
Продвинутые методы.. 443
Оценивание всех моделей, построенных с применением отбора
признаков. 445
Обзор конструирования признаков. 447
Миссия выполнена. 455
Резюме. 457
Источники наборов данных. 457
Справочные материалы.. 457
Глава 11. Ослабление систематического смещения
и причинно-следственный вывод. 459
Технические требования. 460
Миссия. 460
Подход. 461
Подготовительные работы.. 462
Загрузка библиотек. 462
Изучение проблемы и подготовка данных. 463
Обнаружение систематического смещения. 467
Визуализирование систематического смещения набора данных. 469
Квантифицирование систематического смещения набора данных. 472
Квантифицирование систематического смещения модели. 476
Ослабление систематического смещения. 479
Методы ослабления систематического смещения стадии
предварительной обработки. 480
Методы ослабления систематического смещения стадии
промежуточной обработки. 487
Методы ослабления систематического смещения стадии
последующей обработки. 490
Окончательная сборка. 493
Построение причинно-следственной модели. 495
Изучение результатов эксперимента. 497
Изучение причинно-следственных моделей. 500
Инициализация линейного дважды устойчивого ученика. 502
Обучение причинно-следственной модели. 502
Гетерогенные эффекты экспериментальной процедуры.. 503
Выбор политики. 507
Проверка устойчивости оценки. 510
Добавление случайной общей причины.. 510
Замена экспериментальной процедуры случайной переменной. 511
Миссия выполнена. 512
Резюме. 513
Источник набора данных. 513
Справочные материалы.. 513
Глава 12. Монотонные ограничения и настройка моделей
на интерпретируемость. 515
Технические требования. 516
Миссия. 516
Подход. 518
Подготовительные работы.. 518
Загрузка библиотек. 519
Изучение проблемы и подготовка данных. 519
Установка ограничений с помощью конструирования признаков. 522
Упорядочение. 523
Дискретизация. 525
Члены взаимодействия и нелинейные преобразования. 526
Категориальное кодирование. 530
Другие подготовительные работы.. 531
Настройка моделей на интерпретируемость. 532
Настройка нейронной сети Keras. 533
Настройка других популярных модельных классов. 536
Оптимизация под объективность с помощью байесовой гиперпараметрической настройки и прикладных метрик. 544
Имплементирование модельных ограничений. 550
Ограничения в XGBoost 551
Ограничения в TensorFlow Lattice. 556
Миссия выполнена. 563
Резюме. 564
Источник набора данных. 565
Справочные материалы.. 565
Глава 13. Устойчивость к антагонизму. 566
Технические требования. 567
Миссия. 567
Подход. 569
Подготовительные работы.. 569
Загрузка библиотек. 569
Изучение проблемы и подготовка данных. 570
Загрузка базовой модели CNN.. 573
Диагностика базового классификатора CNN.. 575
Эвазивные атаки. 576
Атака быстрым методом на основе знака градиента. 578
Атака методом инфинитной нормы Карлини и Вагнера. 581
Целенаправленная атака методом антагонистических заплат. 583
Защита от целенаправленных атак с помощью предобработки. 585
Защита от любой эвазивной атаки с помощью антагонистического
обучения устойчивого классификатора. 590
Оценивание и сертифицирование устойчивости к антагонизму. 595
Сравнение устойчивости модели с силой атаки. 595
Сертифицирование устойчивости с помощью рандомизированного сглаживания 597
Миссия выполнена. 604
Резюме. 605
Источники наборов данных. 605
Справочные материалы.. 606
Глава 14. Интерпретируемость машинного обучения: что дальше?. 607
Современное состояние интерпретируемости машинного обучения. 607
Связываем всё воедино! 607
Текущие тренды.. 612
Размышления о будущем интерпретируемости машинного обучения. 614
Новое видение машинного обучения. 615
Междисциплинарный подход. 616
Соответствующая требованиям стандартизация. 616
Исполнение регуляторных предписаний. 616
Бесшовная автоматизация машинного обучения со встроенной интерпретацией 617
Более тесная интеграция с инженерами MLOps. 617
Справочные материалы.. 618
Предметный указатель. 619
Об авторе

Серг Масис (Serg Masís) в течение последних двух десятилетий трудится на стыке веб-разработки, разработки приложений и аналитики. В настоящее время он является специалистом по климатическим и агрономическим данным в Syngenta, веду- щей агробизнес-компании с миссией по улучшению глобальной продовольственной безопасности. До этого стал одним из основателей стартапа, созданного Harvard Innovation Labs, который объединил возможности облачных вычислений и машинного обучения с принципами из науки принятия решений, чтобы знакомить пользователей с новыми местами и событиями. Независимо от того, к чему это относится: к досугу, болезням растений или пожизненной ценности клиента, — Серг увлечен нахождением часто недостающих связей между данными и процессом принятия решений, и интерпретация результатов работы моделей машинного обучения эффективно помогает преодолевать этот разрыв.
Я рад, что моя книга получила 4,5 звезды в Goodreads и 4,7 в Amazon , а также следующие награды:
и «Лучшая книга об искусственном интеллекте всех времен» от Book Authority.
-
Интерпретируемое машинное обучение на Python
1875 ₽
1594 ₽