Поделиться через


Производительность модели и справедливость

В этой статье описаны методы, которые можно использовать для интерпретации производительности и справедливости модели в Машинном обучении Azure.

Что такое справедливость при машинном обучении?

Системы машинного обучения и искусственного интеллекта могут вести себя не объективно. Одним из способов определения несправедливого поведения является его вредное воздействие или влияние на людей. Использование системы ИИ может оказать множество типов вредного воздействия. Дополнительные сведения см. в выступлении Кейт Кроуфорд (Kate Crawford) на NeurIPS 2017.

Два распространенных типа вредного воздействия, причинами которого является искусственный интеллект:

  • Вредное воздействие распределения. Система ИИ расширяет или ограничивает возможности, ресурсы или сведения для некоторых групп. В качестве примеров можно привести наем сотрудников, прием в учебные заведения и кредитование, в которых модель при выборе подходящих кандидатов может отдавать предпочтение определенной группе людей.

  • Недостатки качества обслуживания. Неравномерное качество работы системы ИИ для разных групп людей. Например, система распознавания речи может не работать так же хорошо для женщин, как для мужчин.

Чтобы снизить необъективное поведение в системах ИИ, необходимо оценить и устранить эти вредные воздействия. Компонент обзора модели панели мониторинга ответственного использования ИИ очень полезен на этапе идентификации в жизненном цикле рабочего процесса модели. Компонент отвечает за создание метрик производительности модели для всего набора данных и определенных когорт данных. Компонент создает эти метрики в подгруппах, определенных в контексте признаков и атрибутов, требующих особого обращения.

Примечание.

Объективность — это социально-техническая задача. В количественных метриках справедливости не регистрируются многие аспекты справедливости, такие как правосудие и правовая процедура. Кроме того, многие количественные метрики объективности не могут выполняться одновременно.

Пакет Fairlearn с открытым кодом помогает оценивать стратегии влияния и снижения риска. В конечном счете за компромиссы для конкретных сценариев отвечают люди, которые создают модели ИИ и машинного обучения.

В этом компоненте панели мониторинга ответственного искусственного интеллекта справедливость выражается через групповую справедливость. В основе этого подхода лежит следующий вопрос: "Какие группы людей подвергаются риску вредного воздействия?" Термин признаки, требующий особого обращения предполагает, что от проектировщика систем требуется особое обращение с этими признаками при оценке групповой справедливости.

На этапе оценки справедливость измеряется с помощью метрик различия. Эти метрики могут оценивать и сравнивать поведение модели в группах как в виде соотношений, так и в виде отличий. Панель мониторинга ответственного ИИ поддерживает два класса метрик различий:

  • Различия в производительности модели. Эти наборы метрик вычисляют различие (отличие) в значениях выбранной метрики производительности в подгруппах данных. Вот несколько таких случаев.

    • различие в степени правильности;
    • различие в частоте ошибок;
    • различие в точности;
    • Несоответствие для полноты
    • различие в средней абсолютной погрешности (MAE).
  • Различия в квоте отбора. В этой метрике содержатся отличия в квоте отбора (предпочтительное прогнозирование) между подгруппами. Примером этого может быть различие в квоте одобрения кредита. Квота выбора подразумевает долю точек данных в каждом классе, классифицированном как 1 (в двоичной классификации), или распределение значений прогнозирования (в регрессии).

Возможности оценки справедливости этого компонента поступают из пакета Fairlearn. Fairlearn предоставляет коллекцию метрик оценки справедливости модели и алгоритмов устранения рисков несправедливости.

Примечание.

Оценка справедливости не является чисто технической задачей. Пакет Fairlearn с открытым кодом может определить количественные метрики, чтобы вам было проще оценить справедливость модели, но не выполнит оценку за вас. Для оценки справедливости собственных моделей необходимо выполнить качественный анализ. Признаки, требующие особого обращения, упомянутые ранее, являются примером такого рода качественного анализа.

Ограничения четности для устранения рисков несправедливости

Получив представление о проблемах со справедливостью модели, вы можете решить эти проблемы с помощью алгоритмов устранения рисков в пакете Fairlearn с открытым кодом. Эти алгоритмы поддерживают набор ограничений для поведения прогнозирования, которое называется ограничением четности или критерием.

Для ограничений четности требуется, чтобы некоторые аспекты поведения средства прогнозирования можно было сравнить в разных группах, которые определяются на основе признаков, требующих особого обращения (например, разные состояния гонки). Алгоритмы устранения рисков в пакете Fairlearn с открытым кодом используют такие ограничения четности для устранения наблюдаемых проблем справедливости.

Примечание.

Алгоритмы устранения рисков несправедливости в пакете Fairlearn с открытым кодом могут предложить стратегии по устранению рисков, чтобы снизить вероятность несправедливости в модели машинного обучения. Но такие стратегии не устраняют эту несправедливость. Разработчикам может потребоваться рассмотреть другие ограничения четности или критерии для своих моделей машинного обучения. Разработчикам, которые используют Машинное обучение Azure, следует самостоятельно определить, будет ли достаточным это устранение рисков и степени несправедливость в их сценарии и развертывании моделей машинного обучения.

Пакет Fairlearn поддерживает следующие типы ограничений четности:

Ограничение четности Характер использования Задача машинного обучения
Демографическое равенство Устранение вредных воздействий на распределение Двоичная классификация, регрессия
Уравнивание шансов Диагностика причин вредных воздействий распределения и качества обслуживания Двоичная классификация
Равные возможности Диагностика причин вредных воздействий распределения и качества обслуживания Двоичная классификация
Потери ограниченной группы Устранение вредного воздействие качества обслуживания Регрессия

Алгоритм устранения рисков

Пакет Fairlearn с открытым кодом предоставляет два типа алгоритмов устранения рисков несправедливости:

  • Сокращение. Эти алгоритмы принимают стандартный оценщик Машинного обучения по принципу "черного ящика" (например, модель LightGBM) и создают набор повторно обученных моделей с помощью последовательности повторно взвешенных наборов данных для обучения.

    Например, кандидаты определенного пола могут быть завышено взвешенными или занижено взвешенными, чтобы переучить модели и уменьшить различия в группах по половой принадлежности. Затем пользователи могут выбрать модель, обеспечивающую оптимальный компромисс между правильностью (или другой метрикой производительности) и различием, основанным на их бизнес-правилах и вычислениях затрат.

  • Постобработка. Эти алгоритмы принимают в качестве входных данных существующий классификатор и конфиденциальную функцию. Затем они наследуют преобразование прогнозирования классификатора, чтобы применить указанные ограничения справедливости. Главным преимуществом одного алгоритма, оптимизации порогов, является простота и гибкость, так как не требуется переучивать модель.

Алгоритм Description Задача машинного обучения Конфиденциальные функции Поддерживаемые ограничения четности Тип алгоритма
ExponentiatedGradient Сведения о справедливой классификации с использованием подхода "черный ящик" см. в статье Подход сокращения к справедливой классификации. Двоичная классификация Категориальный Демографическое равенство, уравнивание шансов Сокращение
GridSearch Подход "черный ящик" описан в статье Подход сокращения к справедливой классификации. Двоичная классификация Binary Демографическое равенство, уравнивание шансов Сокращение
GridSearch Подход "черный ящик", при котором реализуется вариант поиска в сетке справедливой регрессии с помощью алгоритма для потери ограниченной группы, описан в статье Справедливая регрессия. Количественные определения и алгоритмы на основе сокращения. Регрессия Binary Потери ограниченной группы Сокращение
ThresholdOptimizer Сведения о постобработке на основе алгоритма см. в статье Равенство возможностей в контролируемом обучении. Этот метод принимает в качестве входных данных существующий классификатор и признак, требующий особого обращения. Затем он наследует монотонное преобразование прогнозирования классификатора, чтобы применить указанные ограничения объективности. Двоичная классификация Категориальный Демографическое равенство, уравнивание шансов Последующая обработка

Следующие шаги