Серия

Как проверить модели на справедливость с помощью Fairlearn

Присоединяйтесь к нам, чтобы узнать о нашем открытый код набор средств справедливости машинного обучения, Fairlearn, который позволяет разработчикам систем искусственного интеллекта оценить справедливость своих систем и снизить все наблюдаемые проблемы справедливости. Fairlearn фокусируется на негативных последствиях для групп людей, таких как те, которые определены с точки зрения расы, пола, возраста или состояния инвалидности.
Существует два компонента Fairlearn: первая — это панель мониторинга оценки, с высокоуровневыми и подробными представлениями для оценки негативного влияния групп. Второй — это набор стратегий для устранения проблем справедливости. Эти стратегии легко внедрить в существующие конвейеры машинного обучения. Вместе эти компоненты позволяют специалистам по обработке и анализу данных и бизнес-лидерам перемещаться по любым компромиссам между справедливостью и производительностью, а также выбирать стратегию устранения рисков, которая лучше всего соответствует их потребностям.