Понять степень ответственности при работе с искусственным интеллектом.

Завершено

В предыдущем уроке говорилось о необходимости использования ответственного подхода к разработке программного обеспечения с поддержкой ИИ с учетом этических аспектов. В этом уроке мы обсудим некоторые основные принципы ответственного использования возможностей ИИ, принятые в корпорации Майкрософт.

Справедливость

An image of scales

Системы ИИ должны обращаться со всеми людьми справедливо. Например, предположим, что вы создаете модель машинного обучения, которая будет поддерживать одобрение выдачи кредита в банке. Модель должна формировать прогнозы относительно целесообразности выдачи кредита независимо от пола, этнической принадлежности или иных факторов, которые могли бы дать отдельной группе заявителей несправедливое преимущество либо, напротив, несправедливо поставить ее в уязвимое положение.

Справедливость систем с применением машинного обучения — это очень активная область текущих исследований. Существуют некоторые программные решения для оценки, количественного измерения и устранения несправедливости в моделях с применением машинного обучения. Однако одних инструментов недостаточно для обеспечения справедливости. Учитывайте аспект справедливости с самого начала процесса разработки приложения. Тщательный анализ данных для обучения поможет убедиться, что они репрезентативны для всех потенциально затронутых субъектов. А оценка прогностической эффективности для определенных групп пользователей должна применяться на протяжении всего жизненного цикла разработки.

Надежность и защита

An image of a shield

Системы AI должны работать надежно и безопасно. Например, рассмотрим программную систему на базе искусственного интеллекта для беспилотного автомобиля или модель машинного обучения, которая выполняет диагностику симптомов пациентов и рекомендует назначение препаратов. Ненадежная работа таких систем может привести к существенному риску для жизни человека.

Как и при разработке любого другого программного обеспечения, при разработке программных приложений на основе ИИ должно проводиться тщательное тестирование и контроль управления развертыванием, чтобы гарантировать, что все компоненты работают должным образом перед выпуском. Кроме того, разработчики программного обеспечения должны учитывать вероятностный характер моделей машинного обучения и применять соответствующие пороговые значения при оценке достоверности прогнозов.

Конфиденциальность и безопасность

An image of a padlock

Системы AI должны быть безопасными и обеспечивать конфиденциальность. Модели машинного обучения, на которых основаны системы искусственного интеллекта, создаются на основе больших объемов данных, которые могут содержать личные сведения. Мы обязаны обеспечить защиту конфиденциальности таких сведений. Даже после того, как модели обучены и система запущена в производство, они используют новые данные для прогнозирования или выполнения действий, которые могут быть связаны с вопросами конфиденциальности или безопасности. Поэтому, для защиты данных и содержимого клиентов необходимо применять соответствующие меры безопасности.

Инклюзивность

An image of a group of people

Системы ИИ должны давать людям равные возможности и обеспечивать их вовлеченность. Искусственный интеллект должен давать преимущества всем членам общества независимо от их физического состояния, пола, сексуальной ориентации, этнической принадлежности и других факторов.

Одним из способов оптимизации инклюзивности является проверка того, что проектирование, разработка и тестирование вашего приложения включают в себя входные данные как можно более разнообразной группы людей.

Transparency

An image of an eye

Системы ИИ должны быть понятны. Пользователи должны полностью понимать назначение системы, принципы ее работы и ожидаемые ограничения.

Например, когда система ИИ основана на модели машинного обучения, вы должны, как правило, информировать пользователей о факторах, которые могут повлиять на точность ее прогнозов, таких как количество случаев, используемых для обучения модели, или конкретные функции, которые имеют наибольшее влияние на прогнозы. Вам также следует поделиться информацией об оценке достоверности прогнозов.

Когда приложение ИИ использует личные данные, например система распознавания лиц, которая делает фото людей, чтобы распознать их, необходимо объяснить пользователю, как его данные используются и хранятся, и кто имеет к ним доступ.

Отчетность

An image of a handshake

Люди должны нести ответственность за системы ИИ. Несмотря на то, что многие системы искусственного интеллекта работают автономно, в конечном итоге именно разработчики, которые обучили и проверили используемые модели и определили логику, которая использует решения на основе прогнозных моделей, отвечают за то, что система в целом соответствует требованиям ответственности. Чтобы помочь в достижении этой цели, конструкторы и разработчики решения на основе ИИ должны работать в рамках корпоративных и организационных принципов, которые гарантируют, что решение соответствует четко определенным этическим и юридическим стандартам.

Примечание.

Корпорация Майкрософт выпустила значимые обновления для стандарта Ответственного использования ИИ в июне 2022 года. В рамках данного процесса мы обновили подход к распознаванию лиц, включая новую политику ограниченного доступа для некоторых функций в качестве защиты ответственного использования. Вы можете подать заявку на этот ограниченный доступ, чтобы включить эти функции для своего приложения.

Дополнительные сведения о принципах ответственности можно найти на странице веб-сайта, содержащей информацию об ответственности при использовании искусственного интеллекта в корпорации Майкрософт.