Разработка ответственных приложений и функций ИИ в Windows
В этом документе представлен обзор рекомендуемых рекомендаций по разработке, используемых при создании приложений и функций в Windows с генерируемым искусственным интеллектом.
Рекомендации по ответственной разработке созданных приложений и функций ИИ в Windows
Каждая команда корпорации Майкрософт следует основным принципам и методикам ответственного создания и отправки ИИ, включая Windows. Дополнительные сведения о подходе Корпорации Майкрософт к ответственной разработке см. в первом ежегодном отчете о прозрачности ИИ. Windows следует базовым основам разработки RAI — управление, сопоставление, измерение и управление ими , которые выровнены с Национальным институтом стандартов и технологий (NIST) AI Risk Management Framework.
Управление — политики, практики и процессы
Стандарты являются основой процессов управления и соответствия требованиям. Корпорация Майкрософт разработала свой собственный стандарт ответственного ИИ, включая шесть принципов , которые можно использовать в качестве отправной точки для разработки рекомендаций по ответственному ИИ. Мы рекомендуем создать принципы ИИ в конце жизненного цикла разработки, а также в процессы и рабочие процессы для соответствия законам и нормативным требованиям в области конфиденциальности, безопасности и ответственного ИИ. Это касается ранней оценки каждой функции ИИ, используя такие инструменты, как контрольный список и рекомендации по взаимодействию с искусственным интеллектом — Microsoft Research, для мониторинга и проверки эталонов ИИ, тестирования и процессов с помощью таких инструментов, как системы показателей ответственного ИИ, для общедоступной документации в возможности и ограничения функций ИИ, а также раскрытия и контроля пользователей и элементов управления. Обратите внимание, согласие, сбор и обработка информации и т. д. в соответствии с применимыми законами о конфиденциальности, нормативными требованиями и политиками.
Карта — определение риска
Ниже приведены рекомендации по выявлению рисков.
Сквозное тестирование
Red-teaming: Термин red teaming исторически описал систематические состязательные атаки для тестирования уязвимостей безопасности. С ростом крупных языковых моделей (LLM) термин расширился за рамки традиционной кибербезопасности и развивался в общем использовании, чтобы описать множество видов проверки, тестирования и атаки систем искусственного интеллекта. При использовании LLM доброкачественное и состязательное использование может создавать потенциально вредные выходные данные, которые могут принимать множество форм, включая вредное содержимое, например речь ненависти, подстрекательство или славение насилия, или сексуального содержимого.
Оценка модели. Помимо сквозного тестирования, важно также оценить саму модель.
Карточка модели. Для общедоступных моделей, таких как huggingFace, вы можете проверить карточку модели каждой модели в качестве удобной ссылки, чтобы понять, подходит ли модель для вашего варианта использования. Дополнительные сведения о карточках моделей.
Ручное тестирование: люди, выполняющие пошаговые тесты без сценариев, являются важным компонентом оценки модели, которая поддерживает...
Измерение хода выполнения по небольшому набору приоритетных вопросов. При устранении конкретных последствий наиболее продуктивно проверять ход выполнения вручную с небольшим набором данных до тех пор, пока вред больше не будет наблюдаться перед переходом к автоматическому измерению.
Определение и создание отчетов метрик до тех пор, пока автоматическое измерение не будет достаточно надежным для использования только.
Периодически проверяйте качество автоматического измерения.
Автоматическое тестирование: автоматическое тестирование также является важным компонентом оценки модели, которая поддерживает...
Измерение в большом масштабе с увеличением охвата, чтобы обеспечить более полные результаты.
Текущее измерение для отслеживания любой регрессии по мере развития системы, использования и устранения рисков.
Выбор модели. Выберите модель, которая подходит для вашей цели и обучите себя понимать ее возможности, ограничения и потенциальные проблемы безопасности. При тестировании модели убедитесь, что она создает результаты, соответствующие вашему использованию. Чтобы приступить к работе, источники моделей Майкрософт (и не microsoft/открытый код) включают:
Мера. Оценка рисков и устранение рисков
Рекомендуемые методики:
Назначьте Content Moderator: Content Moderator проверяет текст, изображение и видеоматериалы для материалов, которые потенциально оскорбительны, рискованные или нежелательные в содержимом. Дополнительные сведения: введение в Content Moderator (Обучение Microsoft Learn).
Используйте фильтры безопасности содержимого: этот ансамбль моделей классификации с несколькими классами обнаруживает четыре категории вредного содержимого (насилие, ненависть, сексуальность и самоповредение) на четырех уровнях серьезности соответственно (безопасный, низкий, средний и высокий). Дополнительные сведения. Настройка фильтров содержимого с помощью Службы Azure OpenAI.
Применение мета-запроса: мета-запрос — это системное сообщение, включенное в начало запроса и используется для создания модели с контекстом, инструкциями или другими сведениями, соответствующими вашему варианту использования. Эти инструкции используются для руководства по поведению модели. Дополнительные сведения: создание эффективных охранников с помощью метапроигрывательного или системного проектирования сообщений.
Использование блок-списков. Это блокирует использование определенных терминов или шаблонов в запросе. Дополнительные сведения. Использование списка блокировок в Azure OpenAI.
Знакомство с происхождением модели: Прованс является историей владения моделью, или кто-где- когда, и очень важно понимать. Кто собрал данные в модели? Кто относится к данным? Какой тип данных используется? Где были собраны данные? Когда были собраны данные? Зная, откуда пришли данные модели, вы можете оценить его качество, надежность и избежать любого неэтичного, несправедливого, предвзятого или неточного использования данных.
Используйте стандартный конвейер: используйте один конвейер con режим палатки ration, а не вытягивание фрагментов частей. Дополнительные сведения: общие сведения о конвейерах машинного обучения.
Применение рисков пользовательского интерфейса. Это обеспечивает важную ясность для пользователя о возможностях и ограничениях функции на основе искусственного интеллекта. Чтобы помочь пользователям и обеспечить прозрачность вашей функции, вы можете:
Поощряйте пользователей изменять выходные данные перед принятием их
Выделение потенциальных неточностей в выходных данных искусственного интеллекта
Раскрытие роли ИИ в взаимодействии
Ссылки и источники на Cite
Ограничение длины входных и выходных данных при необходимости
Предоставление структуры входных или выходных данных— запросы должны соответствовать стандартному формату
Подготовьте предварительно определенные ответы для спорных запросов.
Управление — устранение рисков ИИ
Рекомендации по устранению рисков искусственного интеллекта:
Мониторинг злоупотреблений: эта методология обнаруживает и устраняет экземпляры повторяющегося содержимого и (или) поведения, которые предполагают, что служба была использована таким образом, что может нарушать Кодекс поведения или другие применимые условия продукта. Дополнительные сведения: мониторинг злоупотреблений.
Поэтапное доставку: медленно развертывайте решение ИИ для обработки входящих отчетов и проблем.
План реагирования на инциденты: для каждого риска с высоким приоритетом оцените, что произойдет и сколько времени потребуется для реагирования на инцидент, и как будет выглядеть процесс реагирования.
Возможность отключить функцию или систему: предоставьте функциональные возможности, чтобы отключить функцию, если инцидент находится или произошел, что требует приостановки функциональных возможностей, чтобы избежать дальнейшего ущерба.
Управление доступом пользователей или блокировка: разработка способа блокировки пользователей, которые неправильно используют систему.
Механизм обратной связи пользователей: потоки для обнаружения проблем на стороне пользователя.
Ответственное развертывание данных телеметрии: определение, сбор и мониторинг сигналов, указывающих на удовлетворенность пользователей или их способность использовать систему в соответствии с соответствующими законами о конфиденциальности, политиками и обязательствами. Используйте данные телеметрии для выявления пробелов и улучшения системы.
Инструменты и ресурсы
Ответственный элемент ИИ: ответственный ИИ — это подход к оценке, разработке и развертыванию систем ИИ в безопасной, надежной и этический манере. Панель инструментов ответственного искусственного интеллекта — это набор инструментов, обеспечивающий коллекцию моделей и анализа данных и пользовательских интерфейсов и библиотек, которые обеспечивают лучшее понимание систем ИИ. Эти интерфейсы и библиотеки позволяют разработчикам и заинтересованным лицам систем ИИ разрабатывать и отслеживать ИИ более ответственно и принимать более качественные действия, управляемые данными.
Отладка модели информационной панели ответственного искусственного интеллекта. Эта панель мониторинга помогает выявлять, диагностировать и устранять проблемы, используя данные для принятия обоснованных действий. Этот настраиваемый интерфейс можно использовать в различных направлениях, от анализа модели или данных целостно, до проведения глубокого погружения или сравнения по интересующим вас причинам, объяснения и возмущения прогнозов модели для отдельных экземпляров, а также информирования пользователей о бизнес-решениях и действиях. Примите решение об ответственном принятии решений ИИ.
Просмотрите Машинное обучение Azure сводку о том, что такое ответственный ИИ?
Ознакомьтесь с подходом к ответственному ИИ для Copilot в Bing.
Прочитайте статью Брэда Смита о борьбе с оскорбительным содержанием искусственного интеллекта: комплексный подход с 13 февраля 2024 года.
Использование фильтров содержимого (предварительная версия) со Службой Azure OpenAI
Планирование красной команды для больших языковых моделей (LLM) и их приложений
Системы и зависимости моделирования угроз и машинного обучения
ИИ/ML сводит к безопасности. Панель ошибок жизненного цикла разработки
Планирование сбоев естественного языка с помощью сборника схем ИИ
Разработка программного обеспечения для машинного обучения: пример
Чрезмерное использование искусственного интеллекта: обзор литературы
Анализ ошибок и создание ответственного ИИ с помощью набора средств анализа ошибок (youtube.com)
Интерпретация и описание моделей с помощью глубокого погружения IntepretML (youtube.com)