Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
В этом документе представлен обзор рекомендуемых рекомендаций по разработке, используемых при создании приложений и функций в Windows с помощью искусственного интеллекта.
Майкрософт Foundry на Windows генеративные модели ИИ, работающие на устройстве, могут помочь вам обеспечить локальные функции безопасности содержимого, такие как подсистемы классификации на устройстве для вредного содержимого и список блокировки по умолчанию. Майкрософт определяет приоритеты поддержки разработчиков для создания безопасных, надежных возможностей искусственного интеллекта с локальными моделями на Windows.
Рекомендации по ответственной разработке созданных приложений и функций ИИ на Windows
Каждая команда Майкрософт следует корным принципам и методикам для ответственного создания и доставки ИИ, включая Windows. Дополнительные сведения о подходе Майкрософт к ответственной разработке см. в отчете о прозрачности ИИ Майкрософт. Windows следует основополагающим столпам разработки RAI — управлять, сопоставлять, измерять и управлять — которые соответствуют рамке управления рисками ИИ в Национальном институте стандартов и технологий (NIST).
Управление — политики, практики и процессы
Стандарты являются основой процессов управления и соответствия требованиям. Майкрософт разработала Responsible AI Standard, включающий в себя шесть принципов, которые можно использовать в качестве отправной точки для разработки собственных рекомендаций по ответственному ИИ. Мы рекомендуем создать принципы ИИ в конце жизненного цикла разработки, а также в процессы и рабочие процессы для соответствия законам и нормативным требованиям в области конфиденциальности, безопасности и ответственного ИИ. Это касается ранней оценки каждой функции ИИ с использованием таких средств, как AI Fairness Checklist и Guidelines for Human-AI Interaction - Майкрософт Research, до мониторинга и проверки эталонных показателей ИИ, тестирования и процессов с использованием таких инструментов, как Оценочная карта ответственного ИИ, до общедоступной документации о возможностях и ограничениях функций ИИ и раскрытия информации пользователю с элементами управления — уведомление, согласие, сбор и обработка данных и т. д. в соответствии с применимыми законами о конфиденциальности, нормативными требованиями и политиками.
Карта — определение риска
Ниже приведены рекомендации по выявлению рисков.
Сквозное тестирование
Сквозное тестирование оценивает всю систему искусственного интеллекта от начала до завершения, чтобы гарантировать, что она работает в соответствии с установленными стандартами. Такой комплексный подход может включать:
Красная команда
Термин red teaming исторически описывает систематические противоборствующие атаки для тестирования уязвимостей безопасности. В последнее время термин расширялся за рамки традиционной кибербезопасности и развивался в общем использовании, чтобы описать множество видов проверки, тестирования и атаки систем искусственного интеллекта.
При использовании больших языковых моделей (LLMs) и небольших языковых моделей (SLM) как доброкачественное, так и состязательное использование могут создавать потенциально вредные выходные данные, которые могут принимать множество форм, включая ненавистнические речи, подстрекательство или славение насилия, или сексуального содержимого. Тщательный ред тиминг дает возможность протестировать вашу систему и уточнить стратегию контента, чтобы уменьшить вероятность того, что ваша система может нанести вред.
Все системы ИИ, в зависимости от их функций и целей, должны проходить тестирование силами независимой команды: как системы с высоким уровнем риска, использующие генерирующий ИИ, так и системы низкого риска, использующие негенерирующий ИИ.
Официальный ред-тиминг: независимый ред-тиминг должен быть проведен для всех систем с высоким риском, использующих генеративный ИИ с помощью больших языковых моделей (LLM). Формальное участие в "red teaming" включает привлечение специалистов извне вашей организации для участия в подобных мероприятиях.
Внутренняя команда красных: по крайней мере запланируйте внутреннюю командную группу для всех систем с низким риском, не генерирующих ИИ. Это можно сделать пользователями в вашей организации.
Узнайте больше о красной команде и о том, как оценить потребности красной команды системы: Майкрософт ИИ Red Team
Оценка модели
В рамках комплексного тестирования важно оценить саму модель.
Карточка модели: для общедоступных моделей, таких как на Hugging Face, можно проверить карточку каждой модели, чтобы удобно определить, подходит ли она для вашего использования. Дополнительные сведения о карточках моделей.
Ручное тестирование: люди, выполняющие пошаговые тесты без сценариев, являются важным компонентом оценки модели, которая поддерживает...
Измерение хода выполнения по небольшому набору приоритетных вопросов. При устранении конкретных последствий наиболее продуктивно вручную проверять прогресс с небольшим набором данных до тех пор, пока вред не будет больше наблюдаться перед переходом к автоматическому измерению.
Определение и составление отчетов о метриках до тех пор, пока автоматическое измерение не будет достаточно надежным для самостоятельного использования.
Периодически выборочно проверяйте качество автоматического измерения.
Автоматическое тестирование: автоматическое тестирование также является важным компонентом оценки модели, которая поддерживает...
Измерение в большом масштабе с увеличением охвата, чтобы обеспечить более полные результаты.
Текущее измерение для отслеживания любой регрессии по мере развития системы, использования и устранения рисков.
Выбор модели: Выберите модель, которая подходит для вашей цели и обучать себя, чтобы понять его возможности, ограничения и потенциальные проблемы безопасности. При тестировании модели убедитесь, что она создает результаты, соответствующие вашему использованию. Чтобы начать, целевые назначения для моделей Майкрософт (и для моделей с открытым кодом/не Майкрософт) включают в себя следующие:
Мера. Оценка рисков и устранение рисков
Рекомендуемые методики:
Назначьте Content Moderator: Content Moderator проверяет текст, изображение и видеоматериалы для материалов, которые потенциально оскорбительны, рискованные или нежелательные в содержимом. Дополнительные сведения: Introduction to Content Moderator (Майкрософт Learn Training).
Используйте фильтры безопасности содержимого: этот ансамбль моделей классификации с несколькими классами обнаруживает четыре категории вредного содержимого (насилие, ненависть, сексуальное и самообредение) на различных уровнях серьезности (низкий, средний и высокий). Дополнительные сведения: Как настроить фильтры содержимого с помощью Служба Azure OpenAI.
Примените мета-запрос: Мета-запрос — это системное сообщение, включенное в начало запроса и используется для создания модели с контекстом, инструкциями или другими сведениями, соответствующими вашему варианту использования. Эти инструкции используются для руководства по поведению модели. Дополнительные сведения: создание эффективных направляющих по безопасности с помощью метапромптов и системной проработки сообщений.
Используйте блок-списки: Это блокирует использование определенных терминов или шаблонов в запросе. Дополнительные сведения: Использование черного списка в Azure OpenAI.
Знакомство с происхождением модели: Происхождение — это история владения моделью, или кто-что-где-когда, и очень важно понимать. Кто собрал данные в модели? К кому относятся данные? Какой тип данных используется? Где были собраны данные? Когда были собраны данные? Зная, откуда пришли данные модели, вы можете оценить его качество, надежность и избежать любого неэтичного, несправедливого, предвзятого или неточного использования данных.
Используйте стандартный конвейер: используйте один конвейер модерации содержимого, а не собирайте части по отдельности. Дополнительные сведения: Что такое конвейеры для Машинное обучение Azure?.
Применениесмягчений пользовательского интерфейса: Это обеспечивает важную ясность для пользователя о возможностях и ограничения функции на основе искусственного интеллекта. Чтобы помочь пользователям и обеспечить прозрачность вашей функции, вы можете:
Поощряйте пользователей изменять выходные данные перед принятием их
Выделение потенциальных неточностей в выходных данных искусственного интеллекта
Раскрытие роли ИИ в взаимодействии
Цитируйте ссылки и источники
Ограничение длины входных и выходных данных при необходимости
Предоставление структуры входных или выходных данных— запросы должны соответствовать стандартному формату
Подготовьте предварительно определенные ответы для спорных запросов.
Реализуйте циклы отзывов клиентов: Поощряйте пользователей активно участвовать в циклах отзывов:
Попросите отзыв непосредственно в приложении или продукте с помощью простого механизма обратной связи, доступного в контексте в рамках взаимодействия с пользователем.
Применяйте методы социального мониторинга на каналах, которые используют ваши клиенты для начальных обсуждений вопросов, связанных с функциями, беспокойством и возможным ущербом.
Управление — устранение рисков ИИ
Рекомендации по устранению рисков искусственного интеллекта:
Мониторинг злоупотреблений: Эта методология обнаруживает и устраняет экземпляры повторяющегося содержимого и (или) поведения, которые предполагают, что служба была использована таким образом, что может нарушить кодекс поведения или другие применимые условия продукта. Дополнительные сведения: мониторинг злоупотреблений.
Поэтапная доставка: медленно внедряйте решение ИИ для обработки входящих отчётов и замечаний.
План реагирования на инциденты: для каждого риска с высоким приоритетом оцените, что произойдет и сколько времени потребуется для реагирования на инцидент, и как будет выглядеть процесс реагирования.
Возможность отключить функцию или систему: предоставьте возможность отключить функцию, если инцидент произошел или может произойти, что требует приостановки действия, чтобы избежать дальнейшего ущерба.
Управление доступом пользователей или блокировка: разработка способа блокировки пользователей, которые неправильно используют систему.
Отзывы пользователей: используйте механизмы для обнаружения проблем на стороне пользователя.
Попросите отзыв непосредственно в продукте с простым механизмом обратной связи, доступным в контексте типичного рабочего процесса.
Применяйте методы социального мониторинга на каналах, которые используют ваши клиенты для начальных обсуждений вопросов, связанных с функциями, беспокойством и возможным ущербом.
Ответственное развертывание данных телеметрии: определение, сбор и мониторинг сигналов, указывающих на удовлетворенность пользователей или их способность использовать систему в соответствии с соответствующими законами о конфиденциальности, политиками и обязательствами. Используйте данные телеметрии для выявления пробелов и улучшения системы.
Инструменты и ресурсы
Карты приложений и платформ с ИИ: Узнайте, как приложения Майкрософт для Windows, использующие искусственный интеллект, разработаны и внедрены с ответственностью. Карточки приложений обеспечивают прозрачность возможностей ИИ, предназначенных для использования, ограничений и мер безопасности для таких функций, как Майкрософт Paint, Click to Do и Windows Studio Effects. Эти ресурсы могут служить примерами для собственной документации по приложению.
Майкрософт Foundry на Windows: унифицированная, надежная и безопасная платформа, поддерживающая жизненный цикл разработчика ИИ, от выбора модели, оптимизации и развертывания в ЦП, GPU, NPU и облаке.
Инструментарий ответственного ИИ: Ответственный ИИ — это подход к оценке, разработке и развертыванию систем ИИ в безопасной, надежной и этической манере. Панель инструментов ответственного искусственного интеллекта — это набор инструментов, обеспечивающий коллекцию моделей и анализа данных и пользовательских интерфейсов и библиотек, которые обеспечивают лучшее понимание систем ИИ. Эти интерфейсы и библиотеки позволяют разработчикам и заинтересованным лицам систем ИИ разрабатывать и отслеживать ИИ более ответственно и принимать более качественные действия, управляемые данными.
Отладка модели информационной панели ответственного искусственного интеллекта. Эта панель мониторинга помогает выявлять, диагностировать и устранять проблемы, используя данные для принятия обоснованных действий. Этот настраиваемый интерфейс можно использовать в различных направлениях, от целостного анализа модели или данных до глубокого погружения или сравнения групп интересующих вас участников, объяснения прогнозов модели и их модифицирования для отдельных случаев, а также информирования пользователей о бизнес-решениях и предпринятых действиях. Пройдите тест на знание ответственного принятия решений с использованием ИИ.
Просмотрите сводку Машинное обучение Azure о том, что такое Ответственный ИИ.
Прочитайте статью Брэда Смита о борьбе с оскорбительным содержанием искусственного интеллекта: комплексный подход с 13 февраля 2024 года.
Ознакомьтесь с блогом Microsoft Security.
Обзор практик ответственного ИИ для моделей OpenAI Azure — службы Azure AI
Как использовать фильтры контента (предварительная версия) с Служба Azure OpenAI
Планирование красной команды для больших языковых моделей (LLM) и их приложений
Системы и зависимости моделирования угроз и машинного обучения
ИИ/ML переключается на безопасность. Панель ошибок жизненного цикла разработки
Планирование сбоев естественного языка с помощью сборника схем ИИ
Разработка программного обеспечения для машинного обучения: пример
Чрезмерное использование искусственного интеллекта: обзор литературы
Анализ ошибок и создание ответственного ИИ с помощью набора средств анализа ошибок (youtube.com)
InterpretML и Как объяснять модели с помощью InterpretML: глубокое погружение (youtube.com)
Объяснение Black-Box и Glass-Box в машинном обучении (youtube.com)