Модель общей ответственности искусственного интеллекта (ИИ)

При рассмотрении и оценке интеграции с поддержкой ИИ важно понимать общую модель ответственности и задачи, которые обрабатываются платформой ИИ или поставщиком приложений, и какие задачи вы обрабатываете. Обязанности рабочей нагрузки зависят от того, основана ли интеграция ИИ на основе программного обеспечения как службы (SaaS), платформы как услуги (PaaS) или инфраструктуры как службы (IaaS).

Разделение ответственности

Как и в облачных службах, у вас есть варианты реализации возможностей искусственного интеллекта для вашей организации. В зависимости от выбранного варианта вы несете ответственность за различные части необходимых операций и политик, необходимых для безопасного использования ИИ.

На следующей схеме показаны области ответственности между вами и Корпорацией Майкрософт в соответствии с типом развертывания.

Diagram showing AI responsibility zones.

Общие сведения об уровне искусственного интеллекта

Приложение с поддержкой искусственного интеллекта состоит из трех уровней функциональных возможностей, которые объединяют задачи, выполняемые вами или поставщиком ИИ. Обязанности по безопасности обычно находятся у тех, кто выполняет задачи, но поставщик ИИ может выбрать предоставление безопасности или других элементов управления в качестве варианта конфигурации для вас соответствующим образом. К этим трем уровням относятся:

Платформа на базе искусственного интеллекта

Уровень платформы ИИ предоставляет возможности ИИ для приложений. На уровне платформы необходимо создать и защитить инфраструктуру, которая выполняет модель ИИ, обучающие данные и определенные конфигурации, которые изменяют поведение модели, такие как весы и смещения. Этот уровень обеспечивает доступ к функциям через API, которые передают текст, известный как Метапроимпт для обработки модели ИИ, а затем возвращает созданный результат, известный как запрос-ответ.

Вопросы безопасности платформы ИИ. Чтобы защитить платформу ИИ от вредоносных входных данных, необходимо создать систему безопасности, чтобы отфильтровать потенциально опасные инструкции, отправленные в модель ИИ (входные данные). Так как модели ИИ создаются, существует также потенциал, что некоторые вредные содержимое могут быть созданы и возвращены пользователю (выходные данные). Любая система безопасности должна сначала защитить от потенциально вредных входных и выходных данных многих классификаций, включая ненависть, тюрьмы и другие. Эти классификации, скорее всего, будут развиваться с течением времени на основе знаний модели, языкового стандарта и отрасли.

Корпорация Майкрософт имеет встроенные системы безопасности для предложений PaaS и SaaS:

Приложение искусственного интеллекта

Приложение ИИ обращается к возможностям ИИ и предоставляет службу или интерфейс, который использует пользователь. Компоненты этого слоя могут отличаться от относительно простого до очень сложного, в зависимости от приложения. Простейшие автономные приложения ИИ служат интерфейсом для набора API, принимающего текстовый запрос пользователя и передавая эти данные в модель для ответа. Более сложные приложения ИИ включают возможность приземления пользовательского запроса с дополнительным контекстом, включая уровень сохраняемости, семантический индекс или подключаемые модули, позволяющие получить доступ к дополнительным источникам данных. Расширенные приложения ИИ также могут интерфейсы с существующими приложениями и системами. Существующие приложения и системы могут работать между текстом, звуком и изображениями для создания различных типов содержимого.

Вопросы безопасности приложений ИИ. Система безопасности приложений должна быть создана для защиты приложения ИИ от вредоносных действий. Система безопасности обеспечивает глубокую проверку содержимого, используемого в метапроимпте, отправленном в модель ИИ. Система безопасности также проверяет взаимодействие с любыми подключаемыми модулями, соединителями данных и другими приложениями ИИ (известными как оркестрация ИИ). Один из способов включить это в собственное приложение ИИ на основе IaaS/PaaS заключается в использовании службы содержимого ИИ Azure Сейф ty. Другие возможности доступны в зависимости от ваших потребностей.

Использование ИИ

Уровень использования ИИ описывает, как возможности ИИ в конечном итоге используются и используются. Createive AI предлагает новый тип пользовательского или компьютерного интерфейса, который принципиально отличается от других компьютерных интерфейсов, таких как API, командная строка и графические пользовательские интерфейсы (GUIs). Интерфейс создания ИИ является интерактивным и динамическим, что позволяет настроить возможности компьютера на пользователя и их намерения. Интерфейс генерного искусственного интеллекта контрастирует с предыдущими интерфейсами, которые в основном вынуждают пользователей изучать системный дизайн и функциональные возможности и настраивать его. Это взаимодействие позволяет пользователям вводить данные, а не конструкторы приложений, иметь высокий уровень влияния на выходные данные системы, что делает защиту безопасности критически важным для защиты людей, данных и бизнес-ресурсов.

Вопросы безопасности использования ИИ. Защита использования ИИ аналогична любой компьютерной системе, так как она зависит от гарантий безопасности для управления удостоверениями и доступом, защиты устройств и мониторинга, защиты данных и управления, административных элементов управления и других элементов управления.

Больше внимания требуется для поведения пользователей и подотчетности из-за повышенного влияния пользователей на выходные данные систем. Важно обновить допустимые политики использования и обучить пользователей разнице стандартных ИТ-приложений с приложениями, включенными ИИ. Они должны включать в себя конкретные рекомендации по ИИ, связанные с безопасностью, конфиденциальностью и этикой. Кроме того, пользователям следует обучать атаки на основе ИИ, которые можно использовать для их обмана с убедительным поддельным текстом, голосами, видео и многое другое.

В следующих типах атак определены определенные типы атак ИИ:

Жизненный цикл безопасности

Как и в случае с безопасностью для других типов возможностей, важно планировать полный подход. Полный подход включает людей, процессы и технологии в течение полного жизненного цикла безопасности: определение, защита, обнаружение, реагирование, восстановление и управление. Любой разрыв или слабость в этом жизненном цикле может иметь следующие возможности:

  • Не удается защитить важные ресурсы
  • Легко предотвратимые атаки
  • Не удается обработать атаки
  • Не удалось быстро восстановить критически важные для бизнеса службы
  • Применение элементов управления несогласованно

Чтобы узнать больше о уникальной природе тестирования угроз ИИ, ознакомьтесь с тем, как Microsoft AI Red Team создает будущее более безопасного ИИ.

Настройка перед настройкой

Корпорация Майкрософт рекомендует организациям начинать с подходов на основе SaaS, таких как модель Copilot для их первоначального внедрения ИИ и для всех последующих рабочих нагрузок ИИ. Это сводит к минимуму уровень ответственности и опыта вашей организации, чтобы обеспечить проектирование, эксплуатацию и безопасность этих высоко сложных возможностей.

Если текущие возможности "вне полки" не соответствуют конкретным потребностям рабочей нагрузки, вы можете применить модель PaaS с помощью служб ИИ, таких как Служба Azure OpenAI, для удовлетворения этих требований.

Создание пользовательской модели должно приниматься только организациями с глубоким опытом в области обработки и анализа данных, безопасности, конфиденциальности и этических соображений искусственного интеллекта.

Чтобы помочь вам перенести ИИ в мир, корпорация Майкрософт разрабатывает решения Copilot для каждого из основных решений для повышения производительности: от Bing и Windows до GitHub и Office 365. Корпорация Майкрософт разрабатывает решения полного стека для всех типов сценариев производительности. Они предлагаются в качестве решений SaaS. Встроенный в пользовательский интерфейс продукта, он настраивается, чтобы помочь пользователю с конкретными задачами для повышения производительности.

Корпорация Майкрософт гарантирует, что каждое решение Copilot спроектировано в соответствии с нашими строгими принципами управления ИИ.

Следующие шаги

Узнайте больше о требованиях к разработке продуктов Майкрософт для ответственного ИИ в Microsoft Responsible AI Standard.

Узнайте о общих обязанностях по облачным вычислениям.