Поделиться через


Вопросы и ответы о безопасности и конфиденциальности данных Copilot для Dynamics 365 и Power Platform

Copilot для Dynamics 365 и Power Platform функции следуют набору основных правил безопасности и конфиденциальности, а также Microsoft Стандарту ответственного ИИ. Данные Dynamics 365 и Power Platform защищены комплексом соответствующих передовым отраслевым стандартам механизмов обеспечения безопасности, конфиденциальности и соблюдения нормативных требований.

Система Copilot основана на Службе Microsoft Azure OpenAI и работает полностью в пределах облака Azure. Azure OpenAI обеспечивает региональную доступность и фильтрацию контента в соответствии с принципами ответственного применения ИИ. Система Copilot использует модели OpenAI со всеми возможностями обеспечения безопасности, существующими в Microsoft Azure. OpenAI — это независимая организация. Мы не передаем ваши данные OpenAI.

Функции Copilot доступны не на всех языках и не во всех географических регионах Azure. В зависимости от того, где размещена ваша среда, для их использования может потребоваться разрешить перемещение данных между регионами. Дополнительные сведения см. в статьях, перечисленных в разделе Перемещение данных между географическими регионами.

Что происходит с моими данными, когда я использую Copilot?

Вы контролируете свои данные. Microsoft не передает ваши данные третьим лицам, если вы не дали на это разрешение. Кроме того, мы не используем ваши данные (данные клиента) для обучения Copilot и входящих в состав Copilot функций ИИ, если вы не предоставили согласие на это. Copilot соблюдает существующие разрешения и политики в отношении данных, и ответы, которые Copilot для вас генерирует, основаны только на данных, к которым у вас лично есть доступ. Дополнительные сведения о том, как вы можете управлять своими данными и как они обрабатываются, см. в статьях, перечисленных в разделе Copilot в приложениях Dynamics 365 и Power Platform.

Мониторинг на предмет злоупотребления системой или ее вредоносного использования Copilot осуществляет без сохранения данных. Мы не храним входные и выходные данные Copilot и не подвергаем их проверке с участием человека в целях мониторинга на предмет злоупотреблений.

Как Copilot использует мои данные?

Каждая служба или функция использует Copilot на основе данных, которые вы предоставили или настроили для обработки системой Copilot.

Ваши запросы (входные данные) и ответы Copilot (выходные данные или результаты):

  • НЕ доступны другим клиентам.

  • НЕ используются для обучения или улучшения каких-либо сторонних продуктов или служб (например, моделей OpenAI).

  • НЕ используются для обучения или улучшения Microsoft моделей ИИ, если только администратор вашего арендатора не согласится поделиться с нами данными. Узнайте больше на странице FAQ о дополнительном обмене данными для функций Copilot AI в Dynamics 365 и Power Platform.

Узнайте больше о конфиденциальности и безопасности данных службы Azure OpenAI . Чтобы узнать больше о том, как Microsoft защищает и использует ваши данные в целом, прочитайте наше Заявление о конфиденциальности.

Куда идут мои данные?

Microsoft работает на доверии. Мы стремимся к безопасности, конфиденциальности и соблюдению норм во всем, что делаем, и к использованию ИИ подходим аналогичным образом. Данные клиентов, включая входные и выходные данные Copilot, хранятся в пределах Microsoft границы доверия в облаке.

В некоторых сценариях, например, при использовании функций, поддерживаемых Bing и сторонними плагинами Copilot, данные клиентов могут передаваться за пределы Microsoft границы доверия Cloud.

Может ли Copilot получать доступ к зашифрованному контенту?

То, какие данные предоставляются в распоряжение Copilot, зависит от уровня доступа текущего пользователя. Если у пользователя есть доступ к зашифрованным данным в Dynamics 365 и Power Platform и пользователь предоставляет их Copilot, Copilot сможет осуществлять к ним доступ.

Как Copilot защищает данные клиентов?

Microsoft обладает уникальными возможностями для предоставления ИИ-решений корпоративного уровня. Система Copilot работает на платформе Службы Azure OpenAI и соответствует нашим существующим обязательствам перед клиентами в отношении конфиденциальности, безопасности и соблюдения требований регуляторов.

  • Создан на основе комплексного подхода Microsoft к безопасности, конфиденциальности и соблюдению нормативных требований. Copilot интегрирован в такие Microsoft сервисы, как Dynamics 365 и Power Platform , и наследует их политики и процессы безопасности, конфиденциальности и соответствия, такие как многофакторная аутентификация и границы соответствия.

  • Несколько видов защиты для обеспечения безопасности организационных данных. Для шифрования организационного контента при хранении и при передаче используются технологии на стороне службы, что представляет собой надежную меру безопасности. Подключения защищены с помощью Transport слой Security (TLS), а передача данных между Dynamics 365, Power Platform и Azure OpenAI происходит по Microsoft магистральной сети, что гарантирует как надежность, так и безопасность. Узнайте больше о шифровании в Microsoft облаке.

  • Архитектура, направленная на защиту данных как на уровне клиента (арендатора), так и на уровне среды. Мы знаем, что одним из опасений наших клиентов являются потенциальные утечки данных. Microsoft Модели ИИ не обучаются и не обучаются на данных ваших арендаторов или ваших подсказках, если только администратор вашего арендатора не дал согласие на предоставление нам данных. В пределах своих сред вы можете управлять доступом путем настройки разрешений. Механизмы проверки подлинности и авторизации обеспечивают сегрегацию запросов к общей модели между клиентами (арендаторами). Copilot использует данные, доступ к которым есть только у вас, на основе той же технологии, которую мы годами используем для защиты данных клиентов.

Всегда ли ответы Copilot содержат точные факты?

Как и в случае с любым генеративным ИИ, ответы Copilot не являются на 100% фактическими. Несмотря на то что мы продолжаем совершенствовать ответы на запросы, требующие привязки к фактам, вы должны по-прежнему руководствоваться собственными суждениями и проверять результаты, прежде чем отправлять их другим людям. Copilot предоставляет полезные черновики и сводки, чтобы помочь вам успевать больше, но это полностью автоматическая система. У вас всегда есть возможность проверить сгенерированный ИИ контент.

Наши специалисты работают над предупреждением таких проблем, как недостоверная информация и дезинформация, блокировка контента, нарушение безопасности данных, а также распространение опасного или дискриминационного контента, в соответствии с нашими принципами ответственного применения ИИ.

Кроме того, в пользовательском интерфейсе предусмотрены информационные элементы, помогающие пользователям ответственно использовать генерируемый ИИ контент и предлагаемые действия.

  • Инструкции и подсказки. Когда вы используете Copilot, подсказки и другие инструктивные элементы напоминают вам о необходимости просматривать и редактировать ответы, а также вручную проверять факты, данные и текст на предмет точности, прежде чем использовать сгенерированный ИИ контент.

  • Цитируемые источники. Когда это возможно, Copilot цитирует свои источники информации — как открытые, так и внутренние — так что вы можете ознакомиться с ними самостоятельно, чтобы проверить точность ответов Copilot.

Дополнительные сведения см. в вопросах и ответах об ответственном применении ИИ для своего продукта на Microsoft Learn.

Как Copilot блокирует опасный контент?

Служба Azure OpenAI включает в себя систему фильтрации контента, которая работает в связке с базовыми моделями. Модели фильтрации контента были обучены специально для распознавания формулировок, подпадающих под категории "Ненависть и справедливость", "Контент сексуального характера", "Насилие" и "Причинение себе вреда", и протестированы на различных языках. Система работает путем прогона как входного запроса, так и ответа через модели классификации, предназначенные для выявления и блокирования вывода опасного контента.

Под опасным контентом категории "Ненависть и справедливость" понимается любой контент, в котором присутствуют уничижительные или дискриминационные высказывания на основе таких атрибутов, как расовая, этническая или национальная принадлежность, гендерная идентичность и гендерное самовыражение, сексуальная ориентация, религия, иммиграционный статус, инвалидность, внешность и размеры тела. Под справедливостью понимается обеспечение того, чтобы системы ИИ относились ко всем группам людей справедливо, не способствуя существующему социальному неравенству. Контент сексуального характера включает в себя упоминание репродуктивных органов человека; романтических отношений; действий, описываемых в эротических терминах; беременности; физических сексуальных актов, включая те, которые изображаются как надругательство или принудительные акты сексуального насилия; проституции; порнографии, а также жестокого обращения. Под насилием понимаются высказывания, связанные с физическими действиями, направленными на причинение вреда или убийства, включая действия, оружие и связанные с ними сущности. Категория "Причинение себе вреда" предполагает упоминание намеренных действий, направленных на нанесение себе увечий или самоубийство.

Узнайте больше о OpenAI фильтрации контента Azure.

Блокирует ли Copilot внедрение запросов (джейлбрейк-атаки)?

Атаки с джейлбрейком представляют собой пользовательские подсказки, призванные спровоцировать генеративную модель искусственного интеллекта на поведение, которому она не была обучена, или на нарушение правил, которым ей было сказано следовать. Реализация защиты от внедрения запросов является обязательной для всех служб в Dynamics 365 и Power Platform. Узнайте больше об атаках с использованием джейлбрейка и о том, как использовать Azure AI Content Safety для их обнаружения.

Блокирует ли Copilot непрямое внедрение запросов (непрямые атаки)?

Непрямые атаки, также называемые атаками путем непрямого внедрения запросов или атаками путем междоменного внедрения запросов, являются потенциальной уязвимостью, когда третьи стороны помещают вредоносные инструкции в документы, к которым система генеративного ИИ может осуществлять доступ и которые она может обрабатывать. Реализация защиты от непрямого внедрения запросов является обязательной для всех служб в Dynamics 365 и Power Platform. Узнайте больше о косвенных атаках и о том, как использовать Azure AI Content Safety для их обнаружения.

Как Microsoft проверяется и подтверждается качество Copilot, включая защиту от быстрых инъекций и обоснованные ответы?

Каждый новый продукт Copilot и каждая итерации языковой модели должны пройти внутреннюю проверку на соответствие принципам ответственного применения ИИ, прежде чем они будут выпущены на рынок. Перед выпуском мы проводим процедуру с участием "красных команд" (команд, симулирующих атаку противника с выявлением и использованием слабых мест, чтобы помочь организации улучшить свои механизмы защиты) для оценки потенциальных рисков в сценариях с опасным контентом, джейлбрейком и обоснованностью ответов. После выпуска мы используем автоматизированное тестирование, а также средства ручной и автоматизированной оценки для определения качества ответов Copilot.

Как Microsoft улучшить базовую модель и измерить улучшения в обоснованных ответах?

В контексте ИИ, в особенности ИИ на основе языковых моделей вроде той, на базе которой работает Copilot, обоснование помогает ИИ генерировать ответы, которые являются более релевантными и имеют смысл в реальном мире. Обоснование помогает гарантировать, что ответы ИИ основаны на надежной информации и являются максимально точными и релевантными. Метрики обоснования ответов позволяют оценить, насколько точно факты, изложенные в предоставленном модели для заземления контенте, представлены в окончательном ответе.

Для улучшения базовых моделей, таких как GPT-4, используются методики дополнения ответа результатами поиска (Retrieval Augmented Generation, RAG). Эти методики позволяют моделям использовать для понимания сценария пользователя дополнительную информацию помимо той, которая использовалась для обучения модели. Принцип работы RAG заключается в определении данных, релевантных для сценария, аналогично тому, как поисковая система определяет веб-страницы, имеющие отношение к словам в поисковом запросе пользователя. Для определения того, какой контент имеет отношение к запросу пользователя и должен использоваться для обоснования ответа, применяется несколько подходов. Эти подходы включают поиск по различным типам индексов, например инвертированным индексам, с использованием таких приемов извлечения информации, как сопоставление терминов, или векторным индексам с использованием сравнения векторных расстояний для определения семантического сходства. После выявления релевантных документов RAG передает данные модели вместе с текущим разговором, предоставляя модели дополнительный контекст для понимания уже имеющейся у нее информации и генерации ответа, обоснованного с точки зрения происходящего в реальном мире. Наконец, RAG проверяет ответ, чтобы убедиться, что он соответствует исходному предоставленному модели контенту. Функции генеративного ИИ Copilot предполагают несколько способов использования RAG. Одним из примеров является чат с данными, когда для обоснования ответов чат-бота используются собственные источники данных клиента.

Другая методика улучшения базовых моделей называется тонкой настройкой. Большой набор данных, состоящий из пар "запрос-ответ", предоставляется базовой модели с целью дополнения изначально использовавшихся для ее обучения материалов новыми образцами, ориентированными на конкретный сценарий. Такую модель затем можно развернуть в качестве отдельной модели, тонко настроенной под этот сценарий. В то время как обоснование имеет своей целью сделать знания ИИ релевантными для реального мира, назначение тонкой настройки — сделать знания ИИ более специфическими применительно к определенной задачи или предметной области. Microsoft использует тонкую настройку несколькими способами. Например, мы используем создание потоков Power Automate по описаниям на естественном языке, предоставляемым пользователями.

Соответствует ли Copilot нормативным требованиям?

Microsoft Copilot является частью экосистемы Dynamics 365 и Power Platform и удовлетворяет тем же требованиям в отношении нормативного соответствия. Для получения дополнительной информации о нормативных сертификатах Microsoft услуг перейдите на портал доверия услуг. Кроме того, Copilot соответствует нашим обязательствам в отношении ответственного применения ИИ, осуществляемым на практике посредством нашего Стандарта ответственного применения ИИ. По мере развития регулирования в сфере ИИ Microsoft продолжает адаптироваться и реагировать на новые требования.

Узнайте больше о доступности Dynamics 365, Power Platform и Copilot, местоположении данных клиентов и соответствии глобальным, региональным и отраслевым требованиям к управлению данными.

Подробнее...

Copilot в приложениях Dynamics 365 и Power Platform

Товар Функция Требуются ли управляемые среды? Как отключить функцию
AI Builder Сценарии в предварительная версия нет Сценарии в предварительная версия
Copilot Studio Общие знания ИИ нет Copilot Studio безопасность и управление
Copilot Studio Создавайте и редактируйте темы с помощью Copilot нет Copilot Studio безопасность и управление
Copilot Studio Генеративные действия нет Copilot Studio безопасность и управление
Copilot Studio Генеративные ответы нет Copilot Studio безопасность и управление
Dynamics 365 Business Central Все (полный список см. на aka.ms/bcAI) нет Активировать функции
Dynamics 365 Customer Insights - Data Создание сегментов с помощью Copilot для Customer Insights - Data (предварительная версия) нет У Customer Insights - Data свой собственный флаг для всех используемых в этой продукте функций Copilot на базе Azure OpenAI.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Data
Dynamics 365 Customer Insights - Data Обзор отчета о подготовке данных (предварительная версия) нет У Customer Insights - Data свой собственный флаг для всех используемых в этой продукте функций Copilot на базе Azure OpenAI.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Data
Dynamics 365 Customer Insights - Data Получите ответы на вопросы о возможностях Copilot (предварительная версия) нет У Customer Insights - Data свой собственный флаг для всех используемых в этой продукте функций Copilot на базе Azure OpenAI.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Data
Dynamics 365 Customer Insights (данные) Общайтесь с данными, используя Copilot в Customer Insights нет У Customer Insights - Data свой собственный флаг для всех используемых в этой продукте функций Copilot на базе Azure OpenAI.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Data
Dynamics 365 Customer Insights - Data Просмотреть конфигурацию системы нет У Customer Insights - Data свой собственный флаг для всех используемых в этой продукте функций Copilot на базе Azure OpenAI.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot поможет вам учиться и делать больше (обзор) нет Доступность данного помощника в вашей среде определяется параметрами администрирования Power Platform. Узнайте, как добавить Copilot для приложений на основе моделей.


Эта возможность называется «app copilot in Customer Insights - Journeys» и именно поэтому она включена в Power Platform центре администрирования. Подробнее: Вопросы и ответы об ответственном применении ИИ
Dynamics 365 Customer Insights - Journeys Создавайте путешествия с помощью ИИ нет У Customer Insights - Journeys свои собственные флаги для функций Copilot.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Обновите и усовершенствуйте свое сообщение нет У Customer Insights - Journeys свои собственные флаги для функций Copilot.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Оформляйте свои электронные письма с помощью тем, поддерживаемых искусственным интеллектом нет У Customer Insights - Journeys свои собственные флаги для функций Copilot.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Нацельтесь на нужных клиентов с помощью помощи с запросами

нет У Customer Insights - Journeys свои собственные флаги для функций Copilot.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Используйте ИИ для ускорения создания электронной почты нет У Customer Insights - Journeys свои собственные флаги для функций Copilot.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Используйте изображения в своем контенте нет У Customer Insights - Journeys свои собственные флаги для функций Copilot.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Journeys
Dynamics 365 Customer Service Написать электронное письмо нет Управление функциями Copilot в обслуживание клиентов
Dynamics 365 Customer Service Написать чат ответ нет Управление функциями Copilot в обслуживание клиентов
Dynamics 365 Customer Service Ответить на вопросы нет Управление функциями Copilot в обслуживание клиентов
Dynamics 365 Customer Service Подведите итоги дела и беседы нет Управление функциями Copilot в обслуживание клиентов
Power Apps Создавайте приложения посредством общения нет Управление настройками функций
Power Apps Помощь второго пилота при заполнении форм в приложениях на основе моделей нет Управление настройками функций
Power Apps Составьте хорошо написанный текст, введите его с помощью Copilot Нет, премиум-лицензия у пользователя Составьте хорошо написанный текст, введите его с помощью Copilot
Power Apps Excel в таблицу нет Управление настройками функций
Power Apps Используйте естественный язык для редактирования приложения с помощью панели Copilot нет Управление настройками функций
Power Automate Copilot в облачных потоках на домашней странице и в конструкторе (Подробнее см. в статье Начало работы с Copilot в облачных потоках.) нет Обратитесь в службу поддержки для запуска скрипта PowerShell.
Power Pages Все (Подробнее см. в обзоре Copilot в Power Pages.) Нет Выключите Copilot в Power Pages

Узнайте больше на странице FAQ о дополнительном обмене данными для функций Copilot AI в Dynamics 365 и Power Platform.

Доступность по регионам и языкам

Международная доступность второго пилота

Перемещение данных между географическими регионами

Безопасность в Microsoft

Конфиденциальность на Microsoft

Microsoft Заявление о конфиденциальности

Ответственное применение ИИ