Вопросы и ответы о безопасности и конфиденциальности данных Copilot для Dynamics 365 и Power Platform
Copilot для Dynamics 365 и Power Platform функции следуют набору основных правил безопасности и конфиденциальности, а также Microsoft Стандарту ответственного ИИ. Данные Dynamics 365 и Power Platform защищены комплексом соответствующих передовым отраслевым стандартам механизмов обеспечения безопасности, конфиденциальности и соблюдения нормативных требований.
Система Copilot основана на Службе Microsoft Azure OpenAI и работает полностью в пределах облака Azure. Azure OpenAI обеспечивает региональную доступность и фильтрацию контента в соответствии с принципами ответственного применения ИИ. Система Copilot использует модели OpenAI со всеми возможностями обеспечения безопасности, существующими в Microsoft Azure. OpenAI — это независимая организация. Мы не передаем ваши данные OpenAI.
Функции Copilot доступны не на всех языках и не во всех географических регионах Azure. В зависимости от того, где размещена ваша среда, для их использования может потребоваться разрешить перемещение данных между регионами. Дополнительные сведения см. в статьях, перечисленных в разделе Перемещение данных между географическими регионами.
Что происходит с моими данными, когда я использую Copilot?
Вы контролируете свои данные. Microsoft не передает ваши данные третьим лицам, если вы не дали на это разрешение. Кроме того, мы не используем ваши данные (данные клиента) для обучения Copilot и входящих в состав Copilot функций ИИ, если вы не предоставили согласие на это. Copilot соблюдает существующие разрешения и политики в отношении данных, и ответы, которые Copilot для вас генерирует, основаны только на данных, к которым у вас лично есть доступ. Дополнительные сведения о том, как вы можете управлять своими данными и как они обрабатываются, см. в статьях, перечисленных в разделе Copilot в приложениях Dynamics 365 и Power Platform.
Мониторинг на предмет злоупотребления системой или ее вредоносного использования Copilot осуществляет без сохранения данных. Мы не храним входные и выходные данные Copilot и не подвергаем их проверке с участием человека в целях мониторинга на предмет злоупотреблений.
Как Copilot использует мои данные?
Каждая служба или функция использует Copilot на основе данных, которые вы предоставили или настроили для обработки системой Copilot.
Ваши запросы (входные данные) и ответы Copilot (выходные данные или результаты):
НЕ доступны другим клиентам.
НЕ используются для обучения или улучшения каких-либо сторонних продуктов или служб (например, моделей OpenAI).
НЕ используются для обучения или улучшения Microsoft моделей ИИ, если только администратор вашего арендатора не согласится поделиться с нами данными. Узнайте больше на странице FAQ о дополнительном обмене данными для функций Copilot AI в Dynamics 365 и Power Platform.
Узнайте больше о конфиденциальности и безопасности данных службы Azure OpenAI . Чтобы узнать больше о том, как Microsoft защищает и использует ваши данные в целом, прочитайте наше Заявление о конфиденциальности.
Куда идут мои данные?
Microsoft работает на доверии. Мы стремимся к безопасности, конфиденциальности и соблюдению норм во всем, что делаем, и к использованию ИИ подходим аналогичным образом. Данные клиентов, включая входные и выходные данные Copilot, хранятся в пределах Microsoft границы доверия в облаке.
В некоторых сценариях, например, при использовании функций, поддерживаемых Bing и сторонними плагинами Copilot, данные клиентов могут передаваться за пределы Microsoft границы доверия Cloud.
Может ли Copilot получать доступ к зашифрованному контенту?
То, какие данные предоставляются в распоряжение Copilot, зависит от уровня доступа текущего пользователя. Если у пользователя есть доступ к зашифрованным данным в Dynamics 365 и Power Platform и пользователь предоставляет их Copilot, Copilot сможет осуществлять к ним доступ.
Как Copilot защищает данные клиентов?
Microsoft обладает уникальными возможностями для предоставления ИИ-решений корпоративного уровня. Система Copilot работает на платформе Службы Azure OpenAI и соответствует нашим существующим обязательствам перед клиентами в отношении конфиденциальности, безопасности и соблюдения требований регуляторов.
Создан на основе комплексного подхода Microsoft к безопасности, конфиденциальности и соблюдению нормативных требований. Copilot интегрирован в такие Microsoft сервисы, как Dynamics 365 и Power Platform , и наследует их политики и процессы безопасности, конфиденциальности и соответствия, такие как многофакторная аутентификация и границы соответствия.
Несколько видов защиты для обеспечения безопасности организационных данных. Для шифрования организационного контента при хранении и при передаче используются технологии на стороне службы, что представляет собой надежную меру безопасности. Подключения защищены с помощью Transport слой Security (TLS), а передача данных между Dynamics 365, Power Platform и Azure OpenAI происходит по Microsoft магистральной сети, что гарантирует как надежность, так и безопасность. Узнайте больше о шифровании в Microsoft облаке.
Архитектура, направленная на защиту данных как на уровне клиента (арендатора), так и на уровне среды. Мы знаем, что одним из опасений наших клиентов являются потенциальные утечки данных. Microsoft Модели ИИ не обучаются и не обучаются на данных ваших арендаторов или ваших подсказках, если только администратор вашего арендатора не дал согласие на предоставление нам данных. В пределах своих сред вы можете управлять доступом путем настройки разрешений. Механизмы проверки подлинности и авторизации обеспечивают сегрегацию запросов к общей модели между клиентами (арендаторами). Copilot использует данные, доступ к которым есть только у вас, на основе той же технологии, которую мы годами используем для защиты данных клиентов.
Всегда ли ответы Copilot содержат точные факты?
Как и в случае с любым генеративным ИИ, ответы Copilot не являются на 100% фактическими. Несмотря на то что мы продолжаем совершенствовать ответы на запросы, требующие привязки к фактам, вы должны по-прежнему руководствоваться собственными суждениями и проверять результаты, прежде чем отправлять их другим людям. Copilot предоставляет полезные черновики и сводки, чтобы помочь вам успевать больше, но это полностью автоматическая система. У вас всегда есть возможность проверить сгенерированный ИИ контент.
Наши специалисты работают над предупреждением таких проблем, как недостоверная информация и дезинформация, блокировка контента, нарушение безопасности данных, а также распространение опасного или дискриминационного контента, в соответствии с нашими принципами ответственного применения ИИ.
Кроме того, в пользовательском интерфейсе предусмотрены информационные элементы, помогающие пользователям ответственно использовать генерируемый ИИ контент и предлагаемые действия.
Инструкции и подсказки. Когда вы используете Copilot, подсказки и другие инструктивные элементы напоминают вам о необходимости просматривать и редактировать ответы, а также вручную проверять факты, данные и текст на предмет точности, прежде чем использовать сгенерированный ИИ контент.
Цитируемые источники. Когда это возможно, Copilot цитирует свои источники информации — как открытые, так и внутренние — так что вы можете ознакомиться с ними самостоятельно, чтобы проверить точность ответов Copilot.
Дополнительные сведения см. в вопросах и ответах об ответственном применении ИИ для своего продукта на Microsoft Learn.
Как Copilot блокирует опасный контент?
Служба Azure OpenAI включает в себя систему фильтрации контента, которая работает в связке с базовыми моделями. Модели фильтрации контента были обучены специально для распознавания формулировок, подпадающих под категории "Ненависть и справедливость", "Контент сексуального характера", "Насилие" и "Причинение себе вреда", и протестированы на различных языках. Система работает путем прогона как входного запроса, так и ответа через модели классификации, предназначенные для выявления и блокирования вывода опасного контента.
Под опасным контентом категории "Ненависть и справедливость" понимается любой контент, в котором присутствуют уничижительные или дискриминационные высказывания на основе таких атрибутов, как расовая, этническая или национальная принадлежность, гендерная идентичность и гендерное самовыражение, сексуальная ориентация, религия, иммиграционный статус, инвалидность, внешность и размеры тела. Под справедливостью понимается обеспечение того, чтобы системы ИИ относились ко всем группам людей справедливо, не способствуя существующему социальному неравенству. Контент сексуального характера включает в себя упоминание репродуктивных органов человека; романтических отношений; действий, описываемых в эротических терминах; беременности; физических сексуальных актов, включая те, которые изображаются как надругательство или принудительные акты сексуального насилия; проституции; порнографии, а также жестокого обращения. Под насилием понимаются высказывания, связанные с физическими действиями, направленными на причинение вреда или убийства, включая действия, оружие и связанные с ними сущности. Категория "Причинение себе вреда" предполагает упоминание намеренных действий, направленных на нанесение себе увечий или самоубийство.
Узнайте больше о OpenAI фильтрации контента Azure.
Блокирует ли Copilot внедрение запросов (джейлбрейк-атаки)?
Атаки с джейлбрейком представляют собой пользовательские подсказки, призванные спровоцировать генеративную модель искусственного интеллекта на поведение, которому она не была обучена, или на нарушение правил, которым ей было сказано следовать. Реализация защиты от внедрения запросов является обязательной для всех служб в Dynamics 365 и Power Platform. Узнайте больше об атаках с использованием джейлбрейка и о том, как использовать Azure AI Content Safety для их обнаружения.
Блокирует ли Copilot непрямое внедрение запросов (непрямые атаки)?
Непрямые атаки, также называемые атаками путем непрямого внедрения запросов или атаками путем междоменного внедрения запросов, являются потенциальной уязвимостью, когда третьи стороны помещают вредоносные инструкции в документы, к которым система генеративного ИИ может осуществлять доступ и которые она может обрабатывать. Реализация защиты от непрямого внедрения запросов является обязательной для всех служб в Dynamics 365 и Power Platform. Узнайте больше о косвенных атаках и о том, как использовать Azure AI Content Safety для их обнаружения.
Как Microsoft проверяется и подтверждается качество Copilot, включая защиту от быстрых инъекций и обоснованные ответы?
Каждый новый продукт Copilot и каждая итерации языковой модели должны пройти внутреннюю проверку на соответствие принципам ответственного применения ИИ, прежде чем они будут выпущены на рынок. Перед выпуском мы проводим процедуру с участием "красных команд" (команд, симулирующих атаку противника с выявлением и использованием слабых мест, чтобы помочь организации улучшить свои механизмы защиты) для оценки потенциальных рисков в сценариях с опасным контентом, джейлбрейком и обоснованностью ответов. После выпуска мы используем автоматизированное тестирование, а также средства ручной и автоматизированной оценки для определения качества ответов Copilot.
Как Microsoft улучшить базовую модель и измерить улучшения в обоснованных ответах?
В контексте ИИ, в особенности ИИ на основе языковых моделей вроде той, на базе которой работает Copilot, обоснование помогает ИИ генерировать ответы, которые являются более релевантными и имеют смысл в реальном мире. Обоснование помогает гарантировать, что ответы ИИ основаны на надежной информации и являются максимально точными и релевантными. Метрики обоснования ответов позволяют оценить, насколько точно факты, изложенные в предоставленном модели для заземления контенте, представлены в окончательном ответе.
Для улучшения базовых моделей, таких как GPT-4, используются методики дополнения ответа результатами поиска (Retrieval Augmented Generation, RAG). Эти методики позволяют моделям использовать для понимания сценария пользователя дополнительную информацию помимо той, которая использовалась для обучения модели. Принцип работы RAG заключается в определении данных, релевантных для сценария, аналогично тому, как поисковая система определяет веб-страницы, имеющие отношение к словам в поисковом запросе пользователя. Для определения того, какой контент имеет отношение к запросу пользователя и должен использоваться для обоснования ответа, применяется несколько подходов. Эти подходы включают поиск по различным типам индексов, например инвертированным индексам, с использованием таких приемов извлечения информации, как сопоставление терминов, или векторным индексам с использованием сравнения векторных расстояний для определения семантического сходства. После выявления релевантных документов RAG передает данные модели вместе с текущим разговором, предоставляя модели дополнительный контекст для понимания уже имеющейся у нее информации и генерации ответа, обоснованного с точки зрения происходящего в реальном мире. Наконец, RAG проверяет ответ, чтобы убедиться, что он соответствует исходному предоставленному модели контенту. Функции генеративного ИИ Copilot предполагают несколько способов использования RAG. Одним из примеров является чат с данными, когда для обоснования ответов чат-бота используются собственные источники данных клиента.
Другая методика улучшения базовых моделей называется тонкой настройкой. Большой набор данных, состоящий из пар "запрос-ответ", предоставляется базовой модели с целью дополнения изначально использовавшихся для ее обучения материалов новыми образцами, ориентированными на конкретный сценарий. Такую модель затем можно развернуть в качестве отдельной модели, тонко настроенной под этот сценарий. В то время как обоснование имеет своей целью сделать знания ИИ релевантными для реального мира, назначение тонкой настройки — сделать знания ИИ более специфическими применительно к определенной задачи или предметной области. Microsoft использует тонкую настройку несколькими способами. Например, мы используем создание потоков Power Automate по описаниям на естественном языке, предоставляемым пользователями.
Соответствует ли Copilot нормативным требованиям?
Microsoft Copilot является частью экосистемы Dynamics 365 и Power Platform и удовлетворяет тем же требованиям в отношении нормативного соответствия. Для получения дополнительной информации о нормативных сертификатах Microsoft услуг перейдите на портал доверия услуг. Кроме того, Copilot соответствует нашим обязательствам в отношении ответственного применения ИИ, осуществляемым на практике посредством нашего Стандарта ответственного применения ИИ. По мере развития регулирования в сфере ИИ Microsoft продолжает адаптироваться и реагировать на новые требования.
Подробнее...
Copilot в приложениях Dynamics 365 и Power Platform
Узнайте больше на странице FAQ о дополнительном обмене данными для функций Copilot AI в Dynamics 365 и Power Platform.
Доступность по регионам и языкам
Международная доступность второго пилота
Перемещение данных между географическими регионами
- Как работает перемещение данных между регионами
- Настройте перемещение данных между географическими точками для генеративных функций ИИ за пределами США
- Copilot перемещение данных по географическим регионам в Dynamics 365 Sales
- Перемещение данных Copilot по географическим регионам Dynamics 365 Business Central
Безопасность в Microsoft
- Введение в безопасность Azure
- Шифрование в Microsoft Облако
- Данные, конфиденциальность и безопасность для Azure OpenAI Сервис – службы Azure AI
Конфиденциальность на Microsoft
Microsoft Заявление о конфиденциальности