Поделиться через


Данные, конфиденциальность и безопасность в Microsoft Copilot для Microsoft 365

Microsoft Copilot для Microsoft 365 — это сложный механизм обработки и оркестрации, который позволяет повышать продуктивность с помощью ИИ за счет согласованного использования перечисленных ниже компонентов.

  • Большие языковые модели (LLM)
  • Содержимое в Microsoft Graph, например электронные письма, чаты и документы, на доступ к которым у вас есть разрешение.
  • Приложения Microsoft 365 для повышения производительности, которые вы используете каждый день, например Word и PowerPoint.

Общие сведения о том, как эти три компонента работают вместе, см. в статье Обзор Microsoft Copilot для Microsoft 365. Ссылки на другой контент, связанный с Microsoft Copilot для Microsoft 365, см. в документации Microsoft Copilot для Microsoft 365.

Важно!

  • Microsoft Copilot для Microsoft 365 соответствует нашим существующим обязательствам в отношении конфиденциальности, безопасности и соответствию коммерческим клиентам Microsoft 365, включая Общий регламент по защите данных (GDPR) и Границу данных Европейского Союза (ЕС).
  • Запросы, ответы и данные, доступные через Microsoft Graph, не используются для обучения базовых LLM, в том числе тех, которые используются Microsoft Copilot для Microsoft 365.
  • Microsoft Copilot для Microsoft 365 использует несколько средств защиты, включая, помимо прочего, блокировку вредоносного контента, обнаружение защищенного материала и блокировку быстрого внедрения (атак с помощью взлома).

Сведения в этой статье предназначены для предоставления ответов на следующие вопросы:

Примечание.

Microsoft Copilot для Microsoft 365 будет продолжать развиваться с течением времени, добавляя новые возможности. Чтобы быть в курсе Microsoft Copilot для Microsoft 365 или задать вопросы, посетите сообщество Microsoft 365 Copilot в техническом сообществе Microsoft.

Как Microsoft Copilot для Microsoft 365 использует собственные организационные данные?

Microsoft Copilot для Microsoft 365 обеспечивает ценность, подключая LLM к организационным данным. Microsoft Copilot для Microsoft 365 получает доступ к контенту и контексту через Microsoft Graph. Он может создавать ответы с привязкой к данным организации, таким как документы пользователей, сообщения электронной почты, календарь, чаты, собрания и контакты. Microsoft Copilot для Microsoft 365 объединяет это содержимое с рабочим контекстом пользователя, таким как собрание, в котором пользователь сейчас участвует, обмен электронными письмами, которые пользователь вел по определенной теме, или беседы в чате, которые пользователь вел на прошлой неделе. Microsoft Copilot для Microsoft 365 использует эту комбинацию контента и контекста для предоставления точных, релевантных и контекстуальных ответов.

Важно!

Запросы, ответы и данные, доступные через Microsoft Graph, не используются для обучения базовых LLM, в том числе тех, которые используются Microsoft Copilot для Microsoft 365.

Microsoft Copilot для Microsoft 365 отображает только те организационные данные, к которым у отдельных пользователей есть хотя бы разрешения на просмотр. Важно, чтобы вы использовали модели разрешений, доступные в службах Microsoft 365, таких как SharePoint, чтобы гарантировать, что нужные пользователи или группы имеют правильный доступ к нужному контенту в вашей организации. К ним относятся разрешения, которые вы предоставляете пользователям за пределами организации с помощью решений для совместной работы между клиентами, например общих каналов в Microsoft Teams.

При вводе запросов с помощью Microsoft 365 Copilot, сведения, содержащиеся в запросах, данные, которые они получают, и сгенерированные ответы остаются в границах службы Microsoft 365 в соответствии с нашими текущими обязательствами по обеспечению конфиденциальности, безопасности и соответствия требованиям. Microsoft Copilot для Microsoft 365 использует для обработки службы Azure OpenAI, а не общедоступные службы OpenAI. Azure OpenAI не кэширует содержимое клиентов и измененные запросы Copilot для Copilot для Microsoft 365.

Примечание.

  • Если вы используете подключаемые модули, чтобы помочь Copilot для Microsoft 365 предоставлять более релевантную информацию, ознакомьтесь с заявлением о конфиденциальности и условиями использования подключаемого модуля, чтобы определить, как он будет обрабатывать данные вашей организации. Дополнительные сведения см. в разделе Расширяемость Microsoft Copilot для Microsoft 365.
  • Когда вы используете подключаемый модуль веб-контента, Copilot для Microsoft 365 анализирует запрос пользователя и определяет условия, при которых веб-обоснование улучшит качество ответа. На основе этих условий Copilot генерирует поисковый запрос и отправляет его в службу Поиска Microsoft Bing. Дополнительные сведения см. в статье Данные, конфиденциальность и безопасность веб-запросов в Copilot для Microsoft 365.

Мониторинг злоупотреблений для Microsoft Copilot для Microsoft 365 осуществляется в реальном времени, без предоставления Microsoft постоянного доступа к данным клиентов для человеческого и для автоматического просмотра. Хотя модерация злоупотреблений, включающая проверку контента человеком, доступна в Azure OpenAI, Microsoft Copilot для служб Microsoft 365 ее не использует. Данные Microsoft 365 не собираются и не хранятся в Azure OpenAI.

Примечание.

Мы можем использовать отзывы клиентов (что не является обязательным) с целью улучшения Microsoft Copilot для Microsoft 365 точно так же, как мы используем отзывы клиентов для улучшения других служб Microsoft 365 и приложений Microsoft 365 для продуктивной работы. Мы не используем эти отзывы для обучения базовым курсам LLM, используемым Microsoft Copilot для Microsoft 365. Клиенты могут управлять отзывами с помощью элементов управления администратора. Дополнительные сведения см. в разделах Управление отзывами Microsoft для организации и Предоставление отзывов о Microsoft Copilot для Microsoft 365.

Хранимые данные о взаимодействии пользователей с Microsoft Copilot для Microsoft 365

Когда пользователь взаимодействует с Microsoft Copilot для Microsoft 365 (используя такие приложения, как Word, PowerPoint, Excel, OneNote, Loop или Whiteboard), мы сохраняем данные об этих взаимодействиях. Сохраненные данные включают запросы пользователя и ответ Copilot, включая ссылки на все сведения, использованные для обоснования ответа Copilot. Мы называем запрос пользователя и ответ Copilot на этот запрос "содержанием взаимодействий", а запись этих взаимодействий — это журнал взаимодействий пользователя с Copilot. Например, эти хранимые данные предоставляют пользователям журнал взаимодействия Copilot в Microsoft Copilot с чатом на основе Graph и собраниями в Microsoft Teams. Эти данные обрабатываются и хранятся в соответствии с договорными обязательствами с другим контентом организации в Microsoft 365. Данные хранятся в зашифрованном виде и не используются для обучения базовых LLM, в том числе тех, что используются Microsoft Copilot для Microsoft 365.

Для просмотра этих сохраненных данных и управления ими администраторы могут использовать поиск контента или Microsoft Purview. Администраторы также могут использовать Microsoft Purview для установки политик хранения данных, связанных с взаимодействием в чате с Copilot. Дополнительные сведения см. в следующих статьях:

Для чатов Microsoft Teams с Copilot администраторы также могут использовать API-интерфейсы экспорта Microsoft Teams для просмотра хранимых данных.

Удаление журнала взаимодействия пользователей с Microsoft Copilot для Microsoft 365

Ваши пользователи могут удалять свои журналы взаимодействия с Copilot, включая запросы и ответы, возвращаемые Copilot, перейдя на портал "Моя учетная запись". Дополнительные сведения см. в разделе Удаление журнала взаимодействия с Microsoft Copilot.

Microsoft Copilot для Microsoft 365 и границы данных ЕС

Вызовы Microsoft Copilot для Microsoft 365 в LLM перенаправляются в ближайшие центры обработки данных в регионе, но также могут вызывать другие регионы с доступной емкостью в периоды высокой загрузки.

Для пользователей Европейского Союза (ЕС) у нас есть дополнительные гарантии соблюдения границ данных ЕС. Трафик из ЕС остается в пределах границ данных ЕС, в то время как мировой трафик может быть отправлен в ЕС и другие регионы для обработки LLM.

Microsoft Copilot для Microsoft 365 и место расположения данных

Copilot для Microsoft 365 соблюдает обязательства по месту расположения данных, как указано в Условиях использования продуктов Microsoft и Дополнении о защите данных. Copilot для Microsoft 365 был добавлен в качестве покрываемой рабочей нагрузки в обязательства по месту расположения данных в Условиях использования продуктов Microsoft 1 марта 2024 г.

Предложения Microsoft Advanced Data Residency (ADR) и Multi-Geo Capabilities включают обязательства по месту расположения данных для клиентов Copilot для Microsoft 365 с 1 марта 2024 года. Для клиентов из ЕС Copilot для Microsoft 365 — это служба границ данных ЕС. Запросы клиентов за пределами ЕС могут обрабатываться в США, ЕС или других регионах.

Расширяемость Microsoft Copilot для Microsoft 365

Хотя Microsoft Copilot для Microsoft 365 уже может использовать приложения и данные в экосистеме Microsoft 365, многие организации по-прежнему зависят от различных внешних инструментов и служб для управления работой и совместной работы. Microsoft Copilot для Microsoft 365 может ссылаться на сторонние инструменты и службы при ответе на запрос пользователя с помощью соединителей Microsoft Graph или плагинов. Данные из соединителей Graph могут быть возвращены в ответах Microsoft Copilot для Microsoft 365, если у пользователя есть разрешение на доступ к этой информации.

Если плагины включены, Microsoft Copilot для Microsoft 365 определяет, нужно ли использовать конкретный плагин для предоставления пользователю соответствующего ответа. Если необходим плагин, Microsoft Copilot для Microsoft 365 генерирует поисковый запрос для отправки плагину от имени пользователя. Запрос основан на запросе пользователя, журнале взаимодействия с Copilot и данных, к которым у пользователя есть доступ в Microsoft 365.

В разделе Интегрированные приложенияцентра администрирования Microsoft 365 администраторы могут просматривать разрешения и доступ к данным, необходимые для подключаемого модуля, а также условия использования подключаемого модуля и заявление о конфиденциальности. У администраторов есть полный доступ к управлению тем, какие плагины разрешены в их организации. Пользователь может получить доступ только к тем плагинам, которые разрешены администратором и которые пользователь установил или назначил. Microsoft Copilot для Microsoft 365 использует только плагины, включенные пользователем.

Примечание.

Параметры политики, управляющие использованием дополнительных подключенных возможностей в приложениях Microsoft 365, не применяются к плагинам.

Дополнительные сведения см. в следующих статьях:

Как Microsoft Copilot для Microsoft 365 защищает организационные данные?

Модель разрешений в вашем клиенте Microsoft 365 может помочь предотвратить непреднамеренную утечку данных между пользователями, группами и клиентами. Microsoft Copilot для Microsoft 365 представляет только данные, к которым каждый человек может получить доступ, используя те же базовые элементы управления доступом к данным, которые используются в других службах Microsoft 365. Семантический индекс учитывает границу доступа на основе удостоверения пользователя, поэтому процесс заземления получает доступ только к тому контенту, доступ к которому разрешен текущему пользователю. Дополнительные сведения см. в политике конфиденциальности Microsoft и сервисной документации .

Если у вас есть данные, зашифрованные с помощью Защиты информации Microsoft Purview, Microsoft Copilot для Microsoft 365 соблюдает права использования, предоставленные пользователю. Это шифрование можно применять с помощью меток конфиденциальности или ограничения разрешений в приложениях в Microsoft 365 с помощью управления правами на доступ к данным (IRM). Дополнительные сведения об использовании Microsoft Purview с Microsoft Copilot для Microsoft 365 см. в разделе Меры защиты данных и соответствия требованиям Microsoft Purview для приложений генеративного ИИ.

Мы уже реализуем несколько форм защиты, чтобы помочь клиентам предотвратить компрометацию служб и приложений Microsoft 365 или получение несанкционированного доступа к другим клиентам или самой системе Microsoft 365. Вот несколько примеров таких форм защиты:

  • Логическая изоляция контента клиента внутри каждого клиента служб Microsoft 365 достигается за счет авторизации Microsoft Entra и управления доступом на основе ролей. Дополнительные сведения см. в разделе Элементы управления изоляцией Microsoft 365 .

  • Корпорация Майкрософт использует строгие меры физической безопасности, фоновую проверку и многоуровневую стратегию шифрования для защиты конфиденциальности и целостности пользовательского контента.

  • Microsoft 365 использует технологии на стороне службы, которые шифруют содержимое клиента при хранении и передаче, включая BitLocker, шифрование для каждого файла, безопасность транспортного уровня (TLS) и безопасность протокола Интернета (IPsec). Дополнительные сведения о шифровании в Microsoft 365 см. в статье Шифрование в Microsoft Cloud .

  • Ваш контроль над вашими данными усиливается обязательством Microsoft соблюдать широко применимые законы о конфиденциальности, такие как GDPR, и стандарты конфиденциальности, такие как ISO/IEC 27018, первый в мире международный свод правил для конфиденциальности в облаке.

  • Для содержимого, доступ к которому осуществляется через плагины Microsoft Copilot для Microsoft 365, шифрование может исключить программный доступ, тем самым ограничивая доступ плагина к контенту. Дополнительные сведения см. в разделе Настройка прав использования для Azure Information Protection .

Соответствие нормативным требованиям

По мере развития регулирования в сфере искусственного интеллекта Microsoft будет продолжать адаптироваться и реагировать на будущие нормативные требования.

Microsoft Copilot для Microsoft 365 создан на основе текущих обязательств Microsoft по обеспечению безопасности и конфиденциальности данных на предприятии. В этих обязательствах нет никаких изменений. Microsoft Copilot для Microsoft 365 интегрирован в Microsoft 365 и соответствует всем существующим обязательствам по конфиденциальности, безопасности и соответствию требованиям для коммерческих клиентов Microsoft 365. Дополнительные сведения см. в разделе Соответствие требованиям Microsoft .

Помимо соблюдения правил, мы отдаем приоритет открытому диалогу с нашими клиентами, партнерами и регулирующими органами, чтобы лучше понимать и решать проблемы, тем самым способствуя созданию атмосферы доверия и сотрудничества. Мы признаем, что конфиденциальность, безопасность и прозрачность — это не просто функции, а обязательные условия в сфере ИИ в Microsoft.

Дополнительные сведения

Microsoft Copilot для Microsoft 365 и параметры политики для подключенных возможностей

Если вы отключите сетевые возможности, которые анализируют контент для приложений Microsoft 365 на устройствах Windows или Mac в организации, функции Microsoft Copilot для Microsoft 365 не будут доступны пользователям в следующих приложениях:

  • Excel
  • PowerPoint
  • OneNote
  • Word

Аналогично, функции Microsoft Copilot для Microsoft 365 в этих приложениях на устройствах Windows или Mac не будут доступны, если вы отключите использование подключенных возможностей для Приложений Microsoft 365.

Дополнительные сведения об этих параметрах политики см. в следующих статьях:

О содержимом, которое создает Microsoft Copilot для Microsoft 365

Ответы, которые дает генеративный ИИ, не обязательно на 100% соответствуют действительности. Хотя мы продолжаем улучшать ответы, пользователям по-прежнему следует опираться на свое мнение при просмотре результатов, прежде чем отправлять их другим. Наши возможности Microsoft Copilot для Microsoft 365 предоставляют полезные черновики и сводки, которые помогут вам достичь большего, предоставляя возможность просмотра того, что создает ИИ, а не полностью автоматизировать эти задачи.

Мы продолжаем совершенствовать алгоритмы для заблаговременного решения таких проблем, как недостоверная и дезинформация, блокировка контента, безопасность данных и предотвращение продвижения вредоносного или дискриминационного контента в соответствии с нашими ответственными принципами искусственного интеллекта .

Корпорация Майкрософт не является владельцем выходных данных службы. Тем не менее, мы не определяем, защищены ли выходные данные клиента авторским правом или может ли оно быть принудительно применено против других пользователей. Это связано с тем, что генеративные системы искусственного интеллекта могут выдавать одинаковые ответы на аналогичные запросы или запросы от нескольких клиентов. Следовательно, у нескольких клиентов могут быть претензии или права на одинаковое или схожее по существу содержимое.

Если третья сторона подает в суд на коммерческого клиента за нарушение авторских прав за использование Microsoft Copilots или результатов, которые они создают, мы защитим клиента и выплатим сумму любых неблагоприятных судебных решений или урегулирований, вытекающих из судебного иска, при условии, что клиент использовал ограничения и фильтры содержимого, встроенные в наши продукты. Дополнительные сведения см. в статье Microsoft объявляет о новом обязательстве по защите авторских прав Copilot для клиентов.

Как Copilot блокирует вредоносное содержимое?

Служба Azure OpenAI включает систему фильтрации содержимого, которая работает вместе с основными моделями. Модели фильтрации содержимого для категорий "Ненависть и справедливость", "Сексуальные отношения", "Насилие" и "Самоповреждение" специально обучены и протестированы на различных языках. В процессе работы эта система пропускает и входной запрос, и ответ через модели классификации, предназначенные для выявления и блокировки вывода вредоносного содержимого.

В категории "Ненависть и справедливость" вред может наносить любое содержимое, в котором используются уничижительные или дискриминационные выражения на основании расы, этнической принадлежности, национальности, половой идентичности и самовыражения, сексуальной ориентации, религии, иммиграционного статуса, физического состояния, внешности и размера тела. Справедливость побуждает обеспечить одинаковое отношение систем ИИ ко всем группам людей, чтобы не усугублять существующее социальное неравенство. Содержимое сексуального характера включает обсуждение репродуктивных органов человека, романтических отношений, действий, изображаемых в эротических или страстных выражениях, беременности, физических половых актов, в том числе представленных как нападение или насильственный половой акт, проституции, порнографии и жестокого обращения. В категории "Насилие" используются выражения, связанные с физическими действиями, направленными на причинение вреда или убийство, включая действия, оружие и связанные структуры. Выражения, описывающие самоповреждение, относятся к преднамеренным действиям, направленным на причинение себе вреда или самоубийство.

Подробнее о фильтрации содержимого Azure OpenAI.

Обеспечивает ли Copilot обнаружение защищенных материалов?

Да, Copilot для Microsoft 365 обеспечивает обнаружение защищенных материалов, включая текст, на который распространяется авторское право, и код, на который распространяются лицензионные ограничения. Не все эти меры по снижению риска актуальны для всех сценариев Copilot для Microsoft 365.

Блокирует ли Copilot внедрение запросов (атаки для взлома)?

Атаки для взлома — это запросы пользователей, побуждающие модель генеративного ИИ обходить стандарты поведения, которым она обучена, и нарушать правила, которым она должна следовать. Решение Microsoft Copilot для Microsoft 365 предназначено для защиты от атак с внедрением запросов. Подробнее об атаках для взлома и о том, как использовать Безопасность содержимого ИИ Azure для их обнаружения.

Приверженность ответственному ИИ

Поскольку ИИ готов изменить нашу жизнь, мы должны коллективно определить новые правила, нормы и методы использования и воздействия этой технологии. Microsoft находится на пути ответственного ИИ с 2017 года, когда мы определили наши принципы и подход к обеспечению использования этой технологии таким образом, чтобы руководствоваться этическими принципами, ставящими людей на первое место.

Мы в Microsoft руководствуемся принципами искусственного интеллекта , нашим Стандартом ответственного искусственного интеллекта и десятилетиями исследований в области искусственного интеллекта, заземления и машинного обучения с сохранением конфиденциальности. Междисциплинарная группа исследователей, инженеров и экспертов по политике проверяет наши системы искусственного интеллекта на предмет потенциального вреда и мер по смягчению последствий — уточняя обучающие данные, фильтруя их для ограничения вредоносного контента, блокируя запросы и результаты, а также применяя технологии Microsoft, такие как InterpretML и Fairlearn, чтобы помочь. обнаружить и исправить систематическую ошибку данных. Мы разъясняем, как система принимает решения, отмечая ограничения, ссылаясь на источники и предлагая пользователям просматривать, проверять факты и корректировать контент на основе предметной экспертизы. Дополнительную информацию см. в разделе Управление ИИ: план будущего .

Мы стремимся помочь нашим клиентам ответственно использовать наши продукты искусственного интеллекта, делиться своими знаниями и строить доверительные партнерские отношения. Что касается этих новых услуг, мы хотим предоставить нашим клиентам информацию о предполагаемом использовании, возможностях и ограничениях нашей платформы ИИ, чтобы у них были знания, необходимые для ответственного выбора развертывания. Мы также делимся ресурсами и шаблонами с разработчиками внутри организаций и с независимыми поставщиками программного обеспечения (ISV), чтобы помочь им создавать эффективные, безопасные и прозрачные решения ИИ.