Поделиться через


Данные, конфиденциальность и безопасность для Microsoft 365 Copilot

Microsoft 365 Copilot  — это сложный механизм обработки и оркестрации, который обеспечивает возможности повышения производительности на базе ИИ за счет координации следующих компонентов:

  • Большие языковые модели (LLM)
  • Содержимое в Microsoft Graph, например электронные письма, чаты и документы, на доступ к которым у вас есть разрешение.
  • Приложения Microsoft 365 для повышения производительности, которые вы используете каждый день, например Word и PowerPoint.

Чтобы получить общее представление о том, как эти три компонента работают вместе, ознакомьтесь со статьей Обзор Microsoft 365 Copilot. Ссылки на другие материалы, связанные с Microsoft 365 Copilot, вы найдете в документации по Microsoft 365 Copilot.

Важно!

  • Microsoft 365 Copilot соответствует нашим существующим обязательствам в отношении конфиденциальности, безопасности и соответствию требованиям коммерческих клиентов Microsoft 365, включая Общий регламент по защите данных (GDPR) и Границу данных Европейского Союза (ЕС).
  • Запросы, ответы и данные, доступные через Microsoft Graph, не используются для обучения базовых LLM, в том числе используемых Microsoft 365 Copilot.
  • Microsoft 365 Copilot использует несколько защитных функций, которые включают, помимо прочего, блокировку вредоносного контента, обнаружение защищенных материалов и блокировку запросов (атак со взломом).

Сведения в этой статье предназначены для предоставления ответов на следующие вопросы:

Примечание.

Microsoft 365 Copilot будет продолжать развиваться с течением времени, добавляя новые возможности. Чтобы быть в курсе новостей Microsoft 365 Copilot или задать вопросы, посетите сообщество Microsoft 365 Copilot в Microsoft Tech Community.

Как Microsoft 365 Copilot использует собственные данные организации?

Microsoft 365 Copilot предоставляет ценность, подключая LLM к данным организации. Microsoft 365 Copilot получает доступ к содержимому и контексту через Microsoft Graph. Он может создавать ответы с привязкой к данным организации, таким как документы пользователей, сообщения электронной почты, календарь, чаты, собрания и контакты. Microsoft 365 Copilot объединяет этот контент с рабочим контекстом пользователя, например, с собраниями, в которых он участвует в данный момент, с перепиской по электронной почте по определенной теме или с разговорами в чате на прошлой неделе. Microsoft 365 Copilot использует это сочетание содержимого и контекста для предоставления точных, релевантных и контекстуальных ответов.

Важно!

Запросы, ответы и данные, доступные через Microsoft Graph, не используются для обучения базовых LLM, в том числе используемых Microsoft 365 Copilot.

Microsoft 365 Copilot отображает только те данные организации, к которым у отдельных пользователей есть хотя бы разрешения на просмотр. Важно, чтобы вы использовали модели разрешений, доступные в службах Microsoft 365, таких как SharePoint, чтобы гарантировать, что нужные пользователи или группы имеют правильный доступ к нужному контенту в вашей организации. К ним относятся разрешения, которые вы предоставляете пользователям за пределами организации с помощью решений для совместной работы между клиентами, например общих каналов в Microsoft Teams.

При вводе запросов с помощью Microsoft 365 Copilot информация, содержащаяся в ваших запросах, извлекаемые ими данные и сформированные ответы остаются в пределах границ службы Microsoft 365 в соответствии с нашими текущими обязательствами по обеспечению конфиденциальности, безопасности и соответствия нормативным требованиям. Microsoft 365 Copilot использует для обработки службы Azure OpenAI, а не общедоступные службы OpenAI. Azure OpenAI не кэширует содержимое клиентов и измененные запросы Copilot для Microsoft 365 Copilot. Дополнительные сведения см. в разделе Данные о взаимодействии пользователей с Microsoft 365 Copilot далее в этой статье.

Примечание.

  • При использовании подключаемых модулей, помогающих Microsoft 365 Copilot предоставлять более актуальную информацию, ознакомьтесь с заявлением о конфиденциальности и условиями использования подключаемого модуля, чтобы определить, как он будет обрабатывать данные организации. Дополнительные сведения см. в разделе Расширяемость Microsoft 365 Copilot.
  • При использовании плагина веб-контента Microsoft 365 Copilot анализирует запрос пользователя и определяет условия, при которых поиск в Интернете мог бы улучшить качество ответа. На основе этих условий Copilot генерирует поисковый запрос и отправляет его в службу Поиска Microsoft Bing. Для получения дополнительных сведений см. Данные, конфиденциальность и безопасность веб-запросов в Microsoft 365 Copilot и Microsoft Copilot.

Хотя мониторинг злоупотреблений, включающий проверку контента человеком, доступен в Azure OpenAI, службы Microsoft 365 Copilot отказались от него. Сведения о фильтрации контента см. в разделе Как Copilot блокирует вредоносный контент? далее в этой статье.

Примечание.

Мы можем использовать отзывы клиентов (что не является обязательным) для улучшения Microsoft 365 Copilot, так же как мы используем отзывы клиентов для улучшения других служб Microsoft 365 и приложений Microsoft 365 для повышения производительности. Мы не используем эти отзывы для обучения основам LLM, используемым Microsoft 365 Copilot. Клиенты могут управлять отзывами с помощью элементов управления администратора. Дополнительные сведения см. в разделах Управление отзывами Майкрософт для организации и Предоставление отзывов о Microsoft Copilot с приложениями Microsoft 365.

Хранимые данные о взаимодействии пользователей с Microsoft 365 Copilot

Когда пользователь взаимодействует с Microsoft 365 Copilot (используя такие приложения, как Word, PowerPoint, Excel, OneNote, Loop или Whiteboard), мы сохраняем данные об этих взаимодействиях. Сохраненные данные включают запросы пользователя и ответ Copilot, включая ссылки на все сведения, использованные для обоснования ответа Copilot. Мы ссылаемся на запрос пользователя и ответ Copilot на этот запрос как "содержимое взаимодействий", а запись этих взаимодействий — это журнал действий Пользователя Copilot. Например, эти хранимые данные предоставляют пользователям журнал действий Copilot в Business Chat и собраниях в Microsoft Teams. Эти данные обрабатываются и хранятся в соответствии с договорными обязательствами с другим контентом организации в Microsoft 365. Данные хранятся в зашифрованном виде и не используются для обучения базовых LLM, в том числе тех, которые используются в Microsoft 365 Copilot.

Для просмотра этих сохраненных данных и управления ими администраторы могут использовать поиск контента или Microsoft Purview. Администраторы также могут использовать Microsoft Purview для установки политик хранения данных, связанных с взаимодействием в чате с Copilot. Дополнительные сведения см. в следующих статьях:

Для чатов Microsoft Teams с Copilot администраторы также могут использовать API-интерфейсы экспорта Microsoft Teams для просмотра хранимых данных.

Удаление журнала взаимодействия пользователей с Microsoft 365 Copilot

Пользователи могут удалить журнал действий Copilot, который включает в себя их запросы и ответы, возвращаемые Copilot, перейдя на портал "Моя учетная запись". Дополнительные сведения см. в разделе Удаление журнала действий Microsoft 365 Copilot.

Microsoft 365 Copilot и граница данных ЕС

Звонки Microsoft 365 Copilot в LLM направляются в ближайшие центры обработки данных в регионе, но также могут идти в другие регионы, где ресурсы доступны в периоды высокой загрузки.

Для пользователей Европейского Союза (ЕС) у нас есть дополнительные гарантии соблюдения границ данных ЕС. Трафик из ЕС остается в пределах границ данных ЕС, в то время как мировой трафик может быть отправлен в ЕС и другие регионы для обработки LLM.

Microsoft 365 Copilot и место расположения данных

Microsoft 365 Copilot соблюдает обязательства по месту расположения данных, как указано в Условиях использования продуктов Майкрософт и Дополнении к Соглашению о защите данных. Microsoft 365 Copilot добавлен в качестве охватываемой рабочей нагрузки в обязательства по размещению данных в Условиях использования продуктов Майкрософт 1 марта 2024 года.

Предложения Майкрософт Advanced Data Residency (ADR) и Multi-Geo Capabilities включают обязательства по размещению данных для клиентов Microsoft 365 Copilot с 1 марта 2024 года. Для клиентов из ЕС Microsoft 365 Copilot — это служба пограничного обмена данными в ЕС. Запросы клиентов за пределами ЕС могут обрабатываться в США, ЕС или других регионах.

Расширяемость Microsoft 365 Copilot

Хотя Microsoft 365 Copilot уже может использовать приложения и данные в экосистеме Microsoft 365, многие организации по-прежнему зависят от различных внешних инструментов и служб для управления работой и совместной работы. При ответе на запрос пользователя Microsoft 365 Copilot может ссылаться на сторонние инструменты и службы с помощью соединителей Microsoft Graph или плагинов. Данные из соединителей Graph могут быть возвращены в ответах Microsoft 365 Copilot, если у пользователя есть разрешение на доступ к этой информации.

При включении плагинов Microsoft 365 Copilot определяет, нужно ли использовать определенный плагин, чтобы предоставить пользователю соответствующий ответ. Если необходим плагин, Microsoft 365 Copilot формирует поисковый запрос для отправки плагину от имени пользователя. Запрос основан на запросе пользователя, журнале действий Copilot и данных, к которые пользователь имеет доступ в Microsoft 365.

В разделе Интегрированные приложенияцентра администрирования Microsoft 365 администраторы могут просматривать разрешения и доступ к данным, необходимые для подключаемого модуля, а также условия использования подключаемого модуля и заявление о конфиденциальности. У администраторов есть полный доступ к управлению тем, какие плагины разрешены в их организации. Пользователь может получить доступ только к тем плагинам, которые разрешены администратором и которые пользователь установил или назначил. Microsoft 365 Copilot использует только плагины, включенные пользователем.

Дополнительные сведения см. в следующих статьях:

Как Microsoft 365 Copilot защищает данные организации?

Модель разрешений в вашем клиенте Microsoft 365 может помочь предотвратить непреднамеренную утечку данных между пользователями, группами и клиентами. Microsoft 365 Copilot представляет только те данные, к которым каждый пользователь может получить доступ, используя те же базовые элементы управления для доступа к данным, которые используются в других службах Microsoft 365. Семантический индекс учитывает границу доступа на основе удостоверения пользователя, поэтому процесс заземления получает доступ только к тому контенту, доступ к которому разрешен текущему пользователю. Дополнительные сведения см. в политике конфиденциальности Microsoft и сервисной документации .

Если у вас есть данные, зашифрованные с помощью Защиты информации Microsoft Purview, Microsoft 365 Copilot соблюдает предоставленные пользователю права использования. Это шифрование можно применять с помощью меток конфиденциальности или ограничения разрешений в приложениях в Microsoft 365 с помощью управления правами на доступ к данным (IRM). Дополнительные сведения об использовании Microsoft Purview с Microsoft 365 Copilot см. в статье Безопасность данных Microsoft Purview и защита соответствия требованиям для приложений генеративного ИИ.

Мы уже реализуем несколько форм защиты, чтобы помочь клиентам предотвратить компрометацию служб и приложений Microsoft 365 или получение несанкционированного доступа к другим клиентам или самой системе Microsoft 365. Вот несколько примеров таких форм защиты:

  • Логическая изоляция контента клиента внутри каждого клиента служб Microsoft 365 достигается за счет авторизации Microsoft Entra и управления доступом на основе ролей. Дополнительные сведения см. в разделе Элементы управления изоляцией Microsoft 365 .

  • Корпорация Майкрософт использует строгие меры физической безопасности, фоновую проверку и многоуровневую стратегию шифрования для защиты конфиденциальности и целостности пользовательского контента.

  • Microsoft 365 использует технологии на стороне службы, которые шифруют содержимое клиента при хранении и передаче, включая BitLocker, шифрование для каждого файла, безопасность транспортного уровня (TLS) и безопасность протокола Интернета (IPsec). Дополнительные сведения о шифровании в Microsoft 365 см. в статье Шифрование в Microsoft Cloud .

  • Ваш контроль над вашими данными усиливается обязательством Microsoft соблюдать широко применимые законы о конфиденциальности, такие как GDPR, и стандарты конфиденциальности, такие как ISO/IEC 27018, первый в мире международный свод правил для конфиденциальности в облаке.

  • Для контента, доступ к которому осуществляется через плагины Microsoft 365 Copilot, шифрование может исключить программный доступ, тем самым ограничивая доступ подключаемого модуля к контенту. Дополнительные сведения см. в разделе Настройка прав использования для Azure Information Protection .

Соответствие нормативным требованиям

По мере развития регулирования в сфере искусственного интеллекта Microsoft будет продолжать адаптироваться и реагировать на будущие нормативные требования.

Microsoft 365 Copilot разработан с учетом текущих обязательств Microsoft по обеспечению безопасности и конфиденциальности данных на предприятии. В этих обязательствах нет никаких изменений. Microsoft 365 Copilot интегрирован в Microsoft 365 и соответствует всем существующим обязательствам по конфиденциальности, безопасности и соответствию требованиям коммерческих клиентов Microsoft 365. Дополнительные сведения см. в разделе Соответствие требованиям Microsoft .

Помимо соблюдения правил, мы отдаем приоритет открытому диалогу с нашими клиентами, партнерами и регулирующими органами, чтобы лучше понимать и решать проблемы, тем самым способствуя созданию атмосферы доверия и сотрудничества. Мы признаем, что конфиденциальность, безопасность и прозрачность — это не просто функции, а обязательные условия в сфере ИИ в Microsoft.

Дополнительные сведения

Microsoft 365 Copilot и средства управления конфиденциальностью для подключенных приложений

Некоторые элементы управления конфиденциальностью для сетевых возможностей в приложениях Microsoft 365 могут влиять на доступность функций Microsoft 365 Copilot. Сюда входят элементы управления конфиденциальностью для подключенных взаимодействий, которые анализируют контент, а также элементы управления конфиденциальностью для дополнительных подключенных взаимодействий. Дополнительные сведения об этих элементах управления конфиденциальностью см. в статье Обзор элементов управления конфиденциальностью для приложений Microsoft 365 профессиональный плюс.

Управление конфиденциальностью для подключенных взаимодействий, анализирующих контент

Если отключить подключенные функции, которые анализируют содержимое на устройствах в организации, Microsoft 365 Copilot функции будут недоступны пользователям в следующих приложениях:

  • Excel
  • OneNote
  • Outlook
  • PowerPoint
  • Word

Это относится к, если вы используете самую последнюю версию этих приложений на устройствах Windows, Mac, iOS или Android.

Кроме того, есть элемент управления конфиденциальностью, который отключает все подключенные взаимодействия, включая анализирующие контент. Если вы используете этот контроль конфиденциальности, Microsoft 365 Copilot функции будут недоступны в приложениях и на описанных выше устройствах.

Управление конфиденциальностью для необязательных подключенных функций

Если вы отключите дополнительные подключенные возможности в своей организации, функции Microsoft 365 Copilot, являющиеся необязательными сетевыми взаимодействиями, не будут доступны пользователям. Например, пользователям не будет доступен поиск в Интернете.

Также есть элемент управления конфиденциальностью, который отключает все подключенные функции, включая необязательные. Если вы используете этот элемент управления конфиденциальностью, функции Microsoft 365 Copilot, являющиеся необязательными подключенными взаимодействиями, будут недоступны.

О содержимом, создаваемом Microsoft 365 Copilot

Ответы, которые дает генеративный ИИ, не обязательно на 100% соответствуют действительности. Хотя мы продолжаем улучшать ответы, пользователям по-прежнему следует опираться на свое мнение при просмотре результатов, прежде чем отправлять их другим. Наши функции Microsoft 365 Copilot предоставляют полезные черновики и сводки, которые помогут вам сделать больше, давая вам возможность просматривать содержимое созданное ИИ, а не полностью автоматизировать эти задачи.

Мы продолжаем совершенствовать алгоритмы для заблаговременного решения таких проблем, как недостоверная и дезинформация, блокировка контента, безопасность данных и предотвращение продвижения вредоносного или дискриминационного контента в соответствии с нашими ответственными принципами искусственного интеллекта .

Корпорация Майкрософт не является владельцем выходных данных службы. Тем не менее, мы не определяем, защищены ли выходные данные клиента авторским правом или может ли оно быть принудительно применено против других пользователей. Это связано с тем, что генеративные системы искусственного интеллекта могут выдавать одинаковые ответы на аналогичные запросы или запросы от нескольких клиентов. Следовательно, у нескольких клиентов могут быть претензии или права на одинаковое или схожее по существу содержимое.

Если третья сторона подает в суд на коммерческого клиента за нарушение авторских прав за использование Microsoft Copilots или результатов, которые они создают, мы защитим клиента и выплатим сумму любых неблагоприятных судебных решений или урегулирований, вытекающих из судебного иска, при условии, что клиент использовал ограничения и фильтры содержимого, встроенные в наши продукты. Дополнительные сведения см. в статье Microsoft объявляет о новом обязательстве по защите авторских прав Copilot для клиентов.

Как Copilot блокирует вредоносное содержимое?

Служба Azure OpenAI включает систему фильтрации содержимого, которая работает вместе с основными моделями. Модели фильтрации содержимого для категорий "Ненависть и справедливость", "Сексуальные отношения", "Насилие" и "Самоповреждение" специально обучены и протестированы на различных языках. В процессе работы эта система пропускает и входной запрос, и ответ через модели классификации, предназначенные для выявления и блокировки вывода вредоносного содержимого.

В категории "Ненависть и справедливость" вред может наносить любое содержимое, в котором используются уничижительные или дискриминационные выражения на основании расы, этнической принадлежности, национальности, половой идентичности и самовыражения, сексуальной ориентации, религии, иммиграционного статуса, физического состояния, внешности и размера тела. Справедливость побуждает обеспечить одинаковое отношение систем ИИ ко всем группам людей, чтобы не усугублять существующее социальное неравенство. Содержимое сексуального характера включает обсуждение репродуктивных органов человека, романтических отношений, действий, изображаемых в эротических или страстных выражениях, беременности, физических половых актов, в том числе представленных как нападение или насильственный половой акт, проституции, порнографии и жестокого обращения. В категории "Насилие" используются выражения, связанные с физическими действиями, направленными на причинение вреда или убийство, включая действия, оружие и связанные структуры. Выражения, описывающие самоповреждение, относятся к преднамеренным действиям, направленным на причинение себе вреда или самоубийство.

Подробнее о фильтрации содержимого Azure OpenAI.

Обеспечивает ли Copilot обнаружение защищенных материалов?

Да, Microsoft 365 Copilot обеспечивает обнаружение защищенных материалов, включая текст, защищенный авторским правом, и код, подпадающий под лицензионные ограничения. Не все из этих мер применимы ко всем сценариям Microsoft 365 Copilot.

Блокирует ли Copilot внедрение запросов (атаки для взлома)?

Атаки для взлома — это запросы пользователей, побуждающие модель генеративного ИИ обходить стандарты поведения, которым она обучена, и нарушать правила, которым она должна следовать. Microsoft 365 Copilot предназначен для защиты от атак с внедрением запросов. Подробнее об атаках для взлома и о том, как использовать Безопасность содержимого ИИ Azure для их обнаружения.

Приверженность ответственному ИИ

Поскольку ИИ готов изменить нашу жизнь, мы должны коллективно определить новые правила, нормы и методы использования и воздействия этой технологии. Microsoft находится на пути ответственного ИИ с 2017 года, когда мы определили наши принципы и подход к обеспечению использования этой технологии таким образом, чтобы руководствоваться этическими принципами, ставящими людей на первое место.

Мы в Microsoft руководствуемся принципами искусственного интеллекта , нашим Стандартом ответственного искусственного интеллекта и десятилетиями исследований в области искусственного интеллекта, заземления и машинного обучения с сохранением конфиденциальности. Междисциплинарная группа исследователей, инженеров и экспертов по политике проверяет наши системы искусственного интеллекта на предмет потенциального вреда и мер по смягчению последствий — уточняя обучающие данные, фильтруя их для ограничения вредоносного контента, блокируя запросы и результаты, а также применяя технологии Microsoft, такие как InterpretML и Fairlearn, чтобы помочь. обнаружить и исправить систематическую ошибку данных. Мы разъясняем, как система принимает решения, отмечая ограничения, ссылаясь на источники и предлагая пользователям просматривать, проверять факты и корректировать контент на основе предметной экспертизы. Дополнительную информацию см. в разделе Управление ИИ: план будущего .

Мы стремимся помочь нашим клиентам ответственно использовать наши продукты искусственного интеллекта, делиться своими знаниями и строить доверительные партнерские отношения. Что касается этих новых услуг, мы хотим предоставить нашим клиентам информацию о предполагаемом использовании, возможностях и ограничениях нашей платформы ИИ, чтобы у них были знания, необходимые для ответственного выбора развертывания. Мы также делимся ресурсами и шаблонами с разработчиками внутри организаций и с независимыми поставщиками программного обеспечения (ISV), чтобы помочь им создавать эффективные, безопасные и прозрачные решения ИИ.