البيانات والخصوصية والأمان لـ Microsoft Copilot لـ Microsoft 365

Microsoft Copilot لـ Microsoft 365 هو محرك معالجة وتزامن معقد يوفر قدرات إنتاجية الذكاء الاصطناعي من خلال تنسيق المكونات التالية:

  • نماذج اللغة الكبيرة (LLMs)
  • المحتوى في Microsoft Graph، مثل رسائل البريد الإلكتروني والدردشات والمستندات التي لديك الإذن بالوصول إليها.
  • تطبيقات Microsoft 365 التي تستخدمها كل يوم، مثل Word و PowerPoint.

للحصول على نظرة عامة حول كيفية عمل هذه المكونات الثلاثة معا، راجع نظرة عامة حول Microsoft Copilot لـ Microsoft 365. للحصول على ارتباطات إلى محتوى آخر متعلق بـ Microsoft Copilot لـ Microsoft 365، راجع وثائق Microsoft Copilot لـ Microsoft 365.

هام

  • يتوافق Microsoft Copilot لـ Microsoft 365 مع التزامات الخصوصية والأمان والتوافق الحالية للعملاء التجاريين لـ Microsoft 365، بما في ذلك القانون العام لحماية البيانات (GDPR) و حدود بيانات الاتحاد الأوروبي (EU).
  • لا يتم استخدام المطالبات والاستجابات والبيانات التي يتم الوصول إليها من خلال Microsoft Graph لتدريب أجهزة LLM الأساسية، بما في ذلك تلك التي يستخدمها Microsoft Copilot لـ Microsoft 365.

تهدف المعلومات الواردة في هذه المقالة إلى المساعدة في توفير إجابات للأسئلة التالية:

ملاحظة

سيستمر Microsoft Copilot لـ Microsoft 365 في التطور مع مرور الوقت مع القدرات الجديدة. للبقاء على اطلاع دائم على Microsoft Copilot لـ Microsoft 365 أو طرح الأسئلة، تفضل بزيارة مجتمع Microsoft 365 Copilot في مجتمع Microsoft التقني.

كيف يستخدم Microsoft Copilot لـ Microsoft 365 بياناتك التنظيمية الخاصة؟

يوفر Microsoft Copilot لـ Microsoft 365 قيمة من خلال توصيل أجهزة LLM ببيانات المؤسسة الخاصة بك. يصل Microsoft Copilot لـ Microsoft 365 إلى المحتوى والسياق من خلال Microsoft Graph. يمكنه إنشاء استجابات مرتكزة على بيانات مؤسستك، مثل مستندات المستخدم ورسائل البريد الإلكتروني والتقويم والدردشات والاجتماعات وجهات الاتصال. يجمع Microsoft Copilot لـ Microsoft 365 هذا المحتوى مع سياق عمل المستخدم، مثل الاجتماع الذي يوجد فيه المستخدم الآن، أو رسائل البريد الإلكتروني التي قام المستخدم بتبادلها حول موضوع ما، أو محادثات الدردشة التي عقدها المستخدم الأسبوع الماضي. يستخدم Microsoft Copilot لـ Microsoft 365 هذه التركيبة من المحتوى والسياق للمساعدة في توفير استجابات دقيقة وملائمة وسياقية.

هام

لا يتم استخدام المطالبات والاستجابات والبيانات التي يتم الوصول إليها من خلال Microsoft Graph لتدريب أجهزة LLM الأساسية، بما في ذلك تلك التي يستخدمها Microsoft Copilot لـ Microsoft 365.

تقوم Microsoft Copilot لـ Microsoft 365 فقط بعرض بيانات المؤسسة التي يملك المستخدمون الفرديون أذونات عرضها على الأقل. من المهم أن تستخدم نماذج الأذونات المتوفرة في خدمات Microsoft 365، مثل SharePoint، للمساعدة في ضمان حصول المستخدمين أو المجموعات المناسبة على حق الوصول إلى المحتوى الصحيح داخل مؤسستك. يشمل ذلك الأذونات التي تمنحها للمستخدمين من خارج مؤسستك من خلال حلول التعاون بين المستأجرين، مثل القنوات المشتركة في Microsoft Teams.

عندما تقوم بإدخال المطالبات باستخدام Microsoft Copilot لـ Microsoft 365، تبقى المعلومات المضمنة في المطالبات والبيانات التي تستردها والاستجابات التي تم إنشاؤها ضمن حد خدمة Microsoft 365، بما يتوافق مع التزامات الخصوصية والأمان والتوافق الحالية. يستخدم Microsoft Copilot لـ Microsoft 365 خدمات Azure OpenAI للمعالجة، وليس خدمات OpenAI المتوفرة بشكل عام. لا يقوم Azure Open AI بتخزين محتوى العميل والمطالبات المعدّلة بواسطة Copilot مؤقتًا لـ Copilot لـ Microsoft 365.

ملاحظة

عند استخدام Microsoft Copilot لـ Microsoft 365، قد تترك بيانات مؤسستك حد خدمة Microsoft 365 في ظل الظروف التالية:

  • عند استخدام المكونات الإضافية لمساعدة Microsoft Copilot لـ Microsoft 365 لتوفير معلومات أكثر صلة. تحقق من بيان الخصوصية وشروط استخدام المكون الإضافي لتحديد كيفية معالجة بيانات مؤسستك. للحصول على معلومات، راجع إمكانية توسعة Microsoft Copilot لـ Microsoft 365.
  • عند استخدام المكون الإضافي لمحتوى الويب لتحسين إجابات الدردشة، سيقوم Copilot لـ Microsoft 365 بإنشاء استعلام بحث يتم إرساله إلى Bing للحصول على أحدث المعلومات من الويب. لمزيد من المعلومات، راجع Microsoft Copilot لـ Microsoft 365 ومكون محتوى الويب.

تتم مراقبة إساءة استخدام Microsoft Copilot لـ Microsoft 365 في الوقت الحقيقي، دون توفير أي وصول دائم إلى بيانات العملاء من Microsoft، سواء من أجل الإنسان أو للمراجعة التلقائية. على الرغم من توفر الإشراف على إساءة الاستخدام، والذي يتضمن المراجعة البشرية للمحتوى، في Azure OpenAI، فقد قامت خدمات Microsoft Copilot لـ Microsoft 365 بإلغاء الاشتراك فيها. لا يتم جمع بيانات Microsoft 365 أو تخزينها بواسطة Azure OpenAI.

ملاحظة

قد نستخدم ملاحظات العملاء، وهي اختيارية، لتحسين Microsoft Copilot لـ Microsoft 365، تماما كما نستخدم ملاحظات العملاء لتحسين خدمات Microsoft 365 أخرى وتطبيقات Microsoft 365. لا نستخدم هذه الملاحظات لتدريب أجهزة LLM الأساسية التي يستخدمها Microsoft Copilot لـ Microsoft 365. يمكن للعملاء إدارة الملاحظات من خلال عناصر تحكم المسؤول. لمزيد من المعلومات، راجع إدارة ملاحظات Microsoft لمؤسستك وتقديم ملاحظات حول Microsoft Copilot لـ Microsoft 365.

البيانات المخزنة حول تفاعلات المستخدم مع Microsoft Copilot لـ Microsoft 365

عندما يتفاعل مستخدم مع تطبيقات Microsoft Copilot لـ Microsoft 365 (مثل Word أو PowerPoint أو Excel أو OneNote أو Loop أو Whiteboard)، نقوم بتخزين بيانات حول هذه التفاعلات. تتضمن البيانات المخزنة مطالبة المستخدم واستجابة Copilot، بما يشمل اقتباسات لأي معلومات مستخدمة لوضع استجابة Copilot على الأرض. نشير إلى مطالبة المستخدم واستجابة Copilot لتلك المطالبة لأن «محتوى التفاعلات» وسجل هذه التفاعلات هو سجل تفاعل Copilot الخاص بالمستخدم. على سبيل المثال، توفر هذه البيانات المخزنة للمستخدمين محفوظات التفاعل مع Copilot في Microsoft Copilot مع الدردشة المستندة إلى الرسم البياني والاجتماعات في Microsoft Teams. تتم معالجة هذه البيانات وتخزينها وفقا للالتزامات التعاقدية مع المحتوى الآخر لمؤسستك في Microsoft 365. يتم تشفير البيانات أثناء تخزينها ولا يتم استخدامها لتدريب أجهزة LLM الأساسية، بما في ذلك تلك التي يستخدمها Microsoft Copilot لـ Microsoft 365.

لعرض هذه البيانات المخزنة وإدارتها، يمكن للمسؤولين استخدام البحث في المحتوى أو Microsoft Purview. يمكن للمسؤولين أيضًا استخدام Microsoft Purview لتعيين نهج الاستبقاء للبيانات المتعلقة بتفاعلات الدردشة مع Copilot. لمزيد من المعلومات، راجع المقالات التالية:

بالنسبة لدردشات Microsoft Teams مع Copilot، يمكن للمسؤولين أيضا استخدام واجهات برمجة تطبيقات تصدير Microsoft Teams لعرض البيانات المخزنة.

حذف محفوظات تفاعلات المستخدم مع Microsoft Copilot لـ Microsoft 365

يمكن للمستخدمين حذف محفوظات تفاعل Copilot الخاصة بهم، التي تتضمن مطالباتهم والاستجابات التي يرجعها Copilot، من خلال الانتقال إلى مدخل "حسابي". لمزيد من المعلومات، راجع حذف محفوظات تفاعل Microsoft Copilot.

Microsoft Copilot لـ Microsoft 365 وحدود بيانات الاتحاد الأوروبي

يتم توجيه مكالمات Microsoft Copilot لـ Microsoft 365 إلى LLM إلى أقرب مراكز البيانات في المنطقة، ولكن يمكن أيضًا الاتصال بمناطق أخرى تتوفر فيها السعة أثناء فترات الاستخدام المرتفعة.

لمستخدمي الاتحاد الأوروبي (EU)، لدينا ضمانات إضافية للامتثال إلى حدود بيانات الاتحاد الأوروبي. يبقى نشاط الشبكة في الاتحاد الأوروبي ضمن حدود بيانات الاتحاد الأوروبي بينما يمكن إرسال نشاط الشبكة في جميع أنحاء العالم إلى الاتحاد الأوروبي وبلدان أو مناطق أخرى لمعالجة LLM.

Microsoft Copilot لـ Microsoft 365 ومقام البيانات

تلتزم Copilot for Microsoft 365 بالتزامات موقع البيانات كما هو موضح في ملحق شروط منتجات Microsoft وحماية البيانات. تمت إضافة Copilot for Microsoft 365 كحمل عمل مغطى في التزامات موقع البيانات في شروط منتج Microsoft في 1 مارس 2024.

تتضمن عروض Microsoft Advanced Data Residency (ADR) و Multi-Geo Capabilities التزامات موقع البيانات لـ Copilot لعملاء Microsoft 365 لاحقًا في عام 1, 2024. بالنسبة لعملاء الاتحاد الأوروبي، تعد Copilot for Microsoft 365 خدمة لحدود البيانات في الاتحاد الأوروبي. قد تتم معالجة استعلامات العملاء خارج الاتحاد الأوروبي في الولايات المتحدة أو الاتحاد الأوروبي أو مناطق أخرى.

Microsoft Copilot لـ Microsoft 365 ومكون محتوى الويب الإضافي

لدى Copilot for Microsoft 365 خيار تحسين إجابات الدردشة بأحدث المعلومات من الويب. عند تمكين المكون الإضافي لمحتوى الويب، قد يقوم Copilot بإحضار معلومات من فهرس بحث Bing عندما يحدد Copilot أن المعلومات من الويب ستساعد على توفير استجابة أفضل وأكثر أرضية.

تتوفر عناصر تحكم المسؤول والتبديل على مستوى المستخدم لإدارة ما إذا كان المكون الإضافي لمحتوى الويب ممكنًا في بيئتك.

كيفية عمل المكون الإضافي لمحتوى الويب

عند تمكين المكون الإضافي لمحتوى الويب في الدردشة، يقوم Copilot لـ Microsoft 365 تحليل مطالبة المستخدم وتحديد المصطلحات التي يمكن أن يحسن فيها تأسيس الويب جودة الاستجابة. استنادًا إلى هذه المصطلحات، يقوم Copilot بإنشاء استعلام بحث يتم إرساله إلى واجهة برمجة تطبيقات بحث Bing لطلب مزيد من المعلومات. يختلف استعلام البحث هذا عن مطالبة المستخدم- فهو يتكون عادة من بضع كلمات يتم إعلامها بمطالبة المستخدم و/أو بيانات Microsoft 365. ولا تتضمن تلقائيًا كافة مستندات Microsoft 365 المقترنة بالمطالبة.

يوفر الجدول التالي مثالا لمطالبة المستخدم واستعلامات البحث المرسلة واستجابة Copilot.

العنصر النص
المطالبة (كما هو مكتوب بواسطة المستخدم) نحن ندرس إمكانية الحصول على Fabrikam. ساعدني في وضع تقرير ملخص مكون من 200 كلمة للمعلومات المالية المتوفرة بشكل عام حول الشركة، بما في ذلك استراتيجية العمل الخاصة بها.
استعلامات البحث (التي تم إنشاؤها بواسطة Copilot وإرسالها إلى واجهة برمجة تطبيقات بحث Bing) استراتيجية Fabrikam
نهج Fabrikam المالية
الاستجابة (تم إنشاؤها بواسطة Copilot) شركة Fabrikam هي شركة بدء تشغيل CPG تقدم بدائل طعام صحية ولكن بنفس الذوق المألوف كالعلامات التجارية التقليدية. جمعت الشركة 4.5 مليون دولار أمريكي كأموال أولية في عام 2019 وجمعت 31.5 مليون دولار أمريكي في جولة تمويل السلسلة B في عام 2022. اعتبارًا من يناير 2023، قامت Fabrikam برفع إجمالي 83.4 مليون دولار أمريكي في شكل تمويل وهي مستهدفة بأكثر من ضعف مبيعاتها هذا العام.

مع انتشار الجائحة، واجه Fabrikam تحدي التنقل من متاجر الطوب والهاون إلى المبيعات عبر الإنترنت، وهذا هو المكان الذي لعبت فيه استراتيجية التسويق المؤثرة الخاصة بها. بدلاً من الاعتماد على الأحداث والعروض الترويجية داخل المتجر، تحول Fabrikam إلى وسائل التواصل الاجتماعي ومشاركات المؤثرين لبناء الوعي بالعلامة التجارية والوصول إلى جمهور أوسع. اقتربت الشركة أيضًا من الابتكار من زاوية أصلية، وموازنة محركات الاستهلاك التقليدية مع العروض الأفضل لك والحصول على استراتيجية توزيع شاملة وقوية.

باختصار، قامت شركة Fabrikam بطرح أكثر من 55 مليون دولار أمريكي في شكل تمويل وتشتمل على استراتيجية تسويق مؤثرة قوية ساعدتهم على المشاركة في المبيعات عبر الإنترنت أثناء الجائحة.

في هذا المثال، يتم إرسال استعلامات البحث اثنين فقط إلى واجهة برمجة تطبيقات بحث Bing. بعد إدخال المستخدم لمطالبته، ستعرض تجربة الدردشة أي استعلامات يتم إنشاؤها وإرسالها إلى Bing. يتم تخزين مطالبات المستخدم واستجابات Copilot في Microsoft 365. يتم إلغاء اقتران استعلامات البحث المرسلة إلى واجهة برمجة تطبيقات بحث Bing بواسطة Copilot لـ Microsoft 365 بمعرف المستخدم ومعرف المستأجر.

يتم توفير واجهة برمجة تطبيقات بحث Bing بواسطة Bing.com، التي تعمل بشكل منفصل عن Microsoft 365 وتشتمل على ممارسات مختلفة لمعالجة البيانات. تتم تغطية استخدام Bing بواسطة اتفاقية خدمات Microsoft بين كل مستخدم وMicrosoft، جنبًا إلى جنب مع بيان خصوصية Microsoft. لا ينطبق ملحق حماية بيانات منتجات وخدمات Microsoft (DPA) على استخدام المكون الإضافي لمحتوى الويب أو واجهة برمجة تطبيقات بحث Bing.

الضوابط المتاحة لإدارة استخدام محتوى الويب

يمكن للمسؤولين حظر الوصول إلى محتوى الويب في Copilot Microsoft 365. لمزيد من المعلومات، راجع إدارة الوصول إلى محتوى الويب في استجابات Microsoft Copilot لـ Microsoft 365. حتى عندما يسمح المسؤول بذلك، لا يزال لدى المستخدمين الخيار سواء أرادوا استخدام المكون الإضافي للويب أم لا. لمزيد من المعلومات، راجع استخدام مصادر بيانات إضافية مع Microsoft 365 Copilot.

ملاحظة

لا تنطبق إعدادات النهج التي تتحكم في استخدام التجارب المتصلة الاختيارية في تطبيقات Microsoft 365 على Microsoft Copilot لـ Microsoft 365 ومحتوى الويب.

إمكانية توسعة Microsoft Copilot لـ Microsoft 365

على الرغم من أن Microsoft Copilot لـ Microsoft 365 قادر بالفعل على استخدام التطبيقات، والبيانات ضمن النظام البيئي لـ Microsoft 365، إلا أن العديد من المؤسسات لا تزال تعتمد على أدوات وخدمات خارجية متنوعة لإدارة العمل والتعاون. يمكن لتجارب Microsoft Copilot لـ Microsoft 365 الرجوع إلى أدوات وخدمات الجهات الخارجية عند الاستجابة لطلب المستخدم باستخدام موصلات Microsoft Graph أو المكونات الإضافية. يمكن إرجاع البيانات من موصلات Graph في استجابات Microsoft Copilot لـ Microsoft 365 إذا كان لدى المستخدم إذن للوصول إلى تلك المعلومات.

عند تمكين المكونات الإضافية، يحدد Microsoft Copilot لـ Microsoft 365 ما إذا كان يحتاج إلى استخدام مكون إضافي محدد للمساعدة في توفير الاستجابة ذات الصلة للمستخدم. إذا كانت هناك حاجة إلى مكون إضافي، فسيقوم Microsoft Copilot لـ Microsoft 365 بإنشاء استعلام بحث لإرساله إلى المكون الإضافي نيابة عن المستخدم. يستند الاستعلام إلى مطالبة المستخدم ومحفوظات تفاعل Copilot والبيانات التي يمكن للمستخدم الوصول إليها في Microsoft 365.

في قسم التطبيقات المتكاملة في مركز مسؤولي Microsoft 365، يمكن للمسؤولين عرض الأذونات والوصول إلى البيانات المطلوبة من قبل المكون الإضافي، بالإضافة إلى شروط استخدام المكون الإضافي، وبيان الخصوصية. يتمتع المسؤولون بالتحكم الكامل في تحديد المكونات الإضافية المسموح بها في مؤسستهم. يمكن للمستخدم فقط الوصول إلى المكونات الإضافية التي يسمح بها المشرف والتي قام المستخدم بتثبيتها أو تعيينها. يستخدم Microsoft Copilot لـ Microsoft 365 المكونات الإضافية التي يتم تشغيلها بواسطة المستخدم فقط.

ملاحظة

لا تنطبق إعدادات النهج التي تتحكم في استخدام التجارب المتصلة الاختيارية في تطبيقات Microsoft 365 على المكونات الإضافية.

لمزيد من المعلومات، راجع المقالات التالية:

كيف يحمي Microsoft Copilot لـ Microsoft 365 بيانات المؤسسة؟

يمكن أن يساعد نموذج الأذونات داخل مستأجر Microsoft 365 على ضمان عدم تسرب البيانات عن غير قصد بين المستخدمين والمجموعات والمستأجرين. يعرض Microsoft Copilot لـ Microsoft 365 فقط البيانات التي يمكن لكل فرد الوصول إليها باستخدام نفس عناصر التحكم الأساسية للوصول إلى البيانات المستخدمة في خدمات Microsoft 365 الأخرى. يحترم الفهرس الدلالي حد الوصول المستند إلى هوية المستخدم بحيث لا تصل عملية الأساس إلا إلى المحتوى الذي يصرح للمستخدم الحالي بالوصول إليه. لمزيد من المعلومات، راجع نهج الخصوصية ووثائق الخدمة من Microsoft.

عندما يكون لديك بيانات مشفرة بواسطة حماية البيانات في Microsoft Purview، يحترم Microsoft Copilot لـ Microsoft 365 حقوق الاستخدام الممنوحة للمستخدم. يمكن تطبيق هذا التشفير بواسطة تسميات الحساسية أو بواسطة أذونات مقيدة في تطبيقات Microsoft 365 باستخدام إدارة حقوق المعلومات (IRM). للحصول على مزيد من المعلومات حول استخدام Microsoft Purview مع Microsoft Copilot لـ Microsoft 365، راجع حماية التوافق وأمان بيانات Microsoft Purview لتطبيقات الذكاء الاصطناعي التوليدي.

نحن نطبق بالفعل أشكالًا متعددة من الحماية للمساعدة في منع العملاء من الإضرار بخدمات وتطبيقات Microsoft 365 أو الحصول على وصول غير مصرح به إلى مستأجرين آخرين أو نظام Microsoft 365 نفسه. فيما يلي بعض الأمثلة على أشكال الحماية هذه:

  • يتم تحقيق العزل المنطقي لمحتوى العميل داخل كل مستأجر لخدمات Microsoft 365 من خلال تخويل معرف Microsoft Entra والتحكم بالوصول المستند إلى الأدوار. لمزيد من المعلومات، راجع Microsoft 365 عناصر التحكمبالعزل.

  • تستخدم Microsoft أمانًا ماديًا صارمًا وتدقيقًا في الخلفية واستراتيجية تشفير متعددة الطبقات لحماية سرية محتوى العميل وتكامله.

  • تستخدم Microsoft 365 تقنيات من جانب الخدمة تقوم بتشفير محتوى العميل أثناء التنقل والراحة، بما في ذلك BitLocker وتشفير كل ملف وأمان طبقة النقل (TLS) وأمان بروتوكول الإنترنت (IPsec). للحصول على تفاصيل محددة حول التشفير في Microsoft 365، راجع التشفير في Microsoft Cloud.

  • يتم تعزيز التحكم في بياناتك من خلال التزام Microsoft بالامتثال لقوانين الخصوصية المعمول بها على نطاق واسع، مثل القانون العام لحماية البيانات (GDPR) ومعايير الخصوصية، مثل ISO/IEC 27018، أول قواعد ممارسة دولية للخصوصية السحابية في العالم.

  • بالنسبة للمحتوى الذي يتم الوصول إليه من خلال مكوّنات Microsoft Copilot لـ Microsoft 365 الإضافية، يمكن أن يؤدي التشفير إلى استبعاد الوصول البرمجي، مما يؤدي إلى تقييد المكون الإضافي من الوصول إلى المحتوى. للحصول على مزيد من المعلومات، راجع تكوين حقوق الاستخدام حماية البيانات في Azure.

تلبية متطلبات التوافق التنظيمي

مع تطور اللوائح في مساحة الذكاء الاصطناعي، ستستمر Microsoft في التكيف والاستجابة لتلبية المتطلبات التنظيمية المستقبلية.

تم تصميم Microsoft Copilot لـ Microsoft 365 على رأس التزامات Microsoft الحالية المتعلقة بأمان البيانات والخصوصية في المؤسسة. لا يوجد أي تغيير في هذه الالتزامات. يتكامل Microsoft Copilot لـ Microsoft 365 مع Microsoft 365 ويلتزم بجميع التزامات الخصوصية والأمان والتوافق الحالية اتجاه عملاء Microsoft 365 التجاريين. لمزيد من المعلومات، راجع توافق Microsoft.

بالإضافة إلى الالتزام باللوائح، نقوم بتحديد أولويات حوار مفتوح مع عملائنا وشركائنا وهيئاتنا التنظيمية لفهم المخاوف ومعالجتها بشكل أفضل، وبالتالي تعزيز بيئة الثقة والتعاون. نحن نقر بأن الخصوصية والأمان والشفافية ليست ميزات فحسب، بل هي متطلبات أساسية في الفضاء القائم على الذكاء الاصطناعي لدى Microsoft.

معلومات إضافية

Microsoft Copilot لـ Microsoft 365 وإعدادات النهج للتجارب المتصلة

إذا أوقفت تشغيل التجارب المتصلة التي تحلل المحتوى Microsoft 365 Apps على أجهزة Windows أو Mac في مؤسستك، فلن تتوفر ميزات Microsoft Copilot لـ Microsoft 365 للمستخدمين في التطبيقات التالية:

  • Excel
  • PowerPoint
  • OneNote
  • Word

وبالمثل، لن تتوفر ميزات Microsoft Copilot لـ Microsoft 365 في هذه التطبيقات على أجهزة Windows أو Mac إذا قمت بإيقاف تشغيل استخدام التجارب المتصلة لتطبيقات Microsoft 365.

للحصول على مزيد من المعلومات حول استخدام إعدادات النهج هذه، اطلع على المقالات التالية:

حول المحتوى الذي ينشئه Microsoft Copilot لـ Microsoft 365

لا تضمن الاستجابات التي تنتجها الذكاء الاصطناعي توليدية أن تكون واقعية بنسبة 100%. بينما نواصل تحسين الاستجابات، يجب على المستخدمين الاستمرار في استخدام حكمهم عند مراجعة الإخراج قبل إرسالها إلى الآخرين. توفر قدرات Microsoft Copilot لـ Microsoft 365 مسودات وملخصات مفيدة لمساعدتك على إنجاز المزيد مع منحك فرصة لمراجعة الذكاء الاصطناعي التي تم إنشاؤها بدلًا من أتمتة هذه المهام بشكل كامل.

نحن نواصل تحسين الخوارزميات لمعالجة المشكلات بشكل استباقي، مثل المعلومات الخاطئة والتشويه وحظر المحتوى وأمان البيانات ومنع ترويج المحتوى الضار أو التمييزي بما يتوافق مع مبادئ الذكاء الاصطناعي المسؤولة.

لا تطالب Microsoft بملكية إخراج الخدمة. وهذا يعني أننا لا نحدد ما إذا كان إخراج العميل محميا بحقوق النشر أم قابلا للتنفيذ ضد مستخدمين آخرين. وذلك لأن أنظمة الذكاء الاصطناعي التوليدية قد تنتج استجابات مماثلة لمطالبات أو استعلامات مشابهة من عدة عملاء. وبالتالي، قد يمتلك العديد من العملاء حقوقا أو يطالبون بحقوق في محتوى مماثل أو مشابه إلى حد كبير.

إذا أقام طرف ثالث دعوى قضائية ضد عميل تجاري بسبب انتهاك حقوق النشر بسبب استخدام Microsoft Copilots أو الإخراج الذي تقوم بإنشائها، فسندافع عن العميل وندفع مبلغ أي أحكام سلبية أو تسويات ناتجة عن الدعاوى القضائية، طالما أن العميل استخدم أدوات الحماية وعوامل تصفية المحتوى التي قمنا بإنشائها في منتجاتنا. لمزيد من المعلومات، راجع Microsoft تعلن عن التزام Copilot بحقوق نشر جديدة للعملاء.

ملتزمون بالذكاء الاصطناعي المسؤول

نظرًا لاستعداد الذكاء الاصطناعي لتحويل حياتنا، فيجب أن نحدد بشكل جماعي القواعد والمعايير والممارسات الجديدة لاستخدام هذه التقنية وتأثيرها. كانت Microsoft في رحلة الذكاء الاصطناعي المسؤول منذ عام 2017، عندما حددنا مبادئنا ونهجنا لضمان استخدام هذه التقنية بطريقة تستند إلى المبادئ الأساسية التي تضع الأشخاص في المقدمة.

في Microsoft، نحن نسترشد بمبادئ الذكاء الاصطناعي الخاصة بنا، الذكاء الاصطناعي المسؤول القياسي لدينا، وعقود من الأبحاث حول التعلم الآلي والذكاء الاصطناعي المحافظ على الخصوصية. يقوم فريق من الباحثين والمهندسين وخبراء السياسة بمراجعة أنظمتنا للذكاء الاصطناعي بحثًا عن الأضرار المحتملة وتخفيف المخاطر — تحسين بيانات التدريب والتصفية للحد من المحتوى الضار والمواضيع الحساسة التي تحظر الاستعلامات والنتيجة وتطبيق تقنيات Microsoft مثل InterpretML و Fairlearn للمساعدة في اكتشاف تحيز البيانات وتصحيحها. نحن نوضح كيف يتخذ النظام القرارات من خلال الإشارة إلى القيود والارتباط بالمصادر ومطالبة المستخدمين بمراجعة المحتوى والتحقق من الحقائق وضبطه استنادًا إلى الخبرة الموضوعية. للحصول على مزيد من المعلومات، راجع إدارة الذكاء الاصطناعي: مخطط للمستقبل.

نحن نتطلع إلى مساعدة عملائنا على استخدام منتجاتنا الذكاء الاصطناعي بطريقة مسؤولة ومشاركة تعلمنا وبناء مشاركات مستندة إلى الثقة. بالنسبة لهذه الخدمات الجديدة، نريد تزويد عملائنا بمعلومات حول الاستخدامات والإمكانيات والحدود المخصصة لخدمة النظام الأساسي الذكاء الاصطناعي، حتى يتمكنوا من الحصول على المعرفة اللازمة لتحديد خيارات النشر المسؤولة. نحن أيضًا نشارك الموارد والقوالب مع المطورين داخل المؤسسات ومع موردي البرامج المستقلين (ISVs)، لمساعدتهم على إنشاء حلول ذكاء اصطناعي فعالة وآمنة وشفافة.