إشعار
يتطلب الوصول إلى هذه الصفحة تخويلاً. يمكنك محاولة تسجيل الدخول أو تغيير الدلائل.
يتطلب الوصول إلى هذه الصفحة تخويلاً. يمكنك محاولة تغيير الدلائل.
Microsoft 365 Copilot هو محرك معالجة وتزامن معقد يوفر قدرات إنتاجية الذكاء الاصطناعي من خلال تنسيق المكونات التالية:
- نماذج اللغة الكبيرة (LLMs)
- المحتوى في Microsoft Graph، مثل رسائل البريد الإلكتروني والدردشات والمستندات التي لديك الإذن بالوصول إليها.
- تطبيقات إنتاجية Microsoft 365 التي تستخدمها كل يوم، مثل Word و PowerPoint.
للحصول على نظرة عامة حول كيفية عمل هذه المكونات الثلاثة معا، راجع نظرة عامة Microsoft 365 Copilot. للحصول على روابط إلى محتوى آخر متعلق Microsoft 365 Copilot، راجع وثائق Microsoft 365 Copilot.
هام
- تتوافق Microsoft 365 Copilot، بما في ذلك Microsoft 365 Copilot Search، مع التزامات الخصوصية والأمان والتوافق الحالية لعملاء Microsoft 365 التجاريين، بما في ذلك القانون العام لحماية البيانات (GDPR) وحدود بيانات الاتحاد الأوروبي (EU).
- لا يتم استخدام المطالبات والاستجابات والبيانات التي يتم الوصول إليها من خلال Microsoft Graph لتدريب أجهزة LLM الأساسية، بما في ذلك تلك التي يستخدمها Microsoft 365 Copilot.
- تعمل Microsoft 365 Copilot مع حماية متعددة، والتي تشمل، على سبيل المثال لا الحصر، حظر المحتوى الضار، والكشف عن المواد المحمية، وحظر الحقن الفوري (هجمات الهروب من السجن).
- يتم توفير نماذج Anthropic ضمن تجارب Microsoft 365 Copilot ضمن ملحق شروط منتج Microsoft وحماية البيانات. تعرف على المزيد حول ضمانات Anthropic.
- Anthropic النماذج خارج نطاق حدود بيانات الاتحاد الأوروبي وعند توفرها، التزامات معالجة LLM داخل البلد. لمزيد من المعلومات، راجع Anthropic كمعالج فرعي لخدمات Microsoft Online.
تهدف المعلومات الواردة في هذه المقالة إلى المساعدة في توفير إجابات للأسئلة التالية:
- كيف يستخدم Microsoft 365 Copilot بيانات المؤسسة الخاصة بك؟
- كيف يقوم Microsoft 365 Copilot بحماية المعلومات والبيانات التنظيمية؟
- ما هي البيانات المخزنة حول تفاعلات المستخدم مع Microsoft 365 Copilot؟
- ما هي التزامات موقع البيانات التي تقدمها Microsoft 365 Copilot؟
- ما هي خيارات إمكانية التوسعة المتوفرة لـ Microsoft 365 Copilot
- كيف يفي Microsoft 365 Copilot بمتطلبات التوافق التنظيمي؟
- هل تنطبق عناصر التحكم في الخصوصية للتجارب المتصلة في Microsoft 365 Apps على Microsoft 365 Copilot؟
- هل يمكنني الوثوق بالمحتوى الذي يقوم Microsoft 365 Copilot بإنشائه؟ من يملك هذا المحتوى؟
- ما هي التزامات Microsoft باستخدام الذكاء الاصطناعي بشكل مسؤول؟
ملاحظة
سيستمر Microsoft 365 Copilot في التطور مع مرور الوقت مع القدرات الجديدة. للبقاء على اطلاع دائم على Microsoft 365 Copilot أو طرح الأسئلة، تفضل بزيارة مجتمع Microsoft 365 Copilot في مجتمع Microsoft التقني.
كيف يستخدم Microsoft 365 Copilot بيانات المؤسسة الخاصة بك؟
يوفر Microsoft 365 Copilot قيمة من خلال توصيل أجهزة LLM ببيانات المؤسسة الخاصة بك. يصل Microsoft 365 Copilot إلى المحتوى والسياق من خلال Microsoft Graph. يمكنه إنشاء استجابات مرتكزة على بيانات مؤسستك، مثل مستندات المستخدم ورسائل البريد الإلكتروني والتقويم والدردشات والاجتماعات وجهات الاتصال. يجمع Microsoft 365 Copilot هذا المحتوى مع سياق عمل المستخدم، مثل الاجتماع الذي يوجد فيه المستخدم الآن، أو رسائل البريد الإلكتروني التي قام المستخدم بتبادلها حول موضوع ما، أو محادثات الدردشة التي عقدها المستخدم الأسبوع الماضي. يستخدم Microsoft 365 Copilot هذه التركيبة من المحتوى والسياق للمساعدة في توفير استجابات دقيقة وملائمة وسياقية.
هام
لا يتم استخدام المطالبات والاستجابات والبيانات التي يتم الوصول إليها من خلال Microsoft Graph لتدريب أجهزة LLM الأساسية، بما في ذلك تلك التي يستخدمها Microsoft 365 Copilot.
تقوم Microsoft 365 Copilot فقط بعرض بيانات المؤسسة التي يملك المستخدمون الفرديون أذونات عرضها على الأقل. من المهم أن تستخدم نماذج الأذونات المتوفرة في خدمات Microsoft 365، مثل SharePoint، للمساعدة في ضمان حصول المستخدمين أو المجموعات المناسبة على حق الوصول إلى المحتوى الصحيح داخل مؤسستك. يشمل ذلك الأذونات التي تمنحها للمستخدمين من خارج مؤسستك من خلال حلول التعاون بين المستأجرين، مثل القنوات المشتركة في Microsoft Teams.
عندما تقوم بإدخال المطالبات باستخدام Microsoft 365 Copilot، تبقى المعلومات المضمنة في المطالبات والبيانات التي تستردها والاستجابات التي تم إنشاؤها ضمن حد خدمة Microsoft 365، بما يتوافق مع التزامات الخصوصية والأمان والتوافق الحالية. Microsoft 365 تستخدم Copilot خدمات Azure OpenAI للمعالجة، وليس خدمات OpenAI المتوفرة بشكل عام. لا يقوم Azure OpenAI بتخزين محتوى العميل والمطالبات المعدلة مؤقتًا لـ Microsoft 365 Copilot. لمزيد من المعلومات، راجع البيانات المخزنة حول تفاعلات المستخدم مع قسم Microsoft 365 Copilot لاحقا في هذه المقالة.
ملاحظة
- عندما تستخدم وكلاء للمساعدة في Microsoft 365 Copilot لتوفير معلومات أكثر صلة، تحقق من بيان الخصوصية وشروط استخدام العامل لتحديد كيفية تعامله مع بيانات مؤسستك. لمزيد من المعلومات، راجع إمكانية توسيع Microsoft 365 Copilot.
- عند استخدام البحث على الويب، Microsoft 365 Copilot تحليل مطالبة المستخدم وتحديد المصطلحات التي قد يؤدي فيها بحث الويب إلى تحسين جودة الاستجابة. استناداً إلى هذه المصطلحات، ينشئ Copilot استعلام بحث يرسله إلى خدمة بحث Bing. لمزيد من المعلومات والبيانات والخصوصية والأمان لطلبات الويب في Microsoft 365 Copilot Microsoft 365 Copilot Chat.
- بدءا من 7 يناير 2026، Anthropic هو معالج فرعي Microsoft 365 Copilot. لمزيد من المعلومات، راجع Anthropic كمعالج فرعي لخدمات Microsoft Online.
على الرغم من توفر الإشراف على إساءة الاستخدام، والذي يتضمن المراجعة البشرية للمحتوى، في Azure OpenAI، فقد قامت خدمات Microsoft 365 Copilot بإلغاء الاشتراك فيها. للحصول على معلومات حول تصفية المحتوى، راجع كيف تحظر Copilot المحتوى الضار؟ المقطع لاحقا في هذه المقالة.
ملاحظة
قد نستخدم ملاحظات العملاء، وهي اختيارية، لتحسين Microsoft 365 Copilot، تماما كما نستخدم ملاحظات العملاء لتحسين خدمات Microsoft 365 وتطبيقات Microsoft 365 الأخرى لتحسين الإنتاجية. لا نستخدم هذه الملاحظات لتدريب أجهزة LLM الأساسية التي يستخدمها Microsoft 365 Copilot. يمكن للعملاء إدارة الملاحظات من خلال عناصر تحكم المسؤول. لمزيد من المعلومات، راجع إدارة ملاحظات Microsoft لمؤسستك وتقديم ملاحظات حول Microsoft Copilot باستخدام Microsoft 365 Apps.
البيانات المخزنة حول تفاعلات المستخدم مع Microsoft 365 Copilot
عندما يتفاعل المستخدم مع Microsoft 365 Copilot (باستخدام تطبيقات مثل Word أو PowerPoint أو Excel أو OneNote أو Loop أو Whiteboard)، فإننا نقوم بتخزين البيانات المتعلقة بهذه التفاعلات. تتضمن البيانات المخزنة مطالبة المستخدم واستجابة Copilot، بما يشمل اقتباسات لأي معلومات مستخدمة لوضع استجابة Copilot على الأرض. نشير إلى مطالبة المستخدم واستجابة Copilot لتلك المطالبة على أنها "محتوى التفاعلات" وسجل هذه التفاعلات هو سجل نشاط Copilot للمستخدم. على سبيل المثال، توفر هذه البيانات المخزنة للمستخدمين سجل نشاط Copilot في Microsoft 365 Copilot Chat (المسماة سابقا Business Chat) والاجتماعات في Microsoft Teams. تتم معالجة هذه البيانات وتخزينها وفقا للالتزامات التعاقدية مع المحتوى الآخر لمؤسستك في Microsoft 365. يتم تشفير البيانات أثناء تخزينها ولا يتم استخدامها لتدريب برامج LLM الأساسية، بما في ذلك تلك المستخدمة بواسطة Microsoft 365 Copilot.
لعرض هذه البيانات المخزنة وإدارتها، يمكن للمسؤولين استخدام البحث في المحتوى أو Microsoft Purview. يمكن للمسؤولين أيضًا استخدام Microsoft Purview لتعيين نهج الاستبقاء للبيانات المتعلقة بتفاعلات الدردشة مع Copilot. لمزيد من المعلومات، راجع المقالات التالية:
- نظرة عامة حول البحث في المحتوى
- حماية التوافق وأمان بيانات Microsoft Purview لتطبيقات الذكاء الاصطناعي التوليدي
- تعرّف على استبقاء Copilot
بالنسبة لدردشات Microsoft Teams مع Copilot، يمكن للمسؤولين أيضا استخدام واجهات برمجة تطبيقات تصدير Microsoft Teams لعرض البيانات المخزنة.
حذف محفوظات تفاعلات المستخدم مع Microsoft 365 Copilot
يمكن للمستخدمين حذف سجل نشاط Copilot الخاص بهم، والذي يتضمن مطالباتهم والاستجابات التي يرجعها Copilot، عن طريق الانتقال إلى مدخل حسابي. لمزيد من المعلومات، راجع حذف سجل نشاط Microsoft 365 Copilot.
Microsoft 365 Copilot وحدود بيانات الاتحاد الأوروبي
Microsoft 365 يتم توجيه مكالمات Copilot إلى LLM إلى أقرب مراكز البيانات في المنطقة، ولكن يمكن أيضًا الاتصال بمناطق أخرى تتوفر فيها السعة أثناء فترات الاستخدام المرتفعة.
لمستخدمي الاتحاد الأوروبي (EU)، لدينا ضمانات إضافية للامتثال إلى حدود بيانات الاتحاد الأوروبي. يبقى نشاط الشبكة في الاتحاد الأوروبي ضمن حدود بيانات الاتحاد الأوروبي بينما يمكن إرسال نشاط الشبكة في جميع أنحاء العالم إلى الاتحاد الأوروبي وبلدان أو مناطق أخرى لمعالجة LLM.
Microsoft 365 Copilot وموقع البيانات
تلتزم Microsoft 365 Copilot بالتزامات موقع البيانات كما هو موضح في ملحق شروط منتجات Microsoft وحماية البيانات. تمت إضافة Microsoft 365 Copilot كحمل عمل مغطى في التزامات موقع البيانات في شروط منتج Microsoft في 1 مارس 2024.
تتضمن عروض Microsoft Advanced Data Residency (ADR) وMulti-Geo Capabilities التزامات موقع البيانات لـ Copilot لعملاء Microsoft 365 لاحقًا في عام 1, 2024. بالنسبة لعملاء الاتحاد الأوروبي، تعد Microsoft 365 Copilot خدمة لحدود البيانات في الاتحاد الأوروبي. قد تتم معالجة استعلامات العملاء خارج الاتحاد الأوروبي في الولايات المتحدة أو الاتحاد الأوروبي أو مناطق أخرى.
إمكانية توسعة Microsoft 365 Copilot
على الرغم من أن Microsoft 365 Copilot قادر بالفعل على استخدام التطبيقات، والبيانات ضمن النظام البيئي لـ Microsoft 365، إلا أن العديد من المؤسسات لا تزال تعتمد على أدوات وخدمات خارجية متنوعة لإدارة العمل والتعاون. يمكن للتجارب Microsoft 365 Copilot الرجوع إلى أدوات وخدمات الجهات الخارجية عند الاستجابة لطلب المستخدم باستخدام موصلات أو عوامل Microsoft Graph. يمكن إرجاع البيانات من موصلات Graph في استجابات Microsoft 365 Copilot إذا كان لدى المستخدم إذن للوصول إلى تلك المعلومات.
عند تمكين العوامل، يحدد Microsoft 365 Copilot ما إذا كان يحتاج إلى استخدام عامل معين للمساعدة في توفير استجابة ذات صلة للمستخدم. إذا كانت هناك حاجة إلى عامل، Microsoft 365 Copilot بإنشاء استعلام بحث لإرساله إلى العامل نيابة عن المستخدم. يستند الاستعلام إلى مطالبة المستخدم وسجل نشاط Copilot والبيانات التي يمكن للمستخدم الوصول إليها في Microsoft 365.
في قسم التطبيقات المتكاملة في مركز مسؤولي Microsoft 365، يمكن للمسؤولين عرض الأذونات والوصول إلى البيانات المطلوبة من قبل الوكيل بالإضافة إلى شروط استخدام العامل وبيان الخصوصية. يتمتع المسؤولون بالتحكم الكامل لتحديد العوامل المسموح بها في مؤسستهم. يمكن للمستخدم الوصول فقط إلى العوامل التي يسمح بها المسؤول وأن المستخدم مثبت أو معين. يستخدم Microsoft 365 Copilot العوامل التي يتم تشغيلها بواسطة المستخدم فقط.
لمزيد من المعلومات، راجع المقالات التالية:
- إدارة عوامل Microsoft 365 Copilot في مركز مسؤولي Microsoft 365
- نظرة عامة على قابلية التوسعة Microsoft 365 Copilot
- كيف يمكن Microsoft 365 Copilot العمل مع بياناتك الخارجية
كيف يقوم Microsoft 365 Copilot بحماية البيانات التنظيمية؟
يمكن أن يساعد نموذج الأذونات داخل مستأجر Microsoft 365 على ضمان عدم تسرب البيانات عن غير قصد بين المستخدمين والمجموعات والمستأجرين. يعرض Microsoft 365 Copilot فقط البيانات التي يمكن لكل فرد الوصول إليها باستخدام نفس عناصر التحكم الأساسية للوصول إلى البيانات المستخدمة في خدمات Microsoft 365 الأخرى. يحترم الفهرس الدلالي حد الوصول المستند إلى هوية المستخدم بحيث لا تصل عملية الأساس إلا إلى المحتوى الذي يصرح للمستخدم الحالي بالوصول إليه. لمزيد من المعلومات، راجع نهج الخصوصية ووثائق الخدمة من Microsoft.
عندما يكون لديك بيانات مشفرة بواسطة حماية البيانات في Microsoft Purview، Microsoft 365 Copilot احترام حقوق الاستخدام الممنوحة للمستخدم. يمكن تطبيق هذا التشفير بواسطة تسميات الحساسية أو بواسطة أذونات مقيدة في تطبيقات Microsoft 365 باستخدام إدارة حقوق المعلومات (IRM). لمزيد من المعلومات حول استخدام Microsoft Purview مع Microsoft 365 Copilot، راجع حماية التوافق وأمان بيانات Microsoft Purview لتطبيقات الذكاء الاصطناعي.
نحن نطبق بالفعل أشكالًا متعددة من الحماية للمساعدة في منع العملاء من الإضرار بخدمات وتطبيقات Microsoft 365 أو الحصول على وصول غير مصرح به إلى مستأجرين آخرين أو نظام Microsoft 365 نفسه. فيما يلي بعض الأمثلة على أشكال الحماية هذه:
يتم تحقيق العزل المنطقي لمحتوى العميل داخل كل مستأجر لخدمات Microsoft 365 من خلال تخويل معرف Microsoft Entra والتحكم بالوصول المستند إلى الأدوار. لمزيد من المعلومات، راجع Microsoft 365 عناصر التحكمبالعزل.
تستخدم Microsoft أمانًا ماديًا صارمًا وتدقيقًا في الخلفية واستراتيجية تشفير متعددة الطبقات لحماية سرية محتوى العميل وتكامله.
تستخدم Microsoft 365 تقنيات من جانب الخدمة تقوم بتشفير محتوى العميل أثناء التنقل والراحة، بما في ذلك BitLocker وتشفير كل ملف وأمان طبقة النقل (TLS) وأمان بروتوكول الإنترنت (IPsec). للحصول على تفاصيل محددة حول التشفير في Microsoft 365، راجع التشفير في Microsoft Cloud.
يتم تعزيز التحكم في بياناتك من خلال التزام Microsoft بالامتثال لقوانين الخصوصية المعمول بها على نطاق واسع، مثل القانون العام لحماية البيانات (GDPR) ومعايير الخصوصية، مثل ISO/IEC 27018، أول قواعد ممارسة دولية للخصوصية السحابية في العالم.
بالنسبة للمحتوى الذي يتم الوصول إليه من خلال العوامل في Microsoft 365، يمكن للتشفير استبعاد الوصول البرمجي، وبالتالي تقييد العامل من الوصول إلى المحتوى. للحصول على مزيد من المعلومات، راجع تكوين حقوق الاستخدام حماية البيانات في Azure.
تلبية متطلبات التوافق التنظيمي
تواصل Microsoft التكيف والاستجابة لتلبية المتطلبات التنظيمية للذكاء الاصطناعي مع تطورها، لذلك نكسب ونحافظ على ثقة العملاء والشركاء والمنظمين.
توفر Microsoft 365 Copilot عروضا وشهادات توافق واسعة النطاق، بما في ذلك القانون العام لحماية البيانات (GDPR)، و ISO 27001، وHIPAAA، ومعيار ISO 42001 لأنظمة إدارة الذكاء الاصطناعي. تساعد هذه في دعم عملائنا في رحلات التوافق الخاصة بهم، مستكملة بميزات مثل الجاهزية التعاقدية، وإدارة مخاطر تكنولوجيا المعلومات والاتصالات المضمنة، والأدوات التشغيلية للمرونة.
تلتزم Microsoft بالامتثال لجميع القوانين واللوائح المطبقة على Microsoft، بما في ذلك قانون الذكاء الاصطناعي للاتحاد الأوروبي، لتمكين حلول الذكاء الاصطناعي لدينا من تلبية المعايير المتطورة للذكاء الاصطناعي الموثوق به والمسؤول. Microsoft 365 Copilot مبنية على التزامات Microsoft الحالية بأمان البيانات وخصوصيتها. لا يوجد أي تغيير في هذه الالتزامات. تم دمج Copilot في Microsoft 365 ويلتزم بالتزامات الخصوصية والأمان والتوافق الحالية لعملاء Microsoft 365.
بالإضافة إلى ذلك، نولي الأولوية للحوار المفتوح مع شركائنا والسلطات التنظيمية. نحن نوفر للعملاء وصولا مباشرا إلى محترفي التوافق في Microsoft، وإرشادات استباقية، وحلول منسقة للمساعدة في التنقل في التوافق التنظيمي، مثل التشغيل السريع لتقييم المخاطر Microsoft 365 Copilot & Copilot Chat. يهدف نهجنا في المشهد القائم على الذكاء الاصطناعي إلى تمكين المؤسسات من الابتكار بثقة مع وضع الحلول المبنية في الاعتبار الشفافية والخصوصية والأمان.
معلومات إضافية
Microsoft 365 Copilot وعناصر التحكم في الخصوصية للتجارب المتصلة
يمكن أن تؤثر بعض عناصر تحكم الخصوصية للتجارب المتصلة في Microsoft 365 Apps على توفر ميزات Microsoft 365 Copilot. يتضمن ذلك عناصر التحكم في الخصوصية للتجارب المتصلة التي تحلل المحتوى والتحكم في الخصوصية للتجارب المتصلة الاختيارية. للحصول على مزيد من المعلومات حول عناصر التحكم في الخصوصية هذه، راجع نظرة عامة حول عناصر التحكم في الخصوصية لـ Microsoft 365 Apps for enterprise.
التحكم في الخصوصية للتجارب المتصلة التي تحلل المحتوى الخاص بك
إذا أوقفت تشغيل التجارب المتصلة التي تحلل المحتوى على الأجهزة في مؤسستك، فلن تتوفر ميزات Microsoft 365 Copilot للمستخدمين في التطبيقات التالية:
- Excel
- OneNote
- Outlook
- PowerPoint
- Word
ينطبق هذا على عند تشغيل أحدث إصدار من هذه التطبيقات على أجهزة Windows أو Mac أو iOS أو Android.
هناك أيضا عنصر تحكم في الخصوصية يؤدي إلى إيقاف تشغيل جميع التجارب المتصلة، بما في ذلك التجارب المتصلة التي تحلل المحتوى الخاص بك. إذا كنت تستخدم عنصر التحكم في الخصوصية هذا، فلن تتوفر ميزات Microsoft 365 Copilot في التطبيقات وعلى الأجهزة الموضحة أعلاه.
التحكم في الخصوصية للتجارب المتصلة الاختيارية
إذا أوقفت تشغيل التجارب المتصلة الاختيارية في مؤسستك، فلن تتوفر ميزات Microsoft 365 Copilot التي تعد تجارب متصلة اختيارية للمستخدمين. على سبيل المثال، قد يؤثر إيقاف تشغيل التجارب المتصلة الاختيارية على توفر البحث على الويب.
هناك أيضا عنصر تحكم في الخصوصية يؤدي إلى إيقاف تشغيل جميع التجارب المتصلة، بما في ذلك التجارب المتصلة الاختيارية. إذا كنت تستخدم عنصر التحكم في الخصوصية هذا، فلن تتوفر ميزات Microsoft 365 Copilot التي تعد تجارب متصلة اختيارية.
حول المحتوى الذي يقوم Microsoft 365 Copilot بإنشائه
لا تضمن الاستجابات التي تنتجها الذكاء الاصطناعي توليدية أن تكون واقعية بنسبة 100%. بينما نواصل تحسين الاستجابات، يجب على المستخدمين الاستمرار في استخدام حكمهم عند مراجعة الإخراج قبل إرسالها إلى الآخرين. توفر قدرات Microsoft 365 Copilot مسودات وملخصات مفيدة لمساعدتك على إنجاز المزيد مع منحك فرصة لمراجعة الذكاء الاصطناعي التي تم إنشاؤها بدلا من أتمتة هذه المهام بشكل كامل.
نحن نواصل تحسين الخوارزميات لمعالجة المشكلات بشكل استباقي، مثل المعلومات الخاطئة والتشويه وحظر المحتوى وأمان البيانات ومنع ترويج المحتوى الضار أو التمييزي بما يتوافق مع مبادئ الذكاء الاصطناعي المسؤولة.
لا تطالب Microsoft بملكية إخراج الخدمة. وهذا يعني أننا لا نحدد ما إذا كان إخراج العميل محميا بحقوق النشر أم قابلا للتنفيذ ضد مستخدمين آخرين. وذلك لأن أنظمة الذكاء الاصطناعي التوليدية قد تنتج استجابات مماثلة لمطالبات أو استعلامات مشابهة من عدة عملاء. وبالتالي، قد يمتلك العديد من العملاء حقوقا أو يطالبون بحقوق في محتوى مماثل أو مشابه إلى حد كبير.
إذا أقام طرف ثالث دعوى قضائية ضد عميل تجاري بسبب انتهاك حقوق النشر بسبب استخدام Microsoft Copilots أو الإخراج الذي تقوم بإنشائها، فسندافع عن العميل وندفع مبلغ أي أحكام سلبية أو تسويات ناتجة عن الدعاوى القضائية، طالما أن العميل استخدم أدوات الحماية وعوامل تصفية المحتوى التي قمنا بإنشائها في منتجاتنا. لمزيد من المعلومات، راجع Microsoft تعلن عن التزام Copilot بحقوق نشر جديدة للعملاء.
كيف يمنع Copilot المحتوى الضار؟
للمساعدة في حظر المحتوى الضار، يستخدم Microsoft 365 Copilot ضمانات تعمل جنبا إلى جنب مع نماذج الذكاء الاصطناعي المستخدمة لإنشاء استجابات. اعتمادا على السيناريو، قد تتضمن هذه الضمانات حماية الطرف الأول من Microsoft أو، في بعض الحالات، عوامل تخفيف الأمان المضمنة في النموذج الأساسي. تستخدم هذه الضمانات نهجا دفاعيا متعمقا ويمكن أن تتضمن مزيجا من الحماية من الطرف الأول من Microsoft التي تساعد في اكتشاف وتقليل محاولات الهروب من السجن وأنماط الحقن الفورية (بما في ذلك هجمات الحقن عبر المطالبات)، أو عوامل تصفية ضرر المحتوى لتحديد المحتوى الضار في المطالبات أو الاستجابات التي تم إنشاؤها (مثل الكراهية & الإنصاف والجنسي والعنف والضرر الذاتي)، أو في بعض السيناريوهات، التخفيف من مخاطر السلامة المضمنة في النموذج الأساسي.
تشير الأضرار المتعلقة بالكراهية والإنصاف إلى أي محتوى يستخدم لغة تحقير أو تمييز على أساس سمات مثل العرق والانتماء العرقي والجنسية والهوية الجنسية والتعبير والتوجه الجنسي والدين وحالة الهجرة وحالة القدرة والمظهر الشخصي وحجم الجسم. ويعنى الإنصاف بالتأكد من أن نظم الذكاء الاصطناعي تعامل جميع فئات الناس بإنصاف دون المساهمة في عدم المساواة المجتمعية القائمة. يتضمن المحتوى الجنسي مناقشات حول الأعضاء التناسلية البشرية، والعلاقات الرومانسية، والأفعال التي يجري تصويرها بعبارات مثيرة أو عاطفية، والحمل، والأفعال الجنسية الجسدية، بما في ذلك تلك التي يجري تصويرها على أنها اعتداء أو فعل قسري للعنف الجنسي، والدعارة، والمواد الإباحية، وسوء المعاملة. يصف العنف اللغة المتعلقة بالإجراءات المادية التي تهدف إلى الإضرار أو القتل، بما في ذلك الإجراءات والأسلحة والكيانات ذات الصلة. تشير لغة الإيذاء الذاتي إلى الأعمال المتعمدة التي تهدف إلى إلحاق الضرر بالنفس أو قتلها.
بالإضافة إلى تصفية المحتوى التي توفرها Azure OpenAI Service، توفر بعض سيناريوهات Microsoft 365 Copilot عوامل تخفيف أخرى، مثل عوامل التصفية للمساعدة في منع حدوث أضرار في مكان العمل. تشير أضرار مكان العمل إلى فئة من الأضرار التي يمكن أن تنتج عن الذكاء الاصطناعي التوليدي أو النماذج التي تقوم بالاستدلالات أو الأحكام أو التقييمات حول الموظف بناء على اتصاله في مكان العمل. وهذا يعني حاليا الاستدلالات أو الأحكام أو التقييمات حول أداء الموظف أو موقفه أو حالته الداخلية أو العاطفية أو خصائصه الشخصية. نقيد استخدام الذكاء الاصطناعي أو النماذج التوليدية من استخدامها لهذه الأغراض.
هل توفر Copilot الكشف عن المواد المحمية؟
نعم، يوفر Microsoft 365 Copilot الكشف عن المواد المحمية، والتي تتضمن نصا خاضعا لحقوق النشر والرمز الخاضع لقيود الترخيص. قد لا يتوفر هذا الكشف في جميع سيناريوهات Microsoft 365 Copilot، وليست جميع عوامل التخفيف هذه ذات صلة بجميع السيناريوهات Microsoft 365 Copilot.
هل يمنع برنامج Copilot الإدخال الفوري (هجمات اختراق الحماية)؟
هجمات الهروب من السجن هي مطالبات مصممة لتجاوز ضمانات Copilot أو الحث على سلوك غير متوافق. يساعد Microsoft 365 Copilot في التخفيف من هذه الهجمات باستخدام تقنيات خاصة، مثل مصنفات الهروب من السجن وهجمات الحقن عبر المطالبات (XPIA). تحلل هذه المصنفات المدخلات إلى خدمة Copilot وتساعد في حظر المطالبات عالية المخاطر قبل تنفيذ النموذج. قد لا تتوفر هذه المصنفات في جميع سيناريوهات Microsoft 365 Copilot.
ماذا يحدث عند حدوث تغييرات في نموذج الأساس؟
يتم تحديث نماذج الذكاء الاصطناعي التي تعمل على Microsoft 365 Copilot وتحسينها بانتظام. تجلب تحديثات النموذج تحسينات في الأداء، وتعقلا أكثر تقدما، وقدرات موسعة، ولكنها لا تغير إعدادات الأمان أو الخصوصية أو التوافق. لمزيد من المعلومات، راجع مدونة Microsoft 365: فهم تغييرات النموذج الأساسي في Microsoft 365 Copilot.
ملتزمون بالذكاء الاصطناعي المسؤول
نظرًا لاستعداد الذكاء الاصطناعي لتحويل حياتنا، فيجب أن نحدد بشكل جماعي القواعد والمعايير والممارسات الجديدة لاستخدام هذه التقنية وتأثيرها. كانت Microsoft في رحلة الذكاء الاصطناعي المسؤول منذ عام 2017، عندما حددنا مبادئنا ونهجنا لضمان استخدام هذه التقنية بطريقة تستند إلى المبادئ الأساسية التي تضع الأشخاص في المقدمة.
في Microsoft، نحن نسترشد بمبادئ الذكاء الاصطناعي الخاصة بنا، الذكاء الاصطناعي المسؤول القياسي لدينا، وعقود من الأبحاث حول التعلم الآلي والذكاء الاصطناعي المحافظ على الخصوصية. يقوم فريق من الباحثين والمهندسين وخبراء السياسة بمراجعة أنظمتنا للذكاء الاصطناعي بحثًا عن الأضرار المحتملة وتخفيف المخاطر — تحسين بيانات التدريب والتصفية للحد من المحتوى الضار والمواضيع الحساسة التي تحظر الاستعلامات والنتيجة وتطبيق تقنيات Microsoft مثل InterpretML و Fairlearn للمساعدة في اكتشاف تحيز البيانات وتصحيحها. نحن نوضح كيف يتخذ النظام القرارات من خلال الإشارة إلى القيود والارتباط بالمصادر ومطالبة المستخدمين بمراجعة المحتوى والتحقق من الحقائق وضبطه استنادًا إلى الخبرة الموضوعية. للحصول على مزيد من المعلومات، راجع إدارة الذكاء الاصطناعي: مخطط للمستقبل.
نحن نتطلع إلى مساعدة عملائنا على استخدام منتجاتنا الذكاء الاصطناعي بطريقة مسؤولة ومشاركة تعلمنا وبناء مشاركات مستندة إلى الثقة. بالنسبة لهذه الخدمات الجديدة، نريد تزويد عملائنا بمعلومات حول الاستخدامات والإمكانيات والحدود المخصصة لخدمة النظام الأساسي الذكاء الاصطناعي، حتى يتمكنوا من الحصول على المعرفة اللازمة لتحديد خيارات النشر المسؤولة. نحن أيضًا نشارك الموارد والقوالب مع المطورين داخل المؤسسات ومع موردي البرامج المستقلين (ISVs)، لمساعدتهم على إنشاء حلول ذكاء اصطناعي فعالة وآمنة وشفافة.