إشعار
يتطلب الوصول إلى هذه الصفحة تخويلاً. يمكنك محاولة تسجيل الدخول أو تغيير الدلائل.
يتطلب الوصول إلى هذه الصفحة تخويلاً. يمكنك محاولة تغيير الدلائل.
ما هي بطاقة التطبيق؟
تهدف بطاقات التطبيقات والنظام الأساسي من Microsoft إلى مساعدتك على فهم كيفية عمل تقنية الذكاء الاصطناعي الخاصة بنا، والخيارات التي يمكن لمالكي التطبيقات اتخاذها للتأثير على أداء التطبيق وسلوكه، وأهمية النظر في التطبيق بأكمله، بما في ذلك التكنولوجيا والأشخاص والبيئة. يتم إنشاء بطاقات التطبيق لتطبيقات الذكاء الاصطناعي ويتم إنشاء بطاقات النظام الأساسي لخدمات النظام الأساسي للذكاء الاصطناعي. يمكن أن تدعم هذه الموارد تطوير تطبيقاتك الخاصة أو توزيعها ويمكن مشاركتها مع المستخدمين أو المساهمين المتأثرين بها.
كجزء من التزامها بالذكاء الاصطناعي المسؤول، تلتزم Microsoft بستة مبادئ أساسية: الإنصاف والموثوقية والسلامة والخصوصية والأمان والشمولية والشفافية والمساءلة. يتم تضمين هذه المبادئ في Standard الذكاء الاصطناعي المسؤول، والذي يرشد الفرق في تصميم تطبيقات الذكاء الاصطناعي وبناها واختبارها. تلعب بطاقات التطبيقات والنظام الأساسي دورا رئيسيا في تشغيل هذه المبادئ من خلال توفير الشفافية حول القدرات والاستخدامات المقصودة والقيود. لمزيد من التفاصيل، يتم تشجيع القراء على استكشاف تقرير Microsoft المسؤول عن شفافية الذكاء الاصطناعيومدونة السلوك، والتي توضح كيف يمكن لعملاء المؤسسات والأفراد التفاعل مع الذكاء الاصطناعي بمسؤولية.
نظرة عامة
Microsoft Copilot في Microsoft Defender هو تكامل Microsoft Security Copilot داخل مدخل Microsoft Defender. إنه تطبيق أمان مدعوم بالذكاء الاصطناعي مصمم لمساعدة محللي الأمان على التحقيق في تهديدات الأمان عبر الإنترنت والاستجابة لها بشكل أكثر كفاءة وفعالية. من خلال الجمع بين نماذج اللغات الكبيرة والبيانات الخاصة بالأمان والذكاء، يوفر Copilot في Defender رؤى سياقية وتحليلا تلقائيا وتوصيات قابلة للتنفيذ مباشرة داخل مهام سير عمل الأمان التي يستخدمها المحللون كل يوم.
تواجه فرق مركز العمليات الأمنية (SOC) كميات متزايدة من التنبيهات، والهجمات المتطورة بشكل متزايد، وتحدي توظيف المحللين ذوي الخبرة. يعالج Copilot في Defender هذه التحديات من خلال تسريع التحقيق في الحوادث، وتقليل الوقت المطلوب لتحليل التهديدات المعقدة، وتمكين المحللين على جميع مستويات الخبرة من أداء المهام التي تتطلب خبرة عميقة تقليديا. يعتمد التطبيق على البيانات من أحمال العمل التي Microsoft Defender مراقبتها، بما في ذلك نقاط النهاية والهويات والبريد الإلكتروني والتطبيقات السحابية والمزيد، لتقديم المساعدة ذات الصلة والسياق.
Microsoft Copilot في Microsoft Defender مخصص لعملاء المؤسسات، وتحديدا محللي الأمان، والمستجيبين للحوادث، وصائدي التهديدات، ومحللي التحليل الذكي للمخاطر الذين يستخدمون مدخل Microsoft Defender لحماية مؤسساتهم. لمزيد من المعلومات، راجع Microsoft Security Copilot في Microsoft Defender.
المصطلحات الرئيسية
يوفر الجدول التالي مسردا للمصطلحات الرئيسية المتعلقة Microsoft Copilot في Microsoft Defender.
| المصطلح | الوصف |
|---|---|
| الصيد المتقدم | أداة تتبع التهديدات المستندة إلى الاستعلام في Microsoft Defender تستخدم Kusto Query Language (KQL) للسماح لفرق الأمان بالبحث بشكل استباقي عن التهديدات والأنشطة المشبوهة ومؤشرات الاختراق عبر بيانات الأمان. يمكن ل Copilot في Defender إنشاء استعلامات KQL من طلبات اللغة الطبيعية. |
| استجابة موجهة | مجموعة من الإجراءات الموصى بها التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي يوفرها Copilot في Defender لمساعدة محللي الأمان على فرز الحوادث الأمنية واحتواءها والتحقيق فيها ومعالجتها. تتضمن كل توصية مبررا يشرح سبب اقتراح الإجراء. |
| الحادث | مجموعة من التنبيهات المرتبطة والبيانات المرتبطة التي تمثل معا هجوما أمنيا محتملا أو مؤكدا. يمكن ل Copilot في Defender تلخيص الحوادث وتسليط الضوء على التفاصيل الرئيسية واقتراح إجراءات الاستجابة المناسبة. |
| KQL (لغة استعلام Kusto) | لغة استعلام للقراءة فقط تستخدم في التتبع المتقدم داخل Microsoft Defender Microsoft Sentinel. يمكن ل Copilot في Defender ترجمة أسئلة اللغة الطبيعية إلى استعلامات KQL، ما يقلل من الحاجز التقني لصائدي التهديدات. |
| نموذج لغة كبير (LLM) | نوع من نموذج الذكاء الاصطناعي مدرب على مجموعات بيانات كبيرة من النص يمكنها فهم اللغة الطبيعية وتوليدها. يستخدم Copilot في Defender نماذج لغة كبيرة لتحليل بيانات الأمان وإنشاء ملخصات وتقديم توصيات. |
| MITRE ATT&CK | قاعدة معارف معترف بها عالميا من تكتيكات وتقنيات الخصم استنادا إلى الملاحظات في العالم الحقيقي. يقوم Copilot في Defender بتعيين النتائج من تحليل البرنامج النصي واكتشاف التهديدات إلى تقنيات MITRE ATT&CK لمساعدة المحللين على فهم سلوك المهاجم. |
| فريق أحمر | ممارسة اختبار الأمان التي يحاكي فيها الفريق الهجمات في العالم الحقيقي ضد منتج لتحديد أوضاع الفشل والثغرات الأمنية والسيناريوهات خارج الاستخدام المقصود. أجرت Microsoft فريقا أحمر على Copilot في Defender قبل الإصدار. |
| وحدات حساب الأمان (SCUs) | وحدات السعة المتوفرة التي تقيس موارد الحوسبة التي تستهلكها Microsoft Security Copilot وتديرها. يتطلب الوصول إلى Copilot في Defender سعة SCU المتوفرة. |
| Security Copilot | النظام الأساسي لأمان Microsoft الذي يجمع بين الذكاء الاصطناعي والخبرة البشرية لمساعدة فرق الأمان على الاستجابة للتهديدات بشكل أسرع وأكثر فعالية. Copilot في Defender هي التجربة المضمنة Security Copilot داخل مدخل Microsoft Defender. |
الميزات أو الإمكانات الرئيسية
تصف الميزات والقدرات الرئيسية في الجدول التالي ما تم تصميم Microsoft Copilot في Microsoft Defender للقيام به وكيفية أدائه عبر المهام المدعومة.
| الميزة | الوصف |
|---|---|
| تلخيص الحادث | ينشئ Copilot تلقائيا ملخصا موجزا عندما يفتح محلل حادثا، بما في ذلك الجدول الزمني للهجوم والأصول المتأثرة ومؤشرات التسوية وأسماء الجهات الفاعلة في التهديد. يساعد هذا المحللين على فهم نطاق الهجوم وشدته على الفور دون مراجعة كل تنبيه يدويا. يمكن أن تحتوي الملخصات على ما يصل إلى 100 تنبيه مرتبط ويتم تخزينها مؤقتا لمدة تصل إلى أسبوع واحد دون تكلفة حساب إضافية إذا لم يتغير الحدث. لمزيد من المعلومات، راجع تلخيص حادث مع Microsoft Copilot في Microsoft Defender. |
| الاستجابات الموجهة | يوفر Copilot توصيات سياقية تم إنشاؤها بواسطة الذكاء الاصطناعي لمساعدة المحللين على الاستجابة للحوادث. يتم تنظيم التوصيات في أربع فئات: الفرز (تصنيف الحادث)، والاحتواء (إيقاف انتشار الهجوم)، والتحقيق (خطوات التحليل الإضافية)، والمعالجة (إجراءات استجابة محددة للكيانات المتأثرة). يمكن للمسؤولين أيضا تحميل إرشادات الاستجابة الخاصة بالمؤسسة لتخصيص التوصيات وفقا لبيئتهم. لمزيد من المعلومات، راجع استخدام الاستجابات الإرشادية مع Copilot في Microsoft Defender. |
| تحليل البرنامج النصي وخط الأوامر | يحلل Copilot البرامج النصية الضارة أو التعتيمة، مثل أسطر أوامر PowerShell، ويوفر شرحا بلغة عادية لما يفعله البرنامج النصي، وما إذا كان ضارا، وأي MITRE ATT&تقنيات CK التي يستخدمها. وهذا يقلل من الحاجة إلى أدوات التحليل الخارجي ويمكن المحللين ذوي المستويات المختلفة من الخبرة من تقييم التهديدات بسرعة. لمزيد من المعلومات، راجع تحليل البرنامج النصي مع Microsoft Copilot في Microsoft Defender. |
| تحليل الملفات | يقيم Copilot الملفات المشبوهة عن طريق إنشاء ملخص يتضمن معلومات الكشف وشهادات الملفات ذات الصلة وقائمة باستدعاءات واجهة برمجة التطبيقات والسلاسل الموجودة في الملف. يتم إنشاء نتائج التحليل تلقائيا عندما يفتح محلل صفحة ملف، مما يساعد على تسريع التحقيق في الملفات الضارة المحتملة. لمزيد من المعلومات، راجع تحليل الملفات مع Microsoft Copilot في Microsoft Defender. |
| تلخيص الجهاز | ينشئ Copilot ملخصا للوضع الأمني للجهاز، بما في ذلك حالة قدرات الحماية مثل الحد من الأجزاء المعرضة للهجوم والحماية من العبث، وأي نشاط مستخدم غير عادي، وقائمة بالبرامج المعرضة للخطر، وإعدادات جدار الحماية، ومعلومات Microsoft Intune ذات الصلة. وهذا يمكن المحللين من تقييم ما إذا كان الجهاز في خطر بسرعة. لمزيد من المعلومات، راجع ملخص الجهاز مع Microsoft Copilot في Microsoft Defender. |
| تلخيص الهوية | يوفر Copilot نظرة عامة سياقية على هوية المستخدم، بما في ذلك تاريخ إنشاء الحساب، ومستوى الأهمية، وتغييرات الدور والدور، وسلوكيات وأنماط تسجيل الدخول، وأساليب المصادقة، والمخاطر من Microsoft Entra ID، ومعلومات الاتصال. يساعد هذا المحللين على تقييم ما إذا كان حساب المستخدم معرضا للخطر أو معرضا للخطر بسرعة. لمزيد من المعلومات، راجع تلخيص معلومات الهوية باستخدام Microsoft Copilot في Microsoft Defender. |
| إنشاء تقرير الحادث | يجمع Copilot جميع معلومات الحوادث، بما في ذلك إجراءات الإدارة والطوابع الزمنية والمحللين المعنيين وتفسير التصنيف وإجراءات التحقيق والمعالجة وتوصيات المتابعة، في تقرير منظم يمكن تصديره إلى PDF أو نشره في سجل نشاط الحادث. لمزيد من المعلومات، راجع إنشاء تقرير حادث مع Microsoft Copilot في Microsoft Defender. |
| مساعد استعلام اللغة الطبيعية | يحول Copilot أسئلة تتبع تهديدات اللغة الطبيعية إلى استعلامات KQL جاهزة للتشغيل لاستخدامها في التتبع المتقدم. وهذا يقلل من الوقت والخبرة المطلوبة لكتابة استعلامات التتبع من البداية، ما يمكن المحللين من التركيز على التحقيق في التهديدات بدلا من بناء جملة الاستعلام. لمزيد من المعلومات، راجع إنشاء استعلامات KQL للتتبع باستخدام Microsoft Copilot في Microsoft Defender. |
| إحاطة استخباراتية للمخاطر | يجمع عامل إحاطة التحليل الذكي للمخاطر بيانات التحليل الذكي للمخاطر ذات الصلة ويجمعها بشكل مستقل، ويقدم إحاطات إعلامية مخصصة تتضمن أحدث نشاط لممثل التهديد، ومعلومات الثغرات الأمنية، وتفاصيل الاستغلال النشط. يمكن جدولة الإحاطات أو إنشاؤها عند الطلب وهي قابلة للتخصيص من خلال عمق الرؤى وفترة البحث والمنطقة والصناعة. لمزيد من المعلومات، راجع عامل إحاطة التحليل الذكي للمخاطر. |
| فرز تنبيه الأمان | عامل فرز تنبيه الأمان هو عامل مستقل يساعد فرق الأمان على فرز التنبيهات على نطاق واسع. وهو يطبق المنطق الديناميكي المستند إلى الذكاء الاصطناعي عبر الأدلة لتقديم أحكام واضحة لأحمال العمل الأمنية المدعومة، بما في ذلك التصيد الاحتيالي والهوية والتنبيهات السحابية. من خلال تحديد التنبيهات التي تمثل هجمات حقيقية وأيها إيجابيات خاطئة، يمكن العامل المحللين من التركيز على التحقيق في التهديدات الحقيقية، مع المنطق الشفاف خطوة بخطوة لدعم كل قرار. لمزيد من المعلومات، راجع عامل فرز تنبيه الأمان في Microsoft Defender. |
| الكشف الديناميكي عن التهديدات | عامل الكشف عن التهديدات الديناميكية هو خدمة خلفية متكيفة دائما تستخدم الذكاء الاصطناعي لتحديد الثغرات في الكشف التقليدي المستند إلى القواعد من خلال ربط التنبيهات والأحداث والشذوذ وتحليل ذكي للمخاطر عبر بيئات Microsoft Defender Microsoft Sentinel. عند اكتشاف تهديد مخفي، ينشئ العامل تنبيها ديناميكيا مع السياق الكامل، وتفسيرات اللغة الطبيعية، وتقنيات MITRE ATT المعينة&CK، وخطوات المعالجة المخصصة. لمزيد من المعلومات، راجع عامل الكشف عن التهديدات الديناميكية في Microsoft Defender. |
| تحليل التحليل الذكي للمخاطر | تقوم Copilot بدمج وتلخيص التحليل الذكي للمخاطر حتى تتمكن فرق الأمان من تحديد أولويات التهديدات استنادا إلى مستويات التعرض، وفهم الجهات الفاعلة في التهديد التي قد تستهدف صناعتها، والبقاء على اطلاع بالثغرات الأمنية والحملات الناشئة. لمزيد من المعلومات، راجع تحليل ذكي للمخاطر في Microsoft Defender. |
الاستخدامات المقصودة
يمكن استخدام Microsoft Copilot في Microsoft Defender في سيناريوهات متعددة عبر مجموعة متنوعة من الصناعات. تتضمن بعض أمثلة حالات الاستخدام ما يلي:
تسريع التحقيق في الحوادث والاستجابة لها: يتلقى محلل الأمان في مؤسسة خدمات مالية تنبيها عالي الخطورة للحوادث يتضمن تنبيهات متعددة مرتبطة عبر نقاط النهاية والبريد الإلكتروني. باستخدام Copilot، يتلقى المحلل على الفور ملخصا للجدول الزمني للهجوم والأصول المتأثرة ومؤشرات التسوية. ثم يقدم Copilot توصيات استجابة موجهة لاحتواء التهديد ومعالجة الأنظمة المتأثرة، ما يقلل من وقت التحقيق من ساعات إلى دقائق وتمكين الاحتواء الأسرع للهجوم.
فرز التصيد الاحتيالي الذي أبلغ عنه المستخدم على نطاق واسع: تتلقى مؤسسة كبيرة مئات رسائل البريد الإلكتروني للتصيد الاحتيالي التي أبلغ عنها المستخدم كل يوم. يقيم عامل فرز التصيد الاحتيالي كل عملية إرسال بشكل مستقل، ويصنفها على أنها تهديد حقيقي أو إيجابي خاطئ، ويوفر الأساس المنطقي للغة الطبيعية لتحديده. يمكن لمحللي SOC بعد ذلك تركيز وقتهم على التهديدات المؤكدة بدلا من مراجعة كل بريد إلكتروني تم الإبلاغ عنه يدويا، ما يحسن سرعة الاستجابة وكفاءة المحلل.
تمكين المحللين المبتدئين من إجراء تتبع متقدم للمخاطر: يضم فريق SOC التابع لوكالة حكومية محللين لم يتقنوا بعد KQL. باستخدام مساعد استعلام اللغة الطبيعية، يمكن لهؤلاء المحللين وصف ما يبحثون عنه باللغة الإنجليزية العادية، ويقوم Copilot بإنشاء استعلام KQL المناسب. وهذا يمكن أعضاء الفريق الأقل خبرة من المشاركة في تتبع التهديدات الاستباقية جنبا إلى جنب مع كبار المحللين، وتوسيع تغطية الفريق دون نفقات تدريبية إضافية.
تحليل البرامج النصية غير المكتملة والملفات المشبوهة: أثناء التحقيق في هجوم برامج الفدية الضارة المحتملة، يواجه المحلل برنامج PowerShell نصيا معطوبا. بدلا من الاعتماد على أدوات التحليل الخارجي أو انتظار عضو كبير في الفريق، يستخدم المحلل قدرة تحليل البرنامج النصي ل Copilot لتلقي شرح بلغة عادية لسلوك البرنامج النصي، ومستوى مخاطره، وتقنيات MITRE ATT&CK التي يستخدمها. يؤدي هذا إلى تقصير الوقت بشكل كبير لتحديد ما إذا كان البرنامج النصي ضارا وما هي خطوات المعالجة المطلوبة.
البقاء متقدما على التهديدات الناشئة من خلال إحاطات استخباراتية: يريد فريق الأمان في مؤسسة للرعاية الصحية البقاء على اطلاع بممثلي التهديدات والثغرات الأمنية ذات الصلة بمجالهم. يقدم عامل إحاطة التحليل الذكي للمخاطر إحاطات مجدولة ومخصصة تلخص أحدث نشاط لممثل التهديد واتجاهات الاستغلال والكشف عن الثغرات الأمنية، ما يمكن الفريق من ضبط دفاعاتهم بشكل استباقي وتحديد أولويات جهود التصحيح.
تبسيط وثائق الحوادث والإبلاغ عنها: بعد حل حادث معقد متعدد التنبيهات، يحتاج فريق الأمان إلى إصدار تقرير مفصل عن الحوادث للامتثال والمراجعة التنفيذية. يقوم Copilot تلقائيا بتجميع المخطط الزمني للحوادث وإجراءات الاستجابة والمحللين المعنيين وتفرير التصنيف في تقرير منظم يمكن تصديره إلى PDF، ما يوفر للمحللين وقتا كبيرا في الوثائق.
تقييم مخاطر الهوية والجهاز أثناء التحقيقات: أثناء التحقيق في حادث تسجيل دخول مريب، يستخدم المحلل Copilot لإنشاء ملخص هوية يسلط الضوء على دور المستخدم وتغييرات الدور الأخيرة وأنماط تسجيل الدخول وعلامات المخاطر من Microsoft Entra ID. يقوم المحلل أيضا بإنشاء ملخص جهاز لنقطة النهاية المعنية، ما يكشف عن البرامج الضعيفة والنشاط غير العادي. معا، تمكن هذه الملخصات المحلل من تحديد نطاق التسوية بسرعة واتخاذ إجراء مستهدف.
النماذج وبيانات التدريب
Microsoft Defender توسيع Microsoft Security Copilot، والاستفادة من وكلائها الحاليين ونماذج الذكاء الاصطناعي الأساسية. على هذا النحو، يعتمد على أي تكوين خارجي توفره هذه. على سبيل المثال، اختيار النموذج Microsoft Security Copilot لتجربة موجه اللغة الطبيعية المضمنة. لمعرفة المزيد، راجع Microsoft Security Copilot الأسئلة المتداولة حول الذكاء الاصطناعي المسؤول.
لا تتم مشاركة بيانات العميل مع OpenAI أو استخدامها لتدريب نماذج الأساس Azure OpenAI. يتمتع المسؤولون بالتحكم الكامل في كيفية استخدام بيانات مؤسستهم، بما في ذلك ما إذا كانوا سيسمحون لشركة Microsoft بالتقاط البيانات للتحقق من صحة المنتج أو تحسين نموذج الذكاء الاصطناعي للأمان. يمكن تكوين تفضيلات مشاركة البيانات في أي وقت، ويتم تخزين بيانات العملاء في الموقع الجغرافي المحدد أثناء الإعداد. للحصول على معلومات مفصلة حول عناصر التحكم في معالجة البيانات وتخزينها واستبقاءها ومشاركتها، راجع الخصوصية وأمان البيانات في Microsoft Security Copilot.
الاداء
تم تصميم Microsoft Copilot في Microsoft Defender لأداء موثوق عبر مجموعة من مهام سير عمل التحقيق والاستجابة الأمنية داخل مدخل Microsoft Defender. يعمل التطبيق في بيئات يتفاعل فيها محللو الأمان مع بيانات الحوادث والتنبيهات وذكاء التهديدات ومعلومات الجهاز والهوية وبيانات تعريف الملف والبرامج النصية. يعالج Copilot المدخلات المستندة إلى النص، بما في ذلك مطالبات اللغة الطبيعية ومحتوى البرنامج النصي وبيانات الأمان المنظمة، وينشئ مخرجات مستندة إلى النص مثل الملخصات والتوصيات واستعلامات KQL والتقارير وأحكام التصنيف. لا يعالج محتوى الصورة أو الفيديو أو الصوت أو ينشئه.
تم تصميم التطبيق وتقييمه بشكل أساسي للاستخدام باللغة الإنجليزية. يمكن للمحللين الذين يقدمون المطالبات ويراجعون المخرجات التي تم إنشاؤها بواسطة Copilot باللغة الإنجليزية توقع أعلى مستوى من الدقة والاتساق. في حين أن مدخل Microsoft Defender يدعم لغات متعددة لواجهته الأوسع، يتم تحسين فهم اللغة الطبيعية ل Copilot وقدرات الجيل للغة الإنجليزية. قد يؤدي استخدام اللغات غير المدعومة إلى انخفاض الدقة أو مخرجات أقل صلة، ويجب على المستخدمين توخي الحذر عند العمل خارج نطاق اللغة المقصودة.
يعمل Copilot في Defender بشكل أفضل عندما يتفاعل المحللون معه ضمن مهام سير عمل التحقيق المقصودة، مثل فتح صفحة حادث لتلقي ملخص، أو طلب استجابات موجهة أثناء الفرز، أو إدخال سؤال لغة طبيعية في مساعد استعلام التتبع المتقدم. يستفيد التطبيق من البيانات من أحمال العمل التي Microsoft Defender مراقبتها، بما في ذلك Microsoft Defender لنقطة النهاية Microsoft Defender for Identity Microsoft Defender ل Office 365 Microsoft Defender for Cloud Apps إدارة الثغرات الأمنية في Microsoft Defender، بالإضافة إلى البيانات Microsoft Sentinel عند توفرها. تعتمد جودة واكتمال مخرجات Copilot على توفر البيانات وثراءها داخل بيئة العميل.
يتأثر الأداء أيضا بتعقيد الإدخال. تميل المطالبات البسيطة ذات النطاق الواضح إلى إنتاج نتائج أكثر دقة وقابلة للتنفيذ، بينما قد تؤدي المطالبات الغامضة أو الطويلة للغاية أو خارج مجال الأمان إلى مخرجات أقل صلة. بالنسبة للوكلاء المستقلين مثل عامل فرز التصيد الاحتيالي وعامل الكشف عن التهديدات الديناميكية، يتم قياس الأداء من خلال دقة التصنيف ودقة الكشف، مع التحسين المستمر مدفوعا بتعليقات المحللين وتحسين النموذج المستمر.
القيود
يعد فهم Microsoft Copilot في قيود Microsoft Defender أمرا بالغ الأهمية لتحديد ما إذا كان يستخدم ضمن حدود آمنة وفعالة. بينما نشجع العملاء على الاستفادة من Microsoft Copilot في Microsoft Defender في حلولهم أو تطبيقاتهم المبتكرة، من المهم ملاحظة أن Microsoft Copilot في Microsoft Defender لم يتم تصميمها لكل سيناريو ممكن. نشجع المستخدمين على الرجوع إلى مدونة قواعد السلوك لخدمات الذكاء الاصطناعي ل Microsoft Enterprise (للمؤسسات) أو قسم مدونة قواعد السلوك في اتفاقية خدمات Microsoft (للأفراد) بالإضافة إلى الاعتبارات التالية عند اختيار حالة استخدام:
نطاق مجال الأمان: تم تصميم Microsoft Copilot في Microsoft Defender لإنشاء استجابات تتعلق بمجال الأمان، مثل التحقيق في الحوادث والتحليل الذكي للمخاطر وتعقب التهديدات. قد تؤدي الطلبات خارج نطاق الأمان إلى استجابات تفتقر إلى الدقة والشمال. يجب على المستخدمين التأكد من أن استخدامهم ل Copilot يقتصر على المهام المتعلقة بالأمان داخل مدخل Microsoft Defender.
تحسين اللغة الإنجليزية: تم تطوير Copilot في Defender وتقييمه بشكل أساسي باللغة الإنجليزية. قد يؤدي استخدام اللغات غير المدعومة إلى تقليل الدقة أو المخرجات الأقل صلة أو الاستجابات غير المكتملة. يجب على المستخدمين توخي الحذر عند العمل خارج نطاق اللغة المقصود والتحقق من المخرجات بعناية في تلك السيناريوهات.
دقة إنشاء التعليمات البرمجية: قد يقوم Copilot في Defender بإنشاء تعليمات برمجية أو تضمين قصاصات برمجية، مثل استعلامات KQL، في استجاباته. في حين أن هذه المخرجات تبدو صالحة، فإنها قد لا تكون دائما صحيحة دلالية أو بناء على التركيب، أو قد لا تعكس هدف المحلل بدقة. يجب على المستخدمين دائما مراجعة أي تعليمة برمجية تم إنشاؤها واختبارها والتحقق من صحتها قبل استخدامها في الإنتاج، باتباع نفس الاحتياطات كما يفعلون مع أي تعليمة برمجية لم يؤلفوها بشكل مستقل: الاختبار الصارم، وفحص IP، والتحقق من وجود ثغرات أمنية.
قيود طول المطالبة: قد لا يتمكن النظام من معالجة المطالبات الطويلة جدا، مثل تلك التي تحتوي على مئات الآلاف من الأحرف. يجب على المحللين الحفاظ على المطالبات موجزة وجيدة النطاق للحصول على أفضل النتائج.
زمن انتقال الاستجابة وسعتها: قد يستغرق إنشاء الاستجابات والتحقق منها وقتا، حتى عدة دقائق في بعض الحالات، ويتطلب سعة حساب كبيرة. قد يخضع الاستخدام لتقييد السعة، خاصة خلال فترات الطلب المرتفع. يجب على المستخدمين التخطيط للتأخيرات المحتملة عند الاعتماد على Copilot للمهام الحساسة للوقت.
دقة الإخراج التي تم إنشاؤها بواسطة الذكاء الاصطناعي: مثل أي تقنية تعمل بالذكاء الاصطناعي، لا يحصل Copilot في Defender على كل شيء على نحو صحيح. قد تكون المخرجات غير دقيقة أو غير مكتملة أو متحيزة أو غير منحازة مع هدف المحلل. يمكن أن يحدث هذا بسبب الغموض في المدخلات أو قيود النماذج الأساسية أو الثغرات في البيانات المتاحة. يجب على المستخدمين دائما مراجعة المحتوى الذي تم إنشاؤه بواسطة Copilot قبل العمل عليه واستخدام أدوات الملاحظات المضمنة للإبلاغ عن مخرجات غير دقيقة أو إشكالية.
التطابقات مع التعليمات البرمجية العامة: ينشئ Copilot في Defender التعليمات البرمجية بشكل ظاهري، وعلى الرغم من أن احتمال إنتاج التعليمات البرمجية التي تطابق التعليمات البرمجية المتاحة للجمهور منخفض، فمن الممكن. يجب على المستخدمين اتخاذ الاحتياطات لضمان الملاءمة والأصالة، بما في ذلك الاختبار الصارم وفحص IP والتحقق من الثغرات الأمنية.
ليس بديلا عن الحكم البشري: تم تصميم Copilot في Defender لمساعدة محللي الأمان وليس استبدالهم. يجب مراجعة جميع التوصيات والملخصات والتصنيفات من قبل محلل مؤهل قبل اتخاذ إجراء، خاصة بالنسبة للقرارات اللاحقة مثل الاحتواء أو المعالجة أو التصعيد.
التقييمات
تقيم تقييمات الأداء والسلامة ما إذا كانت تطبيقات الذكاء الاصطناعي تعمل بشكل موثوق وآمن من خلال فحص عوامل مثل الأساس والأهمية والاتساق مع تحديد مخاطر توليد محتوى ضار. أجريت التقييمات التالية مع مكونات السلامة الموجودة بالفعل، والتي تم وصفها أيضا في مكونات السلامة والتخفيف من المخاطر.
تقييمات الأداء والجودة
تعد تقييمات الأداء لتطبيقات الذكاء الاصطناعي ضرورية لتحسين موثوقيتها في تطبيقات العالم الحقيقي. تساعد مقاييس مثل الأساس والأهمية والاتساق في تقييم دقة واتساق المخرجات التي تم إنشاؤها بواسطة الذكاء الاصطناعي، بحيث يتم دعمها واقعيا في سيناريوهات المحتوى الأرضية، والملائمة سياقيا، والمهيكلة منطقيا. بالنسبة Microsoft Copilot في Microsoft Defender، أجرينا تقييمات الأداء للمقاييس التالية، والتي تتوفر من خلال Microsoft Foundry:
- الأرضية
- الاتساق
- الطلاقه
- التشابه
أساليب تقييم الأداء والجودة
أجريت تقييمات الأداء Microsoft Copilot في Microsoft Defender على مخرجات قائمة على النص تم إنشاؤها عبر النطاق الكامل من القدرات المدعومة، بما في ذلك تلخيص الحوادث والاستجابات الموجهة وتحليل البرامج النصية والملفات وتلخيص الهوية والجهاز وإنشاء استعلام KQL والإحاطات الإعلامية للتحليل الذكي للمخاطر. استخدمت التقييمات المقيمين التلقائيين بمساعدة الذكاء الاصطناعي المتوفرين من خلال Microsoft Foundry، المطبقين على مجموعات البيانات المنسقة لسيناريوهات التحقيق الأمني الواقعية المستمدة من مدخلات العالم الحقيقي الاصطناعية والتمثيلية.
تقيس الأرضية ما إذا كانت المخرجات التي تم إنشاؤها مدعومة من الناحية الواقعية من خلال بيانات المصدر المتوفرة في البيئة، مثل تنبيهات الحوادث وإشارات التحليل الذكي للمخاطر وبيانات تتبع الاستخدام الأمنية. النتيجة المثالية هي النتيجة التي يمكن فيها تتبع جميع المطالبات في الإخراج إلى البيانات الأساسية ومتسقة معها. تحتوي النتيجة دون المستوى الأمثل على مطالبات مفبركة أو هلوسة أو غير متسقة مع بيانات المصدر المقدمة إلى النموذج.
يقيس الاتساق البنية المنطقية والوضوح والاتساق الداخلي للمخرجات التي تم إنشاؤها. والنتيجة المثالية منظمة تنظيما جيدا وسهلة المتابعة وخالية من التناقضات. تكون النتيجة دون المستوى الأمثل غير مرتبطة أو متناقضة ذاتيا أو يصعب على المحلل تفسيرها والتصرف بناء عليها.
يقيس الطلاقة صحة النحوية والجودة اللغوية للنص الذي تم إنشاؤه. نتيجة مثالية تقرأ بشكل طبيعي وخالية من الأخطاء النحوية أو الإنشاءات المحرجة. تحتوي النتيجة دون المستوى الأمثل على أخطاء نحوية أو عبارة تعوق قابلية القراءة أو فهم المحلل.
يقيس التشابه درجة المواءمة بين المخرجات التي تم إنشاؤها والمخرجات المرجعية التي ينتجها خبراء الموضوع لنفس المدخلات. تعكس النتيجة المثالية بشكل وثيق هدف مرجع الخبير وتغطيته ودقته. تختلف النتيجة دون المستوى الأمثل بشكل كبير عن الاستجابة المتوقعة في المحتوى أو النطاق أو الدقة.
تم تسجيل كل مقياس على نطاق رقمي باستخدام قضاة بمساعدة الذكاء الاصطناعي تمت معايرة مقابل التعليقات التوضيحية البشرية. تم تشغيل التقييمات بشكل متكرر عبر تحديثات مجموعة البيانات لتتبع الجودة بمرور الوقت ودعم التحسين المستمر.
تقييمات المخاطر والسلامة
يعد تقييم المخاطر المحتملة المرتبطة بالمحتوى الذي ينشئه الذكاء الاصطناعي أمرا ضروريا للحماية من مخاطر المحتوى بدرجات متفاوتة من الخطورة. يتضمن ذلك تقييم استعداد تطبيق الذكاء الاصطناعي لإنشاء محتوى ضار أو اختبار الثغرات الأمنية لهجمات الهروب من السجن. بالنسبة Microsoft Copilot في Microsoft Defender، أجرينا تقييمات للمخاطر والسلامة للمقاييس التالية المتوفرة من خلال Microsoft Foundry:
- الكراهية والظلم
- الجنسي
- العنف
- الأذى الذاتي
- المواد المحمية
- الهروب غير المباشر من السجن
- الهروب المباشر من السجن
- ثغرة أمنية في التعليمات البرمجية
- سمات غير مؤرضة
أساليب تقييم المخاطر والسلامة
أجريت تقييمات المخاطر والسلامة Microsoft Copilot في Microsoft Defender باستخدام مجموعات البيانات المتطفلة والمصنفات بمساعدة الذكاء الاصطناعي المتوفرة من خلال Microsoft Foundry، المطبقة على المدخلات والمخرجات المستندة إلى النص. تمت صياغة المطالبات الخصومية لمحاكاة محاولات إثارة محتوى ضار أو ينتهك النهج أو خارج الموضوع عبر مجموعة من فئات المخاطر. تم تسجيل المخرجات لوجود مثل هذا المحتوى باستخدام المصنفات المدربة والمعايرة لمعايير الأمان من Microsoft.
يقيم الكراهية والظلم ما إذا كانت المخرجات تحتوي على محتوى مهين أو تمييزي أو مسئوي يستهدف الأفراد أو المجموعات استنادا إلى الخصائص المحمية. لا تحتوي النتيجة المثالية على مثل هذا المحتوى. تتضمن النتيجة دون المستوى الأمثل اللغة التي تحط من قدر الأفراد أو المجموعات أو القوالب النمطية أو تميزهم بشكل غير عادل.
يقيم النشاط الجنسي ما إذا كانت المخرجات تحتوي على محتوى جنسي صريح أو غير مناسب. لا تحتوي النتيجة المثالية على مثل هذا المحتوى. تتضمن النتيجة دون المستوى الأمثل لغة ذات طبيعة جنسية غير مناسبة لسياق عمليات الأمان المهنية.
يقيم العنف ما إذا كانت المخرجات تحتوي على محتوى يمجد أعمال العنف أو يوجهها أو يشجعها. لا تحتوي النتيجة المثالية على مثل هذا المحتوى. تتضمن النتيجة دون المستوى الأمثل اللغة التي تشجع أو تسهل الضرر على الأفراد أو المجموعات.
يقيم الضرر الذاتي ما إذا كانت المخرجات تحتوي على محتوى يعزز السلوك المضر ذاتيا أو يوجهه أو يشجعه. لا تحتوي النتيجة المثالية على مثل هذا المحتوى. تتضمن النتيجة دون المستوى الأمثل اللغة التي يمكن أن تساهم في إلحاق الضرر بالنفس.
تقيم المواد المحمية ما إذا كانت المخرجات تعيد إنتاج نص أو تعليمة برمجية أو محتوى محمي آخر حرفيا أو بطريقة تخلق تعرضا قانونيا. لا تنتج النتيجة المثالية المواد المحمية. تحتوي النتيجة دون المستوى الأمثل على إعادة إنتاج حرفية للمحتوى المحمي من جهة خارجية.
يقيم الهروب غير المباشر من السجن مرونة التطبيق في المطالبة بهجمات الحقن المضمنة في المحتوى الخارجي، مثل البيانات المستردة من رسائل البريد الإلكتروني أو المستندات أو تنبيهات الأمان، التي تحاول إعادة توجيه سلوك النموذج. النتيجة المثالية هي النتيجة التي لا يتبع فيها النموذج التعليمات المحقونة. النتيجة دون المستوى الأمثل هي النتيجة التي تغير فيها الإرشادات المدخلة مخرجات النموذج أو سلوكه.
يقيم الهروب المباشر من السجن مرونة التطبيق في المحاولات الصريحة من قبل المستخدمين لتجاوز قيود الأمان أو تجاوز إرشادات النظام أو الحصول على محتوى خارج النطاق المقصود للتطبيق. النتيجة المثالية هي النتيجة التي يرفض فيها النموذج أو يعالج مثل هذه المحاولات بشكل مناسب. النتيجة دون المستوى الأمثل هي النتيجة التي يتوافق فيها النموذج مع الإرشادات المصممة للتحايل على عناصر التحكم في الأمان.
تقيم الثغرة الأمنية في التعليمات البرمجية ما إذا كانت مخرجات التعليمات البرمجية التي تم إنشاؤها، مثل استعلامات KQL أو قصاصات البرنامج النصي، تحتوي على ثغرات أمنية قد تعرض المحلل أو بيئته للخطر. النتيجة المثالية هي التعليمات البرمجية الخالية من الثغرات الأمنية القابلة للاستغلال. تحتوي النتيجة دون المستوى الأمثل على تعليمات برمجية ذات أنماط ثغرة أمنية معروفة، مثل مخاطر الحقن أو البنيات غير الآمنة.
تقيم السمات غير الأساسية ما إذا كانت المخرجات تعين خصائص أو سلوكيات أو سمات إلى كيانات، مثل المستخدمين أو الأجهزة أو الجهات الفاعلة في التهديد، والتي لا تدعمها البيانات الأساسية. سمات النتيجة المثالية فقط ما يتضح في بيانات الأمان المتوفرة. والنتيجة دون المستوى الأمثل تختلق السمات أو تستنتجها دون أساس الأدلة، مما قد يؤدي بالمحلل إلى استنتاجات غير صحيحة.
تم تسجيل كل مقياس باستخدام المصنفات بمساعدة الذكاء الاصطناعي، مع معايرة الدرجات مقابل التعليقات التوضيحية البشرية. أجريت التقييمات بشكل متكرر وأبلغت بتصميم عوامل التخفيف من المخاطر المتعلقة بالسلامة الموضحة في مكونات السلامة والتخفيف من المخاطر.
بيانات التقييم للجودة والسلامة
تم تصميم بيانات التقييم لدينا خصيصا لتقييم أداء تطبيق الذكاء الاصطناعي عبر المجالات الرئيسية للسلامة والجودة، محاكاة سيناريوهات ومخاطر العالم الحقيقي. نبدأ بتحديد جوانب التقييم ذات الصلة ذات الاهتمام استنادا إلى البحوث متعددة التخصصات ومدخلات الخبراء. وتترجم هذه المخاوف إلى أهداف تقييم مستهدفة وصياغة إرشادية لمقاييس التقييم. للأمان، نقوم بإنشاء مطالبات خصومية للحصول على استجابات غير مرغوب فيها أو استجابات حالة الحافة، والتي يتم تسجيلها بعد ذلك باستخدام التعليقات التوضيحية بمساعدة الذكاء الاصطناعي المدربة لتقييم التوافق مع معايير الأمان الخاصة ب Microsoft. للحصول على الجودة، نصنع المطالبات المستندة إلى التقييم ذات الصلة بالسيناريوهات بما في ذلك تقييم تطبيقات الجيل المعزز باسترداد (RAG) والوكلاء. يتم تنسيق مجموعات البيانات من مصادر متنوعة بما في ذلك مجموعات البيانات الاصطناعية والعامة لمحاكاة سيناريوهات المستخدم في العالم الحقيقي. باستخدام مجموعات البيانات المنسقة، يخضع كلا التقييمين للتنقيح التكراري والمحاذاة البشرية لتحسين الكفاءة القياسية والموثوقية. تشكل هذه المنهجية أساس التقييمات الصارمة القابلة للتكرار التي تعكس كيفية استخدام العملاء للتقييمات لبناء ذكاء الاصطناعي أفضل وأكثر أمانا.
التقييمات المخصصة
خضع Microsoft Copilot في Microsoft Defender لتقييم واختبار مخصصين كبيرين قبل الإصدار. تضمن ذلك فريقا أحمر شاملا، وهي ممارسة تختبر فيها الفرق المخصصة المنتج بدقة لتحديد أوضاع الفشل والسيناريوهات التي قد تتسبب في قيام التطبيق بإنتاج مخرجات خارج الاستخدامات المقصودة أو التي لا تتوافق مع مبادئ Microsoft AI. تم تصميم تمارين الفريق الأحمر لتقييم مرونة التطبيق ضد المدخلات الخصومية، ومحاولات الحصول على محتوى ضار أو خارج الموضوع، وسيناريوهات حالة الحافة التي يمكن أن تعرض الأمان أو الموثوقية للخطر.
بالإضافة إلى الفريق الأحمر، أجرت Microsoft اختبارا تكراريا عبر النطاق الكامل من Copilot في قدرات Defender، بما في ذلك تلخيص الحوادث والاستجابات الموجهة وتحليل البرنامج النصي وتحليل الملفات وتلخيص الهوية والجهاز وإنشاء استعلام KQL وإحاطات التحليل الذكي للمخاطر. قيمت هذه التقييمات دقة النواتج التي تم إنشاؤها عبر الطرائق المستندة إلى النص (اللغة الطبيعية ورمز KQL) وتأسسها ومدى ترابطها. النتيجة المثالية هي النتيجة الدقيقة من الناحية الواقعية، والمسندة إلى بيانات الأمان المتاحة، ذات الصلة باستعلام المحلل، ومنظمة بوضوح. ستكون النتيجة دون المستوى الأمثل هي نتيجة غير صحيحة من الناحية الواقعية، أو غير مدعومة بالبيانات، أو غير ذات صلة بهدف المحلل، أو يصعب اتباعها.
يوفر برنامج الوصول المبكر للدعوة فقط آلية تقييم إضافية، مما يمكن المستخدمين في العالم الحقيقي من التفاعل مع التطبيق وتقديم ملاحظات منظمة قبل التوفر العام. ملاحظات المستخدم، التي تم جمعها من خلال أزرار "خارج الهدف" و"تقرير" و"تأكيد" على كل استجابة من استجابات Copilot، هي إشارة تقييم مستمرة تستخدمها Microsoft لتحديد مشكلات الجودة ودفع التحسين المستمر. بالنسبة للوكلاء المستقلين مثل عامل فرز التصيد الاحتيالي، يتضمن التقييم أيضا مقاييس دقة التصنيف وتعليقات المحللين على قرارات الفرز لتحسين أداء العامل باستمرار.
مكونات الأمان والتخفيف من المخاطر
الفريق الأحمر والاختبار الخصمي: قبل الإصدار، أجرت Microsoft فريقا أحمر واسع النطاق لتحديد أوضاع الفشل والشروط التي يمكن للتطبيق بموجبها إنشاء مخرجات خارج نطاقه المقصود. تحاكي الفرق المخصصة المدخلات الخصومية ومحاولات الهروب من السجن وسيناريوهات حالة الحافة لتقييم مرونة التطبيق وإبلاغ تصميم عناصر التحكم في السلامة.
تصميم Human-in-the-loop: يحافظ Copilot في Defender على البشر في مركز جميع مهام سير العمل. يتم تقديم جميع المخرجات التي تم إنشاؤها، بما في ذلك الملخصات والتوصيات والتصنيفات والرمز، إلى المحللين للمراجعة قبل اتخاذ أي إجراء. يضمن هذا التصميم أن الحكم البشري هو نقطة القرار النهائية لجميع أنشطة العمليات الأمنية.
أنظمة تصفية المحتوى والسلامة: تم تصميم نظام أمان متعدد الطبقات للتخفيف من توليد المحتوى الضار ومنع إساءة الاستخدام. يتضمن ذلك التعليق التوضيحي للمحتوى الضار ومصنفات المحتوى والضمانات المضمنة التي شاشة كل من المدخلات والمخرجات للمحتوى خارج الموضوع أو الضار أو غير المناسب.
المراقبة التشغيلية: تراقب Microsoft باستمرار الأداء التشغيلي ل Copilot في Defender للكشف عن الحالات الشاذة والأداء المتدهور وسوء الاستخدام المحتمل. تتيح هذه المراقبة التحديد السريع للمشكلات التي يمكن أن تؤثر على جودة التطبيق أو سلامته وحلها.
آلية ملاحظات المستخدم: تتضمن كل استجابة Copilot عناصر تحكم في الملاحظات، وتحديدا أزرار "خارج الهدف" و"تقرير" و"تأكيد"، والتي تسمح للمحللين بوضع علامة على المخرجات غير الدقيقة أو غير المكتملة أو المرفوضة. تنتقل هذه الملاحظات مباشرة إلى Microsoft وتستخدم لتحسين جودة التطبيق وسلامته بمرور الوقت.
إنفاذ حدود النطاق: تم تصميم Copilot في Defender للاستجابة فقط للمطالبات المتعلقة بمجال الأمان. يتم التعامل مع الطلبات التي تقع خارج نطاق عمليات الأمان، مثل طلبات المعرفة العامة غير ذات الصلة أو المهام غير الأمنية، مع حواجز حماية مناسبة لتقليل مخاطر إنشاء محتوى خارج الموضوع أو محتوى مضلل.
الوصول والأذونات المستندة إلى الدور: يخضع الوصول إلى Copilot في Defender لعناصر التحكم في الوصول المستندة إلى الدور. يجب أن يكون لدى المستخدمين حق الوصول المقدم إلى Microsoft Security Copilot، وتتطلب الميزات والوكلاء المحددين أذونات إضافية، مثل قارئ الأمان أو مسؤول الأمان أو أدوار Microsoft Entra محددة. وهذا يحد من التعرض للموظفين المصرح لهم ويفرض مبدأ أقل الامتيازات.
المنطق الشفاف للوكلاء المستقلين: بالنسبة للقدرات الوكيلة مثل عامل فرز التصيد الاحتيالي، يوفر التطبيق مبررا شفافا لأحكام التصنيف الخاصة به باللغة الطبيعية، مع تفصيل المنطق والأدلة وراء الاستنتاجات. يتوفر أيضا تمثيل مرئي لعملية المنطق، ما يمكن المحللين من فهم عملية صنع القرار الخاصة بالوكيل والتحقق منها.
حلقة ملاحظات المحلل للذكاء الاصطناعي الوكيل: يمكن للمحللين تقديم ملاحظات حول تصنيفات الوكيل المستقلة، مثل قرارات فرز التصيد الاحتيالي. مع مرور الوقت، تساعد هذه الملاحظات في تحسين سلوك العامل لتعكس السياق التنظيمي بشكل أفضل، وتقليل الإيجابيات الخاطئة، وتحسين دقة التصنيف.
الامتثال لقانون الذكاء الاصطناعي في الاتحاد الأوروبي: تلتزم Microsoft بالامتثال لقانون الذكاء الاصطناعي للاتحاد الأوروبي. تم تطوير التطبيق بما يتماشى مع Standard الذكاء الاصطناعي المسؤول من Microsoft، والذي يمثل مقترحات تنظيمية بما في ذلك قانون الذكاء الاصطناعي في الاتحاد الأوروبي. لمزيد من المعلومات، راجع امتثال Microsoft لقانون الذكاء الاصطناعي للاتحاد الأوروبي.
أفضل الممارسات لنشر Microsoft Copilot واعتمادها في Microsoft Defender
الذكاء الاصطناعي المسؤول هو التزام مشترك بين Microsoft وعملائها. بينما تبني Microsoft تطبيقات الذكاء الاصطناعي مع السلامة والإنصاف والشفافية في الأساس، يلعب العملاء دورا حاسما في نشر هذه التقنيات واستخدامها بشكل مسؤول ضمن سياقاتهم الخاصة. لدعم هذه الشراكة، نقدم أفضل الممارسات التالية للموزعين والمستخدمين النهائيين لمساعدة العملاء على تنفيذ الذكاء الاصطناعي المسؤول بفعالية.
يجب على الموزعين والمستخدمين النهائيين:
توخي الحذر وتقييم النتائج عند استخدام Microsoft Copilot في Microsoft Defender للقرارات اللاحقة أو في المجالات الحساسة: القرارات اللاحقة هي تلك التي قد يكون لها تأثير قانوني أو كبير على وصول الشخص إلى التعليم أو التوظيف أو المنصات المالية أو المزايا الحكومية أو الرعاية الصحية أو السكن أو التأمين أو الأنظمة الأساسية القانونية أو التي يمكن أن تؤدي إلى ضرر جسدي أو نفسي أو مالي. تتطلب المجالات الحساسة مثل الأنظمة الأساسية المالية والرعاية الصحية والإسكان رعاية خاصة بسبب احتمال التأثير غير المتناسب على مجموعات مختلفة من الناس. عند استخدام الذكاء الاصطناعي للقرارات في هذه المجالات، تأكد من أن أصحاب المصلحة المتأثرين يمكنهم فهم كيفية اتخاذ القرارات وقرارات الاستئناف وتحديث أي بيانات إدخال ذات صلة.
تقييم الاعتبارات القانونية والتنظيمية: يحتاج العملاء إلى تقييم الالتزامات القانونية والتنظيمية المحددة المحتملة عند استخدام أي منصات وحلول للذكاء الاصطناعي، والتي قد لا تكون مناسبة للاستخدام في كل صناعة أو سيناريو. بالإضافة إلى ذلك، لم يتم تصميم منصات أو حلول الذكاء الاصطناعي ل ولا يمكن استخدامها بطرق محظورة من حيث الخدمة المعمول بها ومدونات قواعد السلوك ذات الصلة.
يجب على المستخدمين النهائيين:
ممارسة الرقابة البشرية عند الاقتضاء: يعد الإشراف البشري حماية مهمة عند التفاعل مع تطبيقات الذكاء الاصطناعي. بينما نعمل باستمرار على تحسين تطبيقات الذكاء الاصطناعي الخاصة بنا، قد لا يزال الذكاء الاصطناعي يرتكب أخطاء. قد تكون المخرجات التي تم إنشاؤها غير دقيقة أو غير مكتملة أو متحيزة أو غير منحازة أو غير ذات صلة بأهدافك المقصودة. يمكن أن يحدث هذا لأسباب مختلفة، مثل الغموض في مدخلات أو قيود النماذج الأساسية. على هذا النحو، يجب على المستخدمين مراجعة الاستجابات التي تم إنشاؤها بواسطة Microsoft Copilot في Microsoft Defender والتحقق من أنها تتطابق مع توقعاتهم ومتطلباتهم.
كن على دراية بخطر الإفراط في الاعتماد: يحدث الاعتماد المفرط على الذكاء الاصطناعي عندما يقبل المستخدمون مخرجات الذكاء الاصطناعي غير الصحيحة أو غير المكتملة، ويرجع ذلك أساسا إلى أنه قد يكون من الصعب اكتشاف الأخطاء في مخرجات الذكاء الاصطناعي. بالنسبة للمستخدمين النهائيين، يمكن أن يؤدي الاعتماد المفرط إلى انخفاض الإنتاجية أو فقدان الثقة أو التخلي عن التطبيق أو الخسارة المالية أو الضرر النفسي أو الضرر البدني. يجب على محللي الأمن التعامل مع مخرجات Copilot كنقطة بداية للتحقيق، وليس كتقرير نهائي، ويجب عليهم التحقق بشكل مستقل من النتائج الهامة قبل اتخاذ الإجراءات التبعية.
توخي الحذر عند تصميم الذكاء الاصطناعي العاملي في المجالات الحساسة: يجب على المستخدمين توخي الحذر عند تصميم و/أو توزيع تطبيقات الذكاء الاصطناعي الوكيلة في المجالات الحساسة حيث تكون إجراءات العامل لا رجعة فيها أو تبعية للغاية. يجب أيضا اتخاذ احتياطات إضافية عند إنشاء الذكاء الاصطناعي الوكيل المستقل كما هو موضح بشكل أكبر في مدونة قواعد سلوك خدمات الذكاء الاصطناعي ل Microsoft Enterprise (للمؤسسات) أو قسم مدونة قواعد السلوك في اتفاقية خدمات Microsoft (للأفراد).
تقديم ملاحظات لتحسين جودة Copilot: عندما تكون الاستجابة غير دقيقة أو غير مكتملة أو غير واضحة، استخدم الزرين "خارج الهدف" و"التقرير" لوضع علامة على الإخراج المسبب للمشاكل. عندما تكون الاستجابات مفيدة ودقيقة، استخدم الزر "تأكيد". تظهر عناصر التحكم في الملاحظات هذه في أسفل كل استجابة من استجابات Copilot وتساعد Microsoft على تحسين أداء التطبيق باستمرار.
استخدم مطالبات واضحة ومحددة: للحصول على أفضل النتائج، أرسل المطالبات التي تكون موجزة وغنية بالسياق وذات صلة بمجال الأمان. على سبيل المثال، بدلا من سؤال غامض مثل "أخبرني عن التهديدات"، اطرح "تلخيص أحدث الجهات الفاعلة في التهديدات التي تستهدف صناعة الرعاية الصحية في آخر 30 يوما". تساعد المطالبات المحددة Copilot على إنشاء نتائج أكثر دقة وقابلة للتنفيذ.
مراقبة انحراف الأداء: إذا لاحظت انخفاضا في جودة مخرجات Copilot بمرور الوقت، فبلغ عن المشكلة باستخدام أدوات الملاحظات. تساعد الملاحظات المتسقة Microsoft على اكتشاف ومعالجة انحراف الأداء عبر قاعدة المستخدمين.
يجب على الموزعين:
ضمان توفير الوصول المناسب وتعيين الدور: قبل نشر Copilot في Defender، تأكد من أن المستخدمين قد قاموا بتوفير الوصول إلى Microsoft Security Copilot بسعة وحدات حساب أمان كافية. قم بتعيين الأذونات المستندة إلى الأدوار باستخدام مبدأ الامتياز الأقل بحيث يكون للمحللين والمسؤولين والوكلاء الوصول المطلوب فقط لمسؤولياتهم. بالنسبة للقدرات الوكيلة مثل عامل فرز التصيد الاحتيالي وعامل إحاطة التحليل الذكي للمخاطر، تحقق من استيفاء أدوار Microsoft Entra المطلوبة والمتطلبات الأساسية قبل تمكين هذه الميزات.
تحميل إرشادات الاستجابة الخاصة بالمؤسسة: يمكن للمسؤولين تحميل إرشادات الاستجابة المخصصة التي يستخدمها Copilot لتخصيص توصيات الاستجابة الموجهة لسياسات وإجراءات المؤسسة. يساعد هذا في ضمان توافق توصيات Copilot مع الوضع الأمني للمؤسسة والمتطلبات التشغيلية.
تكوين إعدادات ملخص الحادث بشكل مناسب: يمكن تكوين التلخيص التلقائي للحوادث في Copilot لتشغيل "دائما" أو "استنادا إلى مستوى الخطورة" أو "عند الطلب فقط". يجب على الموزعين تحديد الإعداد الذي يتوافق مع سير عمل SOC الخاص بهم وميزانية الحساب لتحقيق التوازن بين الاستجابة واستهلاك الموارد.
اختبار قدرات Copilot عبر بيئتك: قبل تمكين Copilot على نطاق واسع، اختبر القدرات الرئيسية مثل تلخيص الحوادث والاستجابات الموجهة وتحليل البرنامج النصي وإنشاء استعلام KQL باستخدام بيانات وسيناريوهات واقعية من بيئتك. تحقق من أن المخرجات دقيقة وملائمة وقابلة للتنفيذ لأحمال العمل ومصادر البيانات المحددة.
مراقبة نشاط العامل المستقل ومراجعته: بالنسبة للقدرات الوكيلة مثل عامل فرز التصيد الاحتيالي وعامل الكشف عن التهديدات الديناميكية، قم بتوزيع المراقبة الأولية لمراجعة تصنيفات وتنبيهات العامل. تأكد من أن المحللين يراجعون القرارات المستقلة ويقدمون ملاحظات، خاصة خلال فترة التوزيع الأولية، لمعايرة العامل مع سياق مؤسستك.
التخطيط لسعة الحوسبة وزمن الانتقال: قد يستغرق إنشاء الاستجابة ما يصل إلى عدة دقائق ويتطلب سعة GPU. يجب على الموزعين التخطيط لزمن الانتقال المحتمل خلال فترات الطلب المرتفع وتوصيل أوقات الاستجابة المتوقعة للمحللين حتى يتمكنوا من تخطيط مهام سير العمل الخاصة بهم وفقا لذلك.
تعرف على المزيد حول Microsoft Copilot في Microsoft Defender
للحصول على إرشادات إضافية أو لمعرفة المزيد حول الاستخدام المسؤول Microsoft Copilot في Microsoft Defender، نوصي بمراجعة الوثائق التالية:
- Copilot للأمان من Microsoft في Microsoft Defender
- ما هو Microsoft Security Copilot؟
- الخصوصية وأمان البيانات في Copilot للأمان
- امتثال Microsoft لقانون الذكاء الاصطناعي للاتحاد الأوروبي
- بدء استخدام Copilot للأمان