مشاركة عبر


توصيات الأمان الذكاء الاصطناعي

تسرد هذه المقالة جميع توصيات الأمان الذكاء الاصطناعي التي قد تراها في Microsoft Defender for Cloud.

تستند التوصيات التي تظهر في بيئتك إلى الموارد التي تحميها وعلى التكوين المخصص. يمكنك الاطلاع على التوصيات في المدخل التي تنطبق على مواردك.

للتعرف على الإجراءات التي يمكنك اتخاذها استجابة لهذه التوصيات، راجع معالجة التوصيات في Defender for Cloud.

توصيات Azure

يجب أن يتطلب عامل الذكاء الاصطناعي Foundry مع مخاطر الحقن الفوري غير المباشر بشريا في التحكم في الحلقة لإجراءات أداة MCP (معاينة)

وصف: حدد Microsoft Defender العامل القابل لإدخال المطالبة غير المباشرة الذي لا يتطلب إجراءات أدوات MCP بموافقة المستخدم. وهذا يزيد من خطر هجمات XPIA الناجحة، حيث تخدع التعليمات المخفية المهاجمين العامل لتنفيذ إجراءات ضارة أو تسريب معلومات حساسة. يمكن أن تساعد إضافة عنصر التحكم "بشري في الحلقة"، مثل طلب موافقة المستخدم على إجراءات أداة MCP، في حماية العامل ومنع مثل هذه الهجمات.

الخطورة: عالية

يجب أن يستخدم عامل الذكاء الاصطناعي المكتشف مع مخاطر الحقن الفوري غير المباشر عناصر تحكم حماية محسنة (معاينة)

وصف: حدد Microsoft Defender وكيلا عرضة لحقن المطالبة غير المباشر (XPIA) استنادا إلى تكوين الأداة وعلامات الحماية الخاصة به، والتي لا يتم فرضها بشكل كاف. في هجوم XPIA، يتم إخفاء الإرشادات الضارة داخل مصدر البيانات الخارجي للعامل، مثل مواقع الويب، لجعل العامل يفسر هذا النص المضمن على أنه تعليمات شرعية، مما قد يؤدي إلى تنفيذ إجراءات ضارة أو تسريب معلومات حساسة. قد تساعد إضافة حراسة العامل على التحكم في حقن المطالبة غير المباشرة في حماية العامل ومنع مثل هذه الهجمات.

الخطورة: عالية

يجب استخدام معرف Microsoft Entra عند توصيل Microsoft Foundry بحساب التخزين الافتراضي (معاينة)

وصف: حدد Defender for Cloud الوصول المستند إلى بيانات الاعتماد عند الاتصال بحساب التخزين الافتراضي في Microsoft Foundry. وهذا يشكل خطرا على الوصول غير المصرح به. لتقليل مخاطر الوصول غير المصرح به، يجب تعطيل التخويل المستند إلى المفتاح، واستخدام معرف Microsoft Entra بدلا من ذلك.

الخطورة: عالية

يجب استخدام معرف Microsoft Entra عند الاتصال بمخازن البيانات على مشروع Microsoft Foundry (معاينة)

وصف: حدد Defender for Cloud الوصول المستند إلى بيانات الاعتماد عند الاتصال بحساب التخزين في مشروع Microsoft Foundry. وهذا يشكل خطرا على الوصول غير المصرح به. لتقليل مخاطر الوصول غير المصرح به، يجب تعطيل التخويل المستند إلى المفتاح، واستخدام معرف Microsoft Entra بدلا من ذلك.

الخطورة: عالية

يجب حل نتائج الأمان على نماذج الذكاء الاصطناعي داخل موارد التعلم الآلي من Azure (معاينة)

وصف: يفحص Defender باستمرار نماذج الذكاء الاصطناعي المخزنة في سجلات التعلم الآلي من Azure ومساحات العمل بحثا عن مخاطر الأمان، مثل الثغرات الأمنية والبرامج الضارة لاستغلال التسلسل. تساعد هذه التقييمات في تحديد النماذج التي قد تكون مكونة بشكل خاطئ أو تحتوي على محتوى ضار. يعد حل هذه النتائج أمرا ضروريا للحفاظ على دورة حياة تطوير الذكاء الاصطناعي آمنة وجديرة بالثقة، والحد من مخاطر خرق البيانات، وضمان الامتثال لأفضل الممارسات الأمنية.

الخطورة: عالية

يجب استخدام Application Insights على Microsoft Foundry (معاينة)

وصف: حدد Defender for Cloud أن Application insights غير مكون في Microsoft Foundry. يستخدم الذكاء الاصطناعي Foundry Azure Application Insights لتخزين معلومات المراقبة حول النماذج المنشورة. وهذا يشكل خطرا من تأخر الكشف عن التهديدات والاستجابة غير الفعالة للحوادث.

الخطورة: متوسط

يجب تكوين عامل الذكاء الاصطناعي Azure مع إرشادات تشغيلية (معاينة)

وصف: قد يتصرف وكلاء الذكاء الاصطناعي في Azure الذين لم يتم تكوينهم بإرشادات تشغيلية واضحة بشكل غير متوقع أو غير متناسق. بدون إرشادات محددة، يمكن لهذا العامل الوصول إلى البيانات أو معالجتها أو كشفها عن غير قصد، أو الاستجابة للمطالبات بشكل غير مناسب، أو عدم الامتثال لمتطلبات الأمان والتوافق التنظيمية. يزيد هذا النقص في التحكم من خطر تسرب البيانات والإجراءات غير المصرح بها وعدم التوافق مع سياسات حوكمة المؤسسة.

الخطورة: متوسط

يجب تعطيل الوصول إلى المفتاح لموارد Azure الذكاء الاصطناعي Services (تعطيل المصادقة المحلية)

وصف: يوصى بتعطيل الوصول إلى المفتاح (المصادقة المحلية) للأمان. يتطلب Azure OpenAI Studio، المستخدم عادة في التطوير/الاختبار، الوصول إلى المفتاح، ولن يعمل إذا تم تعطيل الوصول إلى المفتاح. بعد تعطيل الإعداد، يصبح معرف Microsoft Entra أسلوب الوصول الوحيد، والذي يسمح بالحفاظ على الحد الأدنى من مبدأ الامتياز والتحكم الدقيق. اعرف المزيد.

تحل هذه التوصية محل التوصية القديمة يجب تعطيل أساليب المصادقة المحلية لحسابات الخدمات المعرفية. كان سابقا في فئة Cognitive Services و Cognitive Search وتم تحديثه للامتثال لتنسيق تسمية Azure الذكاء الاصطناعي Services ومواءمته مع الموارد ذات الصلة.

الخطورة: متوسط

يجب أن تقيد موارد Azure الذكاء الاصطناعي Services الوصول إلى الشبكة

وصف: من خلال تقييد الوصول إلى الشبكة، يمكنك التأكد من أن الشبكات المسموح بها فقط يمكنها الوصول إلى الخدمة. يمكن تحقيق ذلك عن طريق تكوين قواعد الشبكة بحيث يمكن فقط للتطبيقات من الشبكات المسموح بها الوصول إلى مورد خدمة Azure الذكاء الاصطناعي.

تحل هذه التوصية محل التوصية القديمة التي يجب أن تقيد حسابات الخدمات المعرفية الوصول إلى الشبكة. كان سابقا في فئة الخدمات المعرفية والبحث المعرفي، وتم تحديثه للامتثال لتنسيق تسمية Azure الذكاء الاصطناعي Services ومواءمته مع الموارد ذات الصلة.

الخطورة: متوسط

وصف: يتيح لك Azure Private Link توصيل شبكتك الظاهرية بخدمات Azure دون عنوان IP عام في المصدر أو الوجهة. يقلل النظام الأساسي Private Link من مخاطر تسرب البيانات من خلال التعامل مع الاتصال بين المستهلك والخدمات عبر شبكة Azure الأساسية.

تعرف على المزيد حول الارتباطات الخاصة في: ما هو Azure Private Link؟

تحل هذه التوصية محل التوصية القديمة التي يجب أن تستخدم الخدمات المعرفية رابطا خاصا. كان سابقا في توصيات بيانات الفئة، وتم تحديثه للامتثال لتنسيق تسمية Azure الذكاء الاصطناعي Services ومواءمته مع الموارد ذات الصلة.

الخطورة: متوسط

يجب أن تعطل مجموعات Azure Databricks IP العام (معاينة)

الوصف والنهج ذي الصلة: يؤدي تعطيل IP العام للمجموعات في مساحات عمل Azure Databricks إلى تحسين الأمان من خلال ضمان عدم كشف المجموعات على الإنترنت العام. لمزيد من المعلومات، راجع اتصال نظام المجموعة الآمن.

الخطورة: متوسط

يجب أن تكون مساحات عمل Azure Databricks في شبكة ظاهرية (معاينة)

الوصف والنهج ذي الصلة: توفر شبكات Azure الظاهرية أمانا وعزلا محسنين لمساحات عمل Azure Databricks، بالإضافة إلى الشبكات الفرعية ونهج التحكم في الوصول والميزات الأخرى لتقييد الوصول بشكل أكبر. لمزيد من المعلومات، راجع نشر Azure Databricks في شبكة Azure الظاهرية.

الخطورة: متوسط

يجب أن تعطل مساحات عمل Azure Databricks الوصول إلى الشبكة العامة (معاينة)

الوصف والنهج ذي الصلة: يؤدي تعطيل الوصول إلى الشبكة العامة إلى تحسين الأمان من خلال ضمان عدم كشف المورد على الإنترنت العام. يمكنك التحكم في تعرض مواردك عن طريق إنشاء نقاط نهاية خاصة بدلا من ذلك. لمزيد من المعلومات، راجع تمكين Azure Private Link.

الخطورة: متوسط

الوصف والنهج ذي الصلة: يتيح لك Azure Private Link توصيل الشبكات الظاهرية بخدمات Azure دون عنوان IP عام في المصدر أو الوجهة. يعالج النظام الأساسي لـPrivate Link الاتصال بين المستهلك والخدمات عبر شبكة Azure الأساسية. من خلال تعيين نقاط النهاية الخاصة إلى مساحات عمل Azure Databricks، يمكنك تقليل مخاطر تسرب البيانات. لمزيد من المعلومات، راجع إنشاء مساحة العمل ونقاط النهاية الخاصة في واجهة مستخدم مدخل Microsoft Azure.

الخطورة: متوسط

يجب أن تكون حسابات Azure التعلم الآلي في شبكة ظاهرية (معاينة)

الوصف والنهج ذي الصلة: توفر شبكات Azure الظاهرية أمانا وعزلا محسنين لمجموعات ومثيلات حوسبة Azure التعلم الآلي، بالإضافة إلى الشبكات الفرعية ونهج التحكم في الوصول والميزات الأخرى لتقييد الوصول بشكل أكبر. عند تكوين حساب مع شبكة ظاهرية، فإنه لا يمكن معالجته بشكل عام ولا يمكن الوصول إليه إلا من الأجهزة والتطبيقات الظاهرية داخل الشبكة الظاهرية.

الخطورة: متوسط

يجب أن يكون لدى حسابات Azure التعلم الآلي أساليب مصادقة محلية معطلة (معاينة)

الوصف والنهج ذي الصلة: يؤدي تعطيل أساليب المصادقة المحلية إلى تحسين الأمان من خلال التأكد من أن حسابات التعلم الآلي تتطلب هويات معرف Microsoft Entra حصريا للمصادقة. لمزيد من المعلومات، راجع ضوابط التوافق التنظيمي لنهج Azure ل Azure التعلم الآلي.

الخطورة: متوسط

يجب أن تعطل مساحات عمل Azure التعلم الآلي الوصول إلى الشبكة العامة (معاينة)

الوصف والنهج ذي الصلة: يؤدي تعطيل الوصول إلى الشبكة العامة إلى تحسين الأمان من خلال التأكد من عدم كشف مساحات عمل التعلم الآلي على الإنترنت العام. يمكنك التحكم في تعرض مساحات العمل الخاصة بك عن طريق إنشاء نقاط نهاية خاصة بدلا من ذلك. لمزيد من المعلومات، راجع تكوين نقطة نهاية خاصة لمساحة عمل Azure التعلم الآلي.

الخطورة: متوسط

يجب إعادة إنشاء مثيلات حساب Azure التعلم الآلي للحصول على آخر تحديثات البرامج (معاينة)

الوصف والنهج ذي الصلة: تأكد من تشغيل مثيلات حساب Azure التعلم الآلي على أحدث نظام تشغيل متوفر. يتم تحسين الأمان وتقليل الثغرات الأمنية عن طريق التشغيل باستخدام أحدث تصحيحات الأمان. لمزيد من المعلومات، راجع إدارة الثغرات الأمنية ل Azure التعلم الآلي.

الخطورة: متوسط

يجب تكوين عوامل الذكاء الاصطناعي المتصلة مع إرشادات حول كيفية استدعائها (معاينة)

وصف: حدد Defender for Cloud أن الإرشادات التفصيلية حول كيفية استدعاء عامل متصل مفقودة عند تعريف الاتصال بين الوكلاء. يعد توفير تعليمات واضحة أثناء الاتصال أمرا ضروريا لضمان عمل الوكلاء ضمن حدودهم المحددة وتقليل مخاطر المخرجات غير المتوقعة أو التي يتم التلاعب بها. تمكن الإرشادات المحددة جيدا التفاعلات المتسقة والآمنة وتحمي من المخاطر مثل تنفيذ الأداة غير المقصودة.

الخطورة: متوسط

يجب أن تتضمن حواجز حماية عامل الذكاء الاصطناعي في Foundry التحكم في الهروب من السجن (معاينة)

وصف: لقد حدد Microsoft Defender أن حواجز حماية عامل الذكاء الاصطناعي لم يتم تكوينها باستخدام التحكم في الهروب من السجن. هجمات الهروب من السجن هي مطالبات المستخدم المصممة لاستفزاز نموذج الذكاء الاصطناعي التوليدي إلى إظهار السلوكيات التي تم تدريبها لتجنب أو لكسر القواعد المحددة في التعليمات. يساعد تمكين عنصر التحكم هذا في حماية العامل ومنع مثل هذه الهجمات.

الخطورة: متوسط

يجب تكوين أداة MCP الخاصة بعامل Foundry مع قائمة الأدوات المسموح بها (معاينة)

وصف: حدد Microsoft Defender أن أداة MCP لعامل الذكاء الاصطناعي تم تكوينها دون قائمة أدوات مسموح بها. تضمن قائمة الأدوات المسموح بها أن أداة MCP يمكنها فقط استدعاء الأدوات المعتمدة، ما يمنع الاستخدام العرضي أو الضار للقدرات غير المصرح بها. قد يساعد تكوين قائمة الأدوات المسموح بها في حماية العامل من تهديدات إساءة استخدام الأدوات.

الخطورة: متوسط

يجب أن تكون اتصالات الشبكة محدودة على Microsoft Foundry (معاينة)

وصف: حدد Defender for Cloud تمكين الوصول إلى الشبكة العامة لجميع الشبكات في Microsoft Foundry. وهذا يشكل خطرا على التعرض لتهديدات خارجية ويمكن أن يؤدي إلى انتهاكات غير مصرح بها للوصول والبيانات. من خلال تقييد الوصول إلى الشبكة، يمكنك التأكد من أن الشبكات المسموح بها فقط يمكنها الوصول إلى الخدمة.

الخطورة: متوسط

يجب تمكين سجلات الموارد في مساحات عمل Azure Databricks (معاينة)

الوصف والنهج ذي الصلة: تمكن سجلات الموارد من إعادة إنشاء مسارات النشاط لاستخدامها لأغراض التحقيق عند حدوث حادث أمان أو عند اختراق الشبكة.

الخطورة: متوسط

يجب تمكين سجلات الموارد في Azure التعلم الآلي Workspaces (معاينة)

الوصف والنهج ذي الصلة: تمكن سجلات الموارد من إعادة إنشاء مسارات النشاط لاستخدامها لأغراض التحقيق عند حدوث حادث أمان أو عند اختراق الشبكة.

الخطورة: متوسط

[تمكين إذا لزم الأمر] يجب استخدام المفاتيح التي يديرها العميل لتشفير البيانات على Microsoft Foundry (معاينة)

وصف: حدد Defender for Cloud أن المفاتيح التي تديرها Microsoft تستخدم لتشفير البيانات في Microsoft Foundry. وهذا ينطوي على خطر عدم الامتثال للوائح التنظيمية للمؤسسات ذات متطلبات الامتثال ذات الصلة. يوفر استخدام المفاتيح المدارة من قبل العميل (CMK) لتشفير البيانات الثابتة مزيدا من التحكم في دورة حياة المفتاح، بما في ذلك التدوير والإدارة، وغالبا ما يكون مطلوبا لتلبية معايير التوافق. لا يتم تقييم هذا بشكل افتراضي وينبغي تطبيقه فقط عند الحاجة إلى الامتثال أو متطلبات النهج التقييدية. إذا لم يتم تمكينها، تشفير البيانات باستخدام مفاتيح تديرها Microsoft. لتنفيذ هذه التوصية، قم بتحديث المعلمة 'Effect' في نهج الأمان للنطاق القابل للتطبيق.

الخطورة: متوسط

(تمكين إذا لزم الأمر) يجب أن تقوم موارد Azure الذكاء الاصطناعي Services بتشفير البيانات الثابتة باستخدام مفتاح مدار من قبل العميل (CMK)

وصف: يوفر استخدام المفاتيح التي يديرها العميل لتشفير البيانات الثابتة مزيدا من التحكم في دورة حياة المفتاح، بما في ذلك التدوير والإدارة. وهذا أمر ذو صلة خاصة بالمنظمات ذات متطلبات الامتثال ذات الصلة.

لا يتم تقييم هذا بشكل افتراضي وينبغي تطبيقه فقط عند الحاجة إلى الامتثال أو متطلبات النهج التقييدية. إذا لم يتم تمكينها، تشفير البيانات باستخدام مفاتيح مدارة بواسطة النظام الأساسي. لتنفيذ ذلك، قم بتحديث المعلمة 'Effect' في نهج الأمان للنطاق القابل للتطبيق. (النهج ذي الصلة: يجب أن تقوم موارد Azure الذكاء الاصطناعي Services بتشفير البيانات الثابتة باستخدام مفتاح مدار من قبل العميل (CMK))

تحل هذه التوصية محل التوصية القديمة التي يجب أن تمكن حسابات الخدمات المعرفية تشفير البيانات باستخدام مفاتيح العملاء. كان سابقا في توصيات بيانات الفئة، وتم تحديثه للامتثال لتنسيق تسمية Azure الذكاء الاصطناعي Services ومواءمته مع الموارد ذات الصلة.

الخطورة: منخفض

يجب استخدام تصفية المحتوى على النموذج المنشور في Microsoft Foundry (معاينة)

وصف: حدد Defender for Cloud تعطيل تصفية المحتوى في النموذج المنشور في Microsoft Foundry. وهذا يشكل خطرا كبيرا على نموذج الذكاء الاصطناعي لأنه قد يسمح بمعالجة المحتوى غير المناسب أو الضار وإنشاءه بواسطة النموذج. بدون تصفية المحتوى، يكون النموذج عرضة لتوليد مخرجات قد تكون مسيئة أو مضللة أو ضارة، والتي يمكن أن تؤدي إلى تلف السمعة والمسؤوليات القانونية وفقدان ثقة المستخدم. من الضروري تمكين تصفية المحتوى لضمان التزام نموذج الذكاء الاصطناعي بالمعايير الأخلاقية وإنتاج مخرجات آمنة وموثوقة.

الخطورة: منخفض

يجب تمكين سجلات التشخيص في موارد خدمات Azure الذكاء الاصطناعي

وصف: تمكين السجلات لموارد خدمات الذكاء الاصطناعي Azure. يمكنك هذا من إعادة إنشاء مسارات النشاط لأغراض التحقيق، عند حدوث حادث أمان أو اختراق شبكتك.

تحل هذه التوصية محل سجلات تشخيص التوصية القديمة في خدمة البحث يجب تمكينها. كان سابقا في فئة الخدمات المعرفية والبحث المعرفي، وتم تحديثه للامتثال لتنسيق تسمية Azure الذكاء الاصطناعي Services ومواءمته مع الموارد ذات الصلة.

الخطورة: منخفض

توصيات الذكاء الاصطناعي AWS

يجب تكوين عامل الذكاء الاصطناعي AWS Bedrock مع إرشادات تشغيلية (معاينة)

وصف: قد يتصرف وكلاء الذكاء الاصطناعي AWS Bedrock الذين لم يتم تكوينهم بتعليمات تشغيلية واضحة بشكل غير متوقع أو غير متناسق. بدون إرشادات محددة، يمكن لهذا العامل الوصول إلى البيانات أو معالجتها أو كشفها عن غير قصد، أو الاستجابة للمطالبات بشكل غير مناسب، أو عدم الامتثال لمتطلبات الأمان والتوافق التنظيمية. يزيد هذا النقص في التحكم من خطر تسرب البيانات والإجراءات غير المصرح بها وعدم التوافق مع سياسات حوكمة المؤسسة.

الخطورة: متوسط

يجب على وكلاء AWS Bedrock استخدام حواجز الحماية عند السماح بالوصول إلى تطبيقات الذكاء الاصطناعي التوليدية

وصف: تعزز حواجز حماية Amazon Bedrock سلامة تطبيقات الذكاء الاصطناعي التوليدية من خلال تقييم كل من مدخلات المستخدم والاستجابات التي تم إنشاؤها بواسطة النموذج. تتضمن حواجز الحماية هذه عوامل تصفية المحتوى، والتي تساعد في الكشف عن المحتوى الضار وتصفيته. على وجه التحديد، فئة "الهجمات الفورية" التي تتضمن ضمانات على مطالبات المستخدم لمنع اختراق الحماية وحقن المطالبة. تعرف على المزيد في: عوامل تصفية المحتوى - Amazon Bedrock.

الخطورة: متوسط

وصف: تتيح لك نقطة نهاية Amazon Bedrock VPC المشغلة بواسطة AWS PrivateLink تأسيس اتصال خاص بين VPC في حسابك وحساب خدمة Amazon Bedrock. يتيح AWS PrivateLink لمثيلات VPC الاتصال بموارد خدمة Bedrock، دون الحاجة إلى عناوين IP العامة، ما يقلل من المخاطر المرتبطة بعرض البيانات على الإنترنت العام وبالتالي المساعدة في متطلبات التوافق الخاصة بك.

الخطورة: متوسط

يجب أن يكون لدى AWS Bedrock تسجيل استدعاء النموذج ممكن

الوصف: باستخدام تسجيل الاستدعاء، يمكنك جمع بيانات الطلب الكاملة وبيانات الاستجابة وبيانات التعريف المقترنة بجميع المكالمات التي تم إجراؤها في حسابك. يتيح لك ذلك إعادة إنشاء مسارات الأنشطة لأغراض التحقيق في حالة حدوث حادث أمني.

الخطورة: منخفض

توصيات الذكاء الاصطناعي GCP

يجب استخدام نقطة نهاية الخدمة الخاصة لنقاط نهاية Vertex AI Online

وصف: حدد Defender for Cloud أن نقطة نهاية الخدمة الخاصة لم يتم تكوينها على نقاط نهاية Vertex الذكاء الاصطناعي Online.

تفرض اتصالات نقطة النهاية الخاصة اتصالا آمنا عن طريق تمكين الاتصال الخاص بنقطة نهاية التنبؤات عبر الإنترنت. تكوين اتصال نقطة نهاية خاصة لتمكين الوصول إلى نسبة استخدام الشبكة القادمة من الشبكات المعروفة فقط ومنع الوصول من جميع عناوين IP الأخرى.

الخطورة: متوسط

يجب تعطيل عناوين IP العامة على مثيلات Workbench

وصف: حدد Defender for Cloud أنه تم تكوين عناوين IP الخارجية على مثيل GCP Workbench.

لتقليل سطح الهجوم، لا يجب أن تحتوي مثيلات Workbench على عناوين IP عامة. بدلا من ذلك، يجب تكوين المثيلات خلف موازنات التحميل لتقليل تعرض المثيل للإنترنت

الخطورة: متوسط

يجب تعطيل الوصول الجذر على مثيلات Workbench

وصف: حدد Defender for Cloud أن الوصول الجذر غير معطل على مثيل GCP Workbench.

لتقليل مخاطر تلف النظام العرضي أو الضار، من الضروري تعطيل الوصول الجذر على مثيلات دفتر ملاحظات Google Cloud Vertex الذكاء الاصطناعي. يحد هذا الإجراء من الامتيازات الإدارية داخل المثيلات، ما يضمن بيئة أكثر أمانا.

الخطورة: متوسط

يجب استخدام مراقبة السحابة على مثيل GCP Workbench

وصف: حدد Defender for Cloud أن Cloud Monitoring غير ممكن على مثيل GCP Workbench.

يعد تمكين مراقبة السحابة لمثيلات دفتر ملاحظات Google Cloud Vertex AI أمرا ضروريا لتتبع مقاييس الأداء، والكشف عن المشكلات في وقت مبكر، وضمان التشغيل الأمثل من خلال المراقبة والتنبيهات الاستباقية

الخطورة: منخفض

يجب تمكين إيقاف التشغيل الخامل على مثيلات Workbench

وصف: حدد Defender for Cloud أن إيقاف التشغيل الخامل لم يتم تكوينه على مثيل GCP Workbench.

لتحسين التكاليف وتحسين الأمان، تأكد من تمكين ميزة إيقاف التشغيل الخمول لمثيلات دفتر ملاحظات Google Cloud Vertex الذكاء الاصطناعي.

الخطورة: منخفض

[تمكين إذا لزم الأمر] يجب استخدام المفاتيح التي يديرها العميل لتشفير البيانات الثابتة في Vertex AI DataSets

وصف: حدد Defender for Cloud أن المفاتيح التي يديرها العميل لا يتم استخدامها على Vertex الذكاء الاصطناعي DataSets.

يوفر استخدام المفاتيح التي يديرها العميل لتشفير البيانات الثابتة مزيدا من التحكم في دورة حياة المفتاح، بما في ذلك التدوير والإدارة. وهذا أمر ذو صلة خاصة بالمنظمات ذات متطلبات الامتثال ذات الصلة.

باستخدام المفاتيح التي يديرها العميل، يمكنك التأكد من تشفير بياناتك بالمفاتيح التي تتحكم فيها، مما يمنحك القدرة على إدارة هذه المفاتيح وتدويرها حسب الحاجة. يمكن أن يساعد عنصر التحكم الإضافي هذا في تلبية متطلبات التوافق وتحسين أمان بياناتك.

الخطورة: منخفض