فهم المخاطر والمسؤوليات في بيئات تطوير الذكاء الاصطناعي
يستخدم المطورون بشكل متزايد أدوات مثل Copilot Studio وخدمات الذكاء الاصطناعي Azure وCopilot في Fabric والتطبيقات المسجلة في Microsoft Entra. تفتح هذه البيئات إمكانات جديدة ولكنها تخلق أيضا مخاطر تتعلق بالأمان والتوافق إذا لم يتم تطبيق الضمانات. من الوصول إلى البيانات غير الآمن إلى استجابات الذكاء الاصطناعي غير الخاضعة للرقابة، يمكن أن يؤدي وكيل أو مطالبة واحدة تم تكوينها بشكل خاطئ إلى التعرض للبيانات الحساسة أو الانتهاكات التنظيمية.
يمكن لوكلاء الذكاء الاصطناعي والتطبيقات التي تم إنشاؤها في بيئات التطوير استيعاب المعلومات الحساسة وإنشائها ومشاركتها بناء على مدخلات المستخدم ومصادر بيانات الواجهة الخلفية. هناك عدة عوامل تجعل هذه البيئات محفوفة بالمخاطر بشكل فريد:
- يمكن أن تستغل هجمات الحقن الفوري المدخلات غير المصفاة لمعالجة سلوك الوكيل.
- قد يصل وكلاء الذكاء الاصطناعي إلى البيانات التي لا ينبغي لهم إعادتها ، خاصة إذا كانت أذوناتهم واسعة جدا.
- قد تفتقر الملفات المستخدمة في التطوير إلى تسميات الحساسية أو التشفير ، مما يجعلها غير محمية.
- قد تقع التطبيقات المخصصة المسجلة من خلال معرف Microsoft Entra أو المنشورة باستخدام خدمات الذكاء الاصطناعي Azure خارج نطاق رؤية أدوات الأمان التقليدية إذا لم يتم إلحاقها ب Microsoft Purview.
تتضمن هذه البيئات أي أدوات أو أنظمة أساسية يقوم فيها المطورون أو المنشئون بإنشاء تطبيقات مدعومة بنظام الذكاء الاصطناعي أو تكوينها أو توسيعها، سواء من خلال التعليمات البرمجية المنخفضة أو التعليمات البرمجية المخصصة أو واجهات مسجلة في Microsoft Entra.
افهم التحدي
غالبا ما تخلق وتيرة ومرونة تطوير الذكاء الاصطناعي فجوات في الرؤية والتحكم. على عكس الأنظمة التقليدية التي تديرها تكنولوجيا المعلومات، تعمل هذه الأدوات في الأنظمة الأساسية اللامركزية أو منخفضة التعليمات البرمجية حيث لا يتم تطبيق الضمانات باستمرار. وهذا يطرح مخاطر ليس فقط أثناء النشر ولكن أيضا في التطوير والاختبار المبكرين.
وضع ضمانات عبر بيئات التنمية
لتقليل هذه المخاطر ، يجب على المؤسسات اتخاذ هذه الإجراءات عبر بيئات تطوير الذكاء الاصطناعي:
- اكتشف التطبيقات والوكلاء لتحديد البيانات التي يصلون إليها
- تطبيق أوصاف الحساسية ونهج DLP بحيث تتم حماية الملفات الحساسة والتفاعلات غير الآمنة
- اكتشاف السلوك المحفوف بالمخاطر مثل سوء الاستخدام الفوري أو الوصول غير المصرح به باستخدام تحليلات Purview
- الحفاظ على التفاعلات مع الاستبقاء والتدقيق وeDiscovery والتحقيق فيها لتلبية احتياجات التوافق
استخدام Microsoft Purview لتطبيق الحماية
بمجرد تحديد المخاطر، يوفر Microsoft Purview الأدوات اللازمة لتطبيق ضمانات متسقة عبر بيئات التطوير. يوفر DSPM for الذكاء الاصطناعي رؤية للتطبيقات والوكلاء النشطين ، أثناء التدقيق واكتشاف المخاطر والتفاعلات والالتقاط وإساءة الاستخدام المحتملة. لحماية المحتوى الحساس، يمكن للمسؤولين تطبيق أوصاف الحساسيةونهج منع فقدان البيانات. تحتفظ نهج الاستبقاء ببيانات المطالبة والاستجابة للامتثال، بينما يدعم eDiscovery البحث عن تلك البيانات والتحقيق فيها عند الحاجة.
دعم التطوير الآمن دون إبطاء الابتكار
تتيح هذه الأدوات للمؤسسات تطبيق ضمانات متسقة عبر بيئات تطوير الذكاء الاصطناعي. من خلال التركيز على الرؤية والحماية والكشف والامتثال، يمكن للمؤسسات دعم التطوير الآمن دون إبطاء الابتكار.