إشعار
يتطلب الوصول إلى هذه الصفحة تخويلاً. يمكنك محاولة تسجيل الدخول أو تغيير الدلائل.
يتطلب الوصول إلى هذه الصفحة تخويلاً. يمكنك محاولة تغيير الدلائل.
ينطبق على:
ملحق ML Azure CLI v2 (الحالي)
Python SDK azure-ai-ml v2 (الحالي)
الذكاء الاصطناعي المسؤول (الذكاء الذكاء الاصطناعي المسؤول) هو نهج لتطوير أنظمة الذكاء الاصطناعي وتقييمها ونشرها بأمان وأخلاقية وثقة. تنتج أنظمة الذكاء الاصطناعي عن العديد من القرارات التي يتخذها منشئوها. يساعد الذكاء الاصطناعي المسؤول في توجيه هذه القرارات - من تحديد الغرض من النظام إلى تفاعل المستخدم - نحو نتائج أكثر فائدة وإنصافا. إنه يحافظ على الأشخاص وأهدافهم في قلب التصميم ويحترم قيما مثل الإنصاف والموثوقية والشفافية.
أنشأت Microsoft معيار الذكاء الاصطناعي المسؤول ، وهو إطار عمل لبناء أنظمة الذكاء الاصطناعي بناء على ستة مبادئ: الإنصاف والموثوقية والسلامة والخصوصية والأمان والشمولية والشفافية والمساءلة. هذه المبادئ هي أساس نهج مسؤول وجدير بالثقة تجاه الذكاء الاصطناعي ، خاصة وأن التكنولوجيا الذكية أصبحت أكثر شيوعا في المنتجات والخدمات اليومية.
توضح هذه المقالة كيف يوفر التعلم الآلي من Microsoft Azure أدوات لمساعدة المطورين وعلماء البيانات على تنفيذ هذه المبادئ الستة وتشغيلها.
الإنصاف والشمولية
يجب أن تعامل أنظمة الذكاء الاصطناعي الجميع بشكل عادل وتجنب التأثير على المجموعات المتشابهة بشكل مختلف. على سبيل المثال ، عندما تقدم أنظمة الذكاء الاصطناعي إرشادات بشأن العلاج الطبي أو طلبات القروض أو التوظيف ، يجب أن تقدم نفس التوصيات للأشخاص الذين يعانون من أعراض أو ظروف مالية أو مؤهلات مماثلة.
الإنصاف والشمولية في التعلم الآلي من Microsoft Azure: يساعد مكون تقييم الإنصاف في لوحة معلومات الذكاء الاصطناعي المسؤول على تقييم عدالة النموذج عبر المجموعات الحساسة، مثل الجنس والعرق والعمر والخصائص الأخرى.
الموثوقية والسلامة
لبناء الثقة، يجب أن تعمل الأنظمة الذكاء الاصطناعي بشكل موثوق وآمن ومتناسق. يجب أن تعمل كما هو مصمم ، وتستجيب بأمان للظروف غير المتوقعة ، وتقاوم التلاعب الضار. يعكس سلوكهم وقدرتهم على التعامل مع الظروف المختلفة مجموعة المواقف التي توقعها المطورون أثناء التصميم والاختبار.
الموثوقية والأمان في التعلم الآلي من Microsoft Azure: يساعدك مكون تحليل الأخطاء في لوحة معلومات الذكاء الاصطناعي المسؤول على:
- احصل على فهم عميق لكيفية توزيع الفشل للنموذج.
- تحديد مجموعات (مجموعات فرعية) من البيانات بمعدل خطأ أعلى من المعيار العام.
يمكن أن تحدث هذه التناقضات عندما يكون أداء النظام أو النموذج ضعيفا لمجموعات ديموغرافية معينة أو لظروف الإدخال التي نادرا ما يتم ملاحظتها في بيانات التدريب.
شفافية
عندما تقوم أنظمة الذكاء الاصطناعي بإبلاغ القرارات التي تؤثر على حياة الناس ، فمن الأهمية بمكان أن يفهم الناس كيفية اتخاذ هذه القرارات. على سبيل المثال ، قد يستخدم البنك نظام الذكاء الاصطناعي لتحديد ما إذا كان الشخص جديرا بالائتمان ، أو قد تستخدم الشركة نظاما لاختيار المرشحين للوظائف.
جزء مهم من الشفافية هو قابلية التفسير: تقديم تفسيرات مفيدة لسلوك نظام الذكاء الاصطناعي. يساعد تحسين قابلية التفسير أصحاب المصلحة على فهم كيفية وسبب عمل أنظمة الذكاء الاصطناعي ، حتى يتمكنوا من تحديد مشكلات الأداء أو مخاوف الإنصاف أو الممارسات الإقصائية أو النتائج غير المقصودة.
الشفافية في التعلم الآلي من Microsoft Azure: تساعد قابلية تفسير النموذج ومكونات ماذا لو المضادة للواقع في لوحة معلومات الذكاء الاصطناعي المسؤولة في إنشاء أوصاف مفهومة من قبل الإنسان لتنبؤات النموذج.
يوفر مكون قابلية تفسير النموذج عدة طرق عرض لسلوك النموذج:
- تفسيرات عالمية. على سبيل المثال، ما الميزات التي تؤثر على السلوك العام لنموذج تخصيص القرض؟
- تفسيرات محلية. على سبيل المثال، لماذا تمت الموافقة على طلب قرض العميل أو رفضه؟
- تفسيرات نموذجية لمجموعة مختارة من نقاط البيانات. على سبيل المثال، ما الميزات التي تؤثر على السلوك العام لنموذج تخصيص القروض للمتقدمين ذوي الدخل المنخفض؟
يساعدك مكون ماذا لو المضاد للواقع على فهم نموذج التعلم الآلي وتصحيحه من خلال إظهار كيفية تفاعله مع تغييرات الميزات والاضطرابات.
يدعم التعلم الآلي من Microsoft Azure أيضًا بطاقة أداء الذكاء الاصطناعي مسؤولة. بطاقة الأداء عبارة عن تقرير PDF قابل للتخصيص يمكن للمطورين تكوينه وإنشائه وتنزيله ومشاركته مع أصحاب المصلحة التقنيين وغير التقنيين. يساعد في تثقيف أصحاب المصلحة حول مجموعة البيانات وصحة النموذج ، وتحقيق الامتثال ، وبناء الثقة. يمكن أن تدعم بطاقة الأداء أيضا مراجعات التدقيق من خلال الكشف عن خصائص نموذج التعلم الآلي.
الخصوصية والأمان
نظرا لأن الذكاء الاصطناعي أصبح أكثر شيوعا ، فإن حماية الخصوصية وتأمين المعلومات الشخصية والتجارية أصبحت أكثر أهمية وتعقيدا. تتطلب الخصوصية وأمن البيانات اهتماما وثيقا لأن أنظمة الذكاء الاصطناعي تحتاج إلى بيانات لإجراء تنبؤات وقرارات دقيقة. يجب أن تتوافق أنظمة الذكاء الاصطناعي مع قوانين الخصوصية التي:
- يتطلب شفافية حول جمع البيانات واستخدامها وتخزينها.
- تفويض أن يكون لدى المستهلكين ضوابط مناسبة لاختيار كيفية استخدام بياناتهم.
الخصوصية والأمان في التعلم الآلي من Microsoft Azure: يتيح التعلم الآلي من Microsoft Azure للمسؤولين والمطورين إنشاء تكوينات آمنة تتوافق مع نهج الشركة. باستخدام التعلم الآلي من Microsoft Azure والنظام الأساسي ل Azure، يمكنك:
- قم بتقييد الوصول إلى الموارد والعمليات عن طريق حساب المستخدم أو المجموعات.
- قم بتقييد اتصالات الشبكة الواردة والصادرة.
- قم بتشفير البيانات في أثناء النقل والراحة.
- المسح بحثًا عن الثغرات الأمنية.
- قم بتطبيق وتدقيق سياسات التكوين.
أنشأت Microsoft أيضا حزمتين مفتوحتين المصدر للمساعدة في تنفيذ مبادئ الخصوصية والأمان:
SmartNoise: الخصوصية التفاضلية هي مجموعة من الأنظمة والممارسات التي تساعد في الحفاظ على بيانات الأفراد آمنة وخصوصية. في حلول التعلم الآلي، قد تكون الخصوصية التفاضلية مطلوبة للامتثال التنظيمي. SmartNoise هو مشروع مفتوح المصدر (تم تطويره بشكل مشترك من قبل Microsoft) يحتوي على مكونات لبناء أنظمة خاصة تفاضلية عالمية.
Counterfit: Counterfit هو مشروع مفتوح المصدر يشتمل على أداة سطر أوامر وطبقة أتمتة عامة للسماح للمطورين بمحاكاة الهجمات الإلكترونية ضد أنظمة الذكاء الاصطناعي. يمكن لأي شخص تنزيل الأداة وتوزيعها من خلال Azure Cloud Shell، للتشغيل في المستعرض، أو توزيعها محليًا في بيئة Anaconda Python. يمكنه تقييم النماذج الذكاء الاصطناعي المستضافة في بيئات سحابية مختلفة أو في أماكن العمل أو في الحافة. الأداة غير محددة لنماذج الذكاء الاصطناعي وتدعم أنواع البيانات المختلفة، بما في ذلك النصوص أو الصور أو الإدخال العام.
المساءله
يجب أن يكون الأشخاص الذين يصممون وينشرون أنظمة الذكاء الاصطناعي مسؤولين عن كيفية عمل هذه الأنظمة. يجب على المنظمات استخدام معايير الصناعة لتطوير معايير المساءلة. تساعد هذه المعايير في ضمان أن أنظمة الذكاء الاصطناعي ليست السلطة النهائية في القرارات التي تؤثر على حياة الناس وأن البشر يحتفظون بسيطرة ذات مغزى على الأنظمة المستقلة للغاية.
المساءلة في التعلم الآلي من Microsoft Azure: تستند عمليات التعلم الآلي (MLOps) إلى مبادئ وممارسات DevOps التي تعمل على تحسين كفاءة سير عمل الذكاء الاصطناعي. يوفر التعلم الآلي من Microsoft Azure إمكانات MLOps هذه لتحسين المساءلة:
- تسجيل وتعبئة ونشر نماذج من أي مكان. يمكنك أيضًا تتبع بيانات التعريف المرتبطة المطلوبة لاستخدام النموذج.
- التقاط بيانات الإدارة لدورة حياة التعلم الآلي الشاملة. يمكن أن تتضمن معلومات النسب المسجلة من يقوم بنشر النماذج، ولماذا تم إجراء التغييرات، ومتى تم نشر النماذج أو استخدامها في الإنتاج.
- الإعلام والتنبيه بشأن الأحداث في دورة حياة التعلم الآلي. تشمل الأمثلة إكمال التجربة وتسجيل النموذج وتوزيع النموذج واكتشاف انحراف البيانات.
- مراقبة التطبيقات للمشكلات التشغيلية والمشكلات المتعلقة بالتعلم الآلي. قارن مدخلات النموذج بين التدريب والاستدلال، واستكشف المقاييس الخاصة بالنموذج، واوفر المراقبة والتنبيهات على البنية التحتية للتعلم الآلي.
بالإضافة إلى ذلك، تخلق بطاقة أداء الذكاء الاصطناعي المسؤول في التعلم الآلي من Microsoft Azure المساءلة من خلال تمكين التواصل بين أصحاب المصلحة. تمكن بطاقة الأداء المطورين من تكوين رؤى سلامة النموذج وتنزيلها ومشاركتها مع كل من أصحاب المصلحة التقنيين وغير التقنيين. تساعد مشاركة هذه الرؤى في بناء الثقة.
يدعم التعلم الآلي من Microsoft Azure أيضا عملية اتخاذ القرار من خلال إبلاغ قرارات العمل من خلال:
- الرؤى المستندة إلى البيانات، والتي تساعد أصحاب المصلحة على فهم تأثيرات المعالجة السببية على النتائج باستخدام البيانات التاريخية فقط. على سبيل المثال ، "كيف يمكن أن يؤثر الدواء على ضغط دم المريض؟" تأتي هذه الأفكار من مكون الاستدلال السببيللوحة معلومات الذكاء الاصطناعي المسؤول.
- الرؤى المستندة إلى النموذج، والتي تجيب على أسئلة المستخدم (مثل "ماذا يمكنني أن أفعل للحصول على نتيجة مختلفة عن الذكاء الاصطناعي الخاص بك في المرة القادمة؟") حتى يتمكنوا من اتخاذ الإجراء. يتم توفير هذه الرؤى من خلال مكون ماذا لو عكس الواقع في لوحة معلومات الذكاء الاصطناعي المسؤول.
الخطوات التالية
- لمزيد من المعلومات حول كيفية تنفيذ الذكاء الاصطناعي المسؤول في التعلم الآلي لـ Azure، راجع لوحة معلومات الذكاء الاصطناعي المسؤول.
- تعرف على كيفية إنشاء لوحة معلومات الذكاء الاصطناعي المسؤولة عبر CLI وSDK أو واجهة مستخدم استوديو التعلم الآلي من Microsoft Azure.
- تعرف على كيفية إنشاء بطاقة أداء مسؤولة للذكاء الاصطناعي استنادًا إلى التحليلات التي تمت ملاحظتها في لوحة معلومات الذكاء الاصطناعي المسؤولة.
- تعرف على معيار الذكاء الاصطناعي المسؤول لبناء أنظمة الذكاء الاصطناعي وفقا لستة مبادئ رئيسية.