ما هو الذكاء الاصطناعي المسؤول؟

ينطبق على:ملحق ML Azure CLI v2 (الحالي)Python SDK azure-ai-ml v2 (الحالي)

الذكاء الاصطناعي المسؤول (الذكاء الاصطناعي المسؤول) هو نهج لتطوير وتقييم ونشر أنظمة الذكاء الاصطناعي بطريقة آمنة وجديرة بالثقة وأخلاقية. أنظمة الذكاء الاصطناعي هي نتاج العديد من القرارات التي يتخذها أولئك الذين يطورونها وينشرونها. من أغراض النظام إلى كيفية تفاعل الأشخاص مع أنظمة الذكاء الاصطناعي، يمكن أن تساعد الذكاء الاصطناعي المسؤولة على توجيه هذه القرارات بشكل استباقي نحو نتائج أكثر فائدة وإنصافًا. وهذا يعني إبقاء الأشخاص وأهدافهم في قلب قرارات تصميم النظام واحترام القيم الثابتة مثل الإنصاف والموثوقية والشفافية.

قامت Microsoft بتطوير معيار الذكاء الاصطناعي مسؤول. إنه إطار عمل لبناء أنظمة الذكاء الاصطناعي وفقًا لستة مبادئ: الإنصاف والموثوقية والسلامة والخصوصية والأمان والشمولية والشفافية والمساءلة. بالنسبة إلى Microsoft، تُعد هذه المبادئ بالنسبة لنا حجر الزاوية لنهج مسؤول وجدير بالثقة للذكاء الاصطناعي، خاصة وأن التكنولوجيا الذكية أصبحت أكثر انتشارًا في المنتجات والخدمات التي يستخدمها الناس كل يوم.

توضح هذه المقالة كيف يدعم التعلم الآلي من Microsoft Azure أدوات لتمكين المطورين وعلماء البيانات من تنفيذ المبادئ الستة وتشغيلها.

 Diagram of the six principles of Microsoft Responsible AI, which encompass fairness, reliability and safety, privacy and security, inclusiveness, transparency, and accountability.

الإنصاف والشمولية

ينبغي أن تعامل أنظمة الذكاء الاصطناعي الجميع بشكل عادل وأن تتجنب التأثير على مجموعات من الأشخاص ذوي الأوضاع المتشابهة بطرق مختلفة. على سبيل المثال، عندما تقدم أنظمة الذكاء الاصطناعي إرشادات بشأن العلاج الطبي أو طلبات القروض أو التوظيف، ينبغي أن تقدم التوصيات نفسها إلى كل شخص له أعراض مشابهة أو ظروف مالية أو مؤهلات مهنية.

الإنصاف والشمولية في التعلم الآلي لـ Azure: يتيح مكون تقييم الإنصاف في لوحة معلومات الذكاء الاصطناعي المسؤولة لعلماء البيانات والمطورين تقييم إنصاف النموذج عبر المجموعات الحساسة المحددة من حيث الجنس والعرق والعمر وخصائص أخرى.

الموثوقية والسلامة

لبناء الثقة، من الأهمية بمكان أن تعمل أنظمة الذكاء الاصطناعي بشكل موثوق وآمن ومتسق. وينبغي أن تكون هذه النظم قادرة على العمل كما صُممت أصلا، والاستجابة بأمان للظروف غير المتوقعة، ومقاومة التلاعب الضار. وتعكس الطريقة التي يتصرفون بها وتنوع الظروف التي يمكنهم التعامل مع مجموعة المواقف والظروف التي يتوقعها المطورون في أثناء التصميم والاختبار.

الموثوقية والسلامة في التعلم الآلي من Azure: يمكن مكون تحليل الأخطاء في لوحة معلومات الذكاء الاصطناعي المسؤول علماء البيانات والمطورين من:

  • احصل على فهم عميق لكيفية توزيع الفشل للنموذج.
  • تحديد مجموعات (مجموعات فرعية) من البيانات بمعدل خطأ أعلى من المعيار العام.

قد تحدث هذه التناقضات عندما يكون أداء النظام أو النموذج ضعيفا لمجموعات ديموغرافية محددة أو ظروف الإدخال التي لوحظت بشكل غير متكرر في بيانات التدريب.

Transparency

عندما تساعد أنظمة الذكاء الاصطناعي في اتخاذ القرارات التي لها تأثيرات هائل على حياة الناس، فمن الأهمية بمكان أن يفهم الناس كيفية اتخاذ هذه القرارات. على سبيل المثال، قد يستخدم البنك نظام الذكاء الاصطناعي لتحديد ما إذا كان الشخص يتمتع بالجدارة الائتمانية. قد تستخدم الشركة نظام الذكاء الاصطناعي لتحديد المرشحين الأكثر تأهيلًا للتوظيف.

جزء أساسي من الشفافية هو قابلية التفسير: التفسير المفيد لسلوك أنظمة الذكاء الاصطناعي ومكوناتها. يتطلب تحسين قابلية التفسير من أصحاب المصلحة فهم كيفية وسبب عمل أنظمة الذكاء الاصطناعي بالطريقة التي تعمل بها. يمكن للمساهمين بعد ذلك تحديد مشكلات الأداء المحتملة أو مشكلات الإنصاف أو الممارسات الاستبعادية أو النتائج غير المقصودة.

الشفافية في التعلم الآلي من Microsoft Azure: تتيح القابلية للتفسير النموذجي ومكونات ماذا-لو الواقعية في لوحة معلومات الذكاء الاصطناعي المسؤولة لعلماء البيانات والمطورين إنشاء أوصاف مفهومة من قبل الإنسان لتنبؤات النموذج.

يوفر مكون قابلية تفسير النموذج طرق عرض متعددة في سلوك النموذج:

  • تفسيرات عالمية. على سبيل المثال، ما الميزات التي تؤثر على السلوك العام لنموذج تخصيص القرض؟
  • تفسيرات محلية. على سبيل المثال، لماذا تمت الموافقة على طلب قرض العميل أو رفضه؟
  • تفسيرات نموذجية لمجموعة مختارة من نقاط البيانات. على سبيل المثال، ما الميزات التي تؤثر على السلوك العام لنموذج تخصيص القروض للمتقدمين ذوي الدخل المنخفض؟

يتيح مكون ماذا لو غير النشط فهم نموذج التعلم الآلي وتصحيحه من حيث كيفية تفاعله مع تغييرات الميزات والتعطيلات.

يدعم التعلم الآلي من Microsoft Azure أيضًا بطاقة أداء الذكاء الاصطناعي مسؤولة. بطاقة الأداء هي تقرير PDF قابل للتخصيص يمكن للمطورين تكوينه وإنشاءه وتنزيله ومشاركته بسهولة مع أصحاب المصلحة التقنيين وغير التقنيين لتثقيفهم حول مجموعات البيانات والنماذج الخاصة بهم، وتحقيق التوافق، وبناء الثقة. يمكن أيضًا استخدام بطاقة قياس الأداء هذه في مراجعات التدقيق للكشف عن خصائص نماذج التعلم الآلي.

الخصوصية والأمان

مع تزايد انتشار الذكاء الاصطناعي، أصبحت حماية الخصوصية وتأمين المعلومات الشخصية والتجارية الأكثر أهمية وتعقيدًا. مع الذكاء الاصطناعي، تتطلب الخصوصية وأمن البيانات اهتماماً وثيقاً لأن الوصول إلى البيانات ضروري لأنظمة الذكاء الاصطناعي لإجراء تنبؤات وقرارات دقيقة ومُطلعة بشأن الأشخاص. يجب أن تتوافق أنظمة الذكاء الاصطناعي مع قوانين الخصوصية التي:

  • يتطلب شفافية حول جمع البيانات واستخدامها وتخزينها.
  • تفويض أن يكون لدى المستهلكين ضوابط مناسبة لاختيار كيفية استخدام بياناتهم.

الخصوصية والأمان في التعلم الآلي من Azure: يتيح التعلم الآلي من Azure للمسؤولين والمطورين إنشاء تكوين آمن يتوافق مع نهج شركاتهم. باستخدام التعلم الآلي من Microsoft Azure والنظام الأساسي Azure، يمكنك للمستخدمين:

  • قم بتقييد الوصول إلى الموارد والعمليات عن طريق حساب المستخدم أو المجموعات.
  • قم بتقييد اتصالات الشبكة الواردة والصادرة.
  • قم بتشفير البيانات في أثناء النقل والراحة.
  • المسح بحثًا عن الثغرات الأمنية.
  • قم بتطبيق وتدقيق سياسات التكوين.

أنشأت Microsoft أيضا حزمتين مفتوحتي المصدر يمكنهما تمكين المزيد من تنفيذ مبادئ الخصوصية والأمان:

  • SmartNoise: الخصوصية التفاضلية هي مجموعة من الأنظمة والممارسات التي تساعد في الحفاظ على بيانات الأفراد آمنة وخصوصية. في حلول التعلم الآلي، قد تكون الخصوصية التفاضلية مطلوبة للامتثال التنظيمي. SmartNoise هو مشروع مفتوح المصدر (تم تطويره بشكل مشترك من قبل Microsoft) يحتوي على مكونات لبناء أنظمة خاصة تفاضلية عالمية.

  • Counterfit: Counterfit هو مشروع مفتوح المصدر يشتمل على أداة سطر أوامر وطبقة أتمتة عامة للسماح للمطورين بمحاكاة الهجمات الإلكترونية ضد أنظمة الذكاء الاصطناعي. يمكن لأي شخص تنزيل الأداة وتوزيعها من خلال Azure Cloud Shell، للتشغيل في المستعرض، أو توزيعها محليًا في بيئة Anaconda Python. يمكنه تقييم النماذج الذكاء الاصطناعي المستضافة في بيئات سحابية مختلفة أو في أماكن العمل أو في الحافة. الأداة غير محددة لنماذج الذكاء الاصطناعي وتدعم أنواع البيانات المختلفة، بما في ذلك النصوص أو الصور أو الإدخال العام.

المساءله

يجب أن يكون الأشخاص الذين يصممون ويستخدمون أنظمة الذكاء الاصطناعي مسؤولين عن كيفية تشغيل أنظمتهم. وينبغي أن تعتمد المؤسسات على معايير الصناعة لوضع قواعد للمساءلة. يمكن أن تضمن هذه المعايير أن أنظمة الذكاء الاصطناعي ليست هي السلطة النهائية في أي قرار يؤثر على حياة الناس. يمكنهم أيضًا ضمان أن يحافظ البشر على سيطرة ذات مغزى على أنظمة الذكاء الاصطناعي مستقلة للغاية.

المساءلة في التعلم الآلي من Microsoft Azure: تستند عمليات التعلم الآلي (MLOps) إلى مبادئ وممارسات DevOps التي تزيد من كفاءة مهام سير عمل الذكاء الاصطناعي. يوفر التعلم الآلي من Microsoft Azure إمكانات MLOps التالية للمساءلة بشكل أفضل عن أنظمة الذكاء الاصطناعي الخاصة بك:

  • تسجيل وتعبئة ونشر نماذج من أي مكان. يمكنك أيضًا تتبع بيانات التعريف المرتبطة المطلوبة لاستخدام النموذج.
  • التقاط بيانات الإدارة لدورة حياة التعلم الآلي الشاملة. يمكن أن تتضمن معلومات النسب المسجلة من يقوم بنشر النماذج، ولماذا تم إجراء التغييرات، ومتى تم نشر النماذج أو استخدامها في الإنتاج.
  • الإعلام والتنبيه بشأن الأحداث في دورة حياة التعلم الآلي. تشمل الأمثلة إكمال التجربة وتسجيل النموذج وتوزيع النموذج واكتشاف انحراف البيانات.
  • مراقبة التطبيقات للمشكلات التشغيلية والمشكلات المتعلقة بالتعلم الآلي. قارن مدخلات النموذج بين التدريب والاستدلال، واستكشف المقاييس الخاصة بالنموذج، واوفر المراقبة والتنبيهات على البنية التحتية للتعلم الآلي.

بالإضافة إلى قدرات MLOps، فإن بطاقة الأداء الذكاء الاصطناعي المسؤولة في التعلم الآلي من Microsoft Azure تنشئ المساءلة من خلال تمكين الاتصالات بين أصحاب المصلحة. تنشئ بطاقة قياس الأداء أيضًا المساءلة من خلال تمكين المطورين من تكوين، وتنزيل، ومشاركة رؤى الصحة النموذجية الخاصة بهم مع أصحاب المصلحة التقنيين وغير التقنيين حول بيانات الذكاء الاصطناعي وصحة النموذج. يمكن أن تساعد مشاركة هذه الرؤى في بناء الثقة.

كما تمكن منصة التعلم الآلي من اتخاذ القرارات من خلال إبلاغ قرارات الأعمال من خلال:

الخطوات التالية