ملاحظة
يتطلب الوصول إلى هذه الصفحة تخويلاً. يمكنك محاولة تسجيل الدخول أو تغيير الدلائل.
يتطلب الوصول إلى هذه الصفحة تخويلاً. يمكنك محاولة تغيير الدلائل.
توضح هذه المقالة الأساليب التي يمكنك استخدامها لترجمة النموذج في التعلم الآلي من Azure.
لماذا تعد قابلية تفسير النموذج مهمة لتصحيح أخطاء النموذج
عند استخدام نماذج التعلم الآلي بطرق تؤثر على حياة الأشخاص، من المهم للغاية فهم ما يؤثر على سلوك النماذج. تساعد قابلية التفسير على الإجابة عن الأسئلة في سيناريوهات مثل:
- تصحيح أخطاء النموذج: لماذا ارتكب نموذجي هذا الخطأ؟ كيف يمكنني تحسين نموذجي؟
- Human-AI التعاون: كيف يمكنني فهم قرارات النموذج والثقة بها؟
- الامتثال التنظيمي: هل يلبي نموذجي المتطلبات القانونية؟
يساهم مكون قابلية التفسير في لوحة معلومات الذكاء الاصطناعي المسؤولة في مرحلة "التشخيص" لسير عمل دورة حياة النموذج من خلال إنشاء أوصاف يمكن فهمها من قبل الإنسان للتنبؤات الخاصة بنموذج التعلم الآلي. يوفر طرق عرض متعددة في سلوك النموذج:
- التفسيرات العالمية: على سبيل المثال، ما هي الميزات التي تؤثر على السلوك العام لنموذج تخصيص القروض؟
- التفسيرات المحلية: على سبيل المثال، لماذا تمت الموافقة على طلب قرض العميل أو رفضه؟
يمكنك أيضا مراقبة تفسيرات النموذج لمجموعة محددة كم مجموعة فرعية من نقاط البيانات. يعد هذا النهج ذا قيمة عندما تقوم، على سبيل المثال، بتقييم الإنصاف في تنبؤات النموذج للأفراد في مجموعة ديموغرافية معينة. تمثل علامة التبويب التفسير المحلي لهذا المكون أيضا تصورا كاملا للبيانات، وهو أمر رائع لتبديل العين بشكل عام للبيانات والنظر إلى الاختلافات بين التنبؤات الصحيحة وغير الصحيحة لكل مجموعة.
يتم تأسيس قدرات هذا المكون بواسطة حزمة InterpretML ، والتي تنشئ تفسيرات النموذج.
استخدم قابلية التفسير عندما تحتاج إلى:
- حدد مدى موثوقية تنبؤات نظام الذكاء الاصطناعي من خلال فهم الميزات الأكثر أهمية للتنبؤات.
- تعامل مع تصحيح أخطاء النموذج الخاص بك من خلال فهمه أولا وتحديد ما إذا كان النموذج يستخدم ميزات سليمة أو مجرد ارتباطات خاطئة.
- كشف المصادر المحتملة للظلم من خلال فهم ما إذا كان النموذج يستند إلى تنبؤات على ميزات حساسة أو على ميزات ترتبط ارتباطا وثيقا بها.
- بناء ثقة المستخدم في قرارات النموذج الخاص بك من خلال إنشاء تفسيرات محلية لتوضيح نتائجها.
- أكمل تدقيقا تنظيميا لنظام الذكاء الاصطناعي للتحقق من صحة النماذج ومراقبة تأثير قرارات النموذج على البشر.
كيفية تفسير النموذج الخاص بك
في التعلم الآلي، الميزات هي حقول البيانات التي تستخدمها للتنبؤ بنقطة بيانات الهدف. على سبيل المثال، للتنبؤ بمخاطر الائتمان، يمكنك استخدام حقول البيانات للعمر وحجم الحساب وعمر الحساب. هنا، العمر وحجم الحساب وعمر الحساب هي ميزات. تخبرك أهمية الميزة كيف يؤثر كل حقل بيانات على تنبؤات النموذج. على سبيل المثال، على الرغم من أنك قد تستخدم العمر بشكل كبير في التنبؤ، فقد لا يؤثر حجم الحساب وعمر الحساب على قيم التنبؤ بشكل كبير. من خلال هذه العملية، يمكن لعلماء البيانات شرح التنبؤات الناتجة بطرق تمنح أصحاب المصلحة رؤية لأهم ميزات النموذج.
باستخدام الفئات والأساليب في لوحة معلومات الذكاء الاصطناعي المسؤول وباستخدام SDK v2 وCLI v2، يمكنك:
- شرح توقع النموذج عن طريق إنشاء قيم أهمية الميزات للنموذج بأكمله (شرح عمومي) أو نقاط البيانات الفردية (التفسير المحلي).
- تحقيق قابلية تفسير النموذج على مجموعات البيانات في العالم الحقيقي على نطاق واسع.
- استخدم لوحة معلومات مرئيات تفاعلية لاكتشاف الأنماط في بياناتك وتفسيراتها في وقت التدريب.
تقنيات قابلية تفسير النموذج المدعومة
تستخدم لوحة معلومات الذكاء الاصطناعي المسؤول تقنيات قابلية التفسير التي تم تطويرها في مجتمع التفسير، وهي حزمة Python مفتوحة المصدر لتدريب النماذج القابلة للتفسير والمساعدة في شرح أنظمة الذكاء الاصطناعي المبهمة. النماذج المبهمة هي تلك التي ليس لدينا معلومات حول أعمالها الداخلية.
يعمل Interpret-Community كمضيف للمفسرين المعتمدين التاليين، ويدعم حاليا تقنيات قابلية التفسير المعروضة في الأقسام التالية.
مدعوم في لوحة معلومات الذكاء الاصطناعي المسؤولة في Python SDK v2 وCLI v2
تقنية قابلية التفسير | الوصف | النوع |
---|---|---|
محاكاة المفسر (البديل العمومي) + شجرة SHAP | يعتمد Mimic Explainer على فكرة تدريب النماذج البديلة العالمية لمحاكاة النماذج المبهمة. النموذج البديل العالمي هو نموذج قابل للتفسير جوهريا يتم تدريبه على تقريب تنبؤات أي نموذج مبهم بأكبر قدر ممكن من الدقة. يمكن لعلماء البيانات تفسير النموذج البديل لاستخلاص استنتاجات حول النموذج المبهم. تستخدم لوحة معلومات الذكاء الاصطناعي المسؤولة LightGBM (LGBMExplainableModel)، مقترنة بمفسر شجرة SHAP (SHapley Additive exPlanations)، وهو مفسر محدد للأشجار ومجموعات الأشجار. يوفر الجمع بين LightGBM وشجرة SHAP تفسيرات عالمية ومحلية لنماذج التعلم الآلي الخاصة بك. |
غير محدد للنموذج |
تقنيات قابلية تفسير النموذج المدعومة لنماذج النص
تقنية قابلية التفسير | الوصف | النوع | مهمة نصية |
---|---|---|---|
نص SHAP | SHAP (المخططات المضافة SHapley) هي طريقة شرح شائعة للشبكات العصبية العميقة التي توفر رؤى حول مساهمة كل ميزة إدخال في تنبؤ معين. وهو يستند إلى مفهوم قيم Shapley، وهو أسلوب لتعيين الائتمان للاعبين الفرديين في لعبة تعاونية. يطبق SHAP هذا المفهوم على ميزات الإدخال للشبكة العصبية من خلال حساب متوسط مساهمة كل ميزة في إخراج النموذج عبر جميع مجموعات الميزات الممكنة. بالنسبة للنص على وجه التحديد، يقسم SHAP على الكلمات بطريقة هرمية، ويعامل كل كلمة أو رمز مميز كميزة. ينتج عن هذا مجموعة من قيم الإسناد التي تحدد أهمية كل كلمة أو رمز مميز للتنبؤ المحدد. يتم إنشاء خريطة الإسناد النهائية عن طريق تصور هذه القيم كخريطة التمثيل اللوني عبر مستند النص الأصلي. SHAP هو أسلوب غير محدد للنموذج ويمكن استخدامه لشرح مجموعة واسعة من نماذج التعلم العميق، بما في ذلك شبكات CNN وRNNs والمحولات. بالإضافة إلى ذلك، يوفر العديد من الخصائص المرغوب فيها، مثل الاتساق والدقة والإنصاف، ما يجعله تقنية موثوقة وقابلة للتفسير لفهم عملية صنع القرار للنموذج. | نموذج غير محدد | تصنيف متعدد الفئات للنص، تصنيف متعدد التسميات للنص |
تقنيات قابلية تفسير النموذج المدعومة لنماذج الصور
تقنية قابلية التفسير | الوصف | النوع | مهمة الرؤية |
---|---|---|---|
رؤية SHAP | SHAP (المخططات المضافة SHapley) هي طريقة شرح شائعة للشبكات العصبية العميقة التي توفر رؤى حول مساهمة كل ميزة إدخال في تنبؤ معين. وهو يستند إلى مفهوم قيم Shapley، وهو أسلوب لتعيين الائتمان للاعبين الفرديين في لعبة تعاونية. يطبق SHAP هذا المفهوم على ميزات الإدخال للشبكة العصبية من خلال حساب متوسط مساهمة كل ميزة في إخراج النموذج عبر جميع مجموعات الميزات الممكنة. للرؤية على وجه التحديد، ينقسم SHAP على الصورة بطريقة هرمية، ويتعامل مع مناطق الواجهة الفائقة للصورة على أنها كل ميزة. ينتج عن هذا مجموعة من قيم الإسناد التي تحدد أهمية كل حرف كبير أو منطقة صورة للتنبؤ المحدد. يتم إنشاء خريطة الإسناد النهائية عن طريق تصور هذه القيم كخريطة التمثيل اللوني. SHAP هو أسلوب غير محدد للنموذج ويمكن استخدامه لشرح مجموعة واسعة من نماذج التعلم العميق، بما في ذلك شبكات CNN وRNNs والمحولات. بالإضافة إلى ذلك، يوفر العديد من الخصائص المرغوب فيها، مثل الاتساق والدقة والإنصاف، ما يجعله تقنية موثوقة وقابلة للتفسير لفهم عملية صنع القرار للنموذج. | نموذج غير محدد | تصنيف متعدد الفئات للصور، تصنيف متعدد التسميات للصور |
Guided Backprop | Guided-backprop هو طريقة شرح شائعة للشبكات العصبية العميقة التي توفر رؤى حول التمثيلات المستفادة من النموذج. فإنه يولد تصورا لميزات الإدخال التي تعمل على تنشيط خلية عصبية معينة في النموذج، عن طريق حساب تدرج الإخراج فيما يتعلق بصورة الإدخال. على عكس الأساليب الأخرى المستندة إلى التدرج، يقوم guided-backprop فقط بالدعم من خلال التدرجات الإيجابية ويستخدم دالة تنشيط ReLU معدلة للتأكد من أن التدرجات السالبة لا تؤثر على المرئيات. يؤدي هذا إلى خريطة أكثر قابلية للتفسير وعالية الدقة تبرز أهم الميزات في صورة الإدخال للتنبؤ المحدد. يمكن استخدام Guided-backprop لشرح مجموعة واسعة من نماذج التعلم العميق، بما في ذلك الشبكات العصبية الالتفافية (CNNs)، والشبكات العصبية المتكررة (RNNs)، والمحولات. | AutoML | تصنيف متعدد الفئات للصور، تصنيف متعدد التسميات للصور |
gradCAM الموجه | GradCAM الإرشادي هو طريقة شرح شائعة للشبكات العصبية العميقة التي توفر رؤى حول التمثيلات المستفادة من النموذج. يقوم بإنشاء تصور لميزات الإدخال التي تساهم بشكل أكبر في فئة إخراج معينة، من خلال الجمع بين النهج المستند إلى التدرج للتبخير الخلفي الموجه مع نهج الترجمة ل GradCAM. على وجه التحديد، فإنه يحسب تدرجات فئة الإخراج فيما يتعلق بخرائط الميزات لآخر طبقة التفافية في الشبكة، ثم يرجح كل خريطة ميزة وفقا لأهمية تنشيطها لتلك الفئة. ينتج عن ذلك خريطة التمثيل اللوني عالية الدقة التي تسلط الضوء على المناطق الأكثر تميزا في صورة الإدخال لفئة الإخراج المحددة. يمكن استخدام GradCAM الموجهة لشرح مجموعة واسعة من نماذج التعلم العميق، بما في ذلك شبكات CNN وRNNs والمحولات. بالإضافة إلى ذلك، من خلال دمج backpropagation الموجه، فإنه يضمن أن تكون المرئيات ذات معنى وقابلة للتفسير، وتجنب التنشيطات الزائفة والمساهمات السلبية. | AutoML | تصنيف متعدد الفئات للصور، تصنيف متعدد التسميات للصور |
تدرجات متكاملة | التدرجات المتكاملة هي طريقة شرح شائعة للشبكات العصبية العميقة التي توفر رؤى حول مساهمة كل ميزة إدخال في تنبؤ معين. يحسب جزءا لا يتجزأ من تدرج فئة الإخراج فيما يتعلق بصورة الإدخال، على طول مسار مستقيم بين صورة الأساس وصورة الإدخال الفعلية. يتم اختيار هذا المسار عادة ليكون استنتاجا خطيا بين الصورتين، مع كون الخط الأساسي صورة محايدة لا تحتوي على ميزات البارزة. من خلال دمج التدرج على طول هذا المسار، توفر التدرجات المتكاملة مقياسا لكيفية مساهمة كل ميزة إدخال في التنبؤ، ما يسمح بإنشاء خريطة إسناد. تسلط هذه الخريطة الضوء على ميزات الإدخال الأكثر تأثيرا، ويمكن استخدامها للحصول على رؤى حول عملية صنع القرار في النموذج. يمكن استخدام التدرجات المتكاملة لشرح مجموعة واسعة من نماذج التعلم العميق، بما في ذلك شبكات CNN وRNNs والمحولات. بالإضافة إلى ذلك، إنها تقنية نظرية تقوم على استيفاء مجموعة من الخصائص المرغوب فيها، مثل الحساسية، وتباين التنفيذ، والاكتمال. | AutoML | تصنيف متعدد الفئات للصور، تصنيف متعدد التسميات للصور |
XRAI | XRAI هو أسلوب جديد قائم على المنطقة يعتمد على التدرجات المتكاملة (IG). فهو يفرط في تقسيم الصورة ويختبر بشكل متكرر أهمية كل منطقة، ويدمج المناطق الأصغر في شرائح أكبر استنادا إلى درجات الإسناد. ينتج عن هذه الاستراتيجية جودة عالية، ومناطق ذات حدود ضيقة تتفوق على تقنيات الأداء الحالية. يمكن استخدام XRAI مع أي نموذج يستند إلى DNN طالما أن هناك طريقة لدمج ميزات الإدخال في مقاطع من خلال بعض مقياس التشابه. | AutoML | تصنيف متعدد الفئات للصور، تصنيف متعدد التسميات للصور |
D-RISE | D-RISE هو أسلوب غير محدد للنموذج لإنشاء تفسيرات مرئية للتنبؤات بنماذج الكشف عن الكائنات. من خلال محاسبة كل من جوانب الترجمة والتصنيف للكشف عن الكائنات، يمكن أن تنتج D-RISE خرائط متميزة تبرز أجزاء من الصورة التي تساهم أكثر في التنبؤ بالكاشف. على عكس الأساليب المستندة إلى التدرج، فإن D-RISE أكثر عمومية ولا يحتاج إلى الوصول إلى الأعمال الداخلية للكشف عن الكائنات؛ يتطلب الوصول إلى مدخلات ومخرجات النموذج فقط. يمكن تطبيق الأسلوب على أجهزة الكشف من مرحلة واحدة (على سبيل المثال، YOLOv3)، وأجهزة الكشف على مرحلتين (على سبيل المثال، Faster-RCNN)، ومحولات الرؤية (على سبيل المثال، DETR، OWL-ViT). يوفر D-Rise خريطة السمات من خلال إنشاء أقنعة عشوائية لصورة الإدخال وسيرسلها إلى كاشف الكائنات مع الأقنعة العشوائية لصورة الإدخال. من خلال تقييم تغيير درجة كاشف الكائنات، فإنه يجمع جميع الاكتشافات مع كل قناع وينتج خريطة نهائية للسمة. |
نموذج غير محدد | الكشف عن الكائنات |
الخطوات التالية
- تعرف على كيفية إنشاء لوحة معلومات الذكاء الاصطناعي المسؤولة عبر CLI v2 وSDK v2 أو واجهة مستخدم استوديو التعلم الآلي من Azure.
- استكشف مرئيات قابلية التفسير المدعومة للوحة معلومات الذكاء الاصطناعي المسؤول.
- تعرف على كيفية إنشاء بطاقة أداء مسؤول الذكاء الاصطناعي استنادا إلى الرؤى الملاحظة في لوحة معلومات الذكاء الاصطناعي المسؤول.