ملاحظة
يتطلب الوصول إلى هذه الصفحة تخويلاً. يمكنك محاولة تسجيل الدخول أو تغيير الدلائل.
يتطلب الوصول إلى هذه الصفحة تخويلاً. يمكنك محاولة تغيير الدلائل.
هام
اعتبارا من 20 سبتمبر 2023، لن تتمكن من إنشاء موارد Personalizer جديدة. يتم إيقاف خدمة Personalizer في 1 أكتوبر 2026.
مع الاستكشاف، يمكن ل Personalizer تقديم نتائج جيدة باستمرار، حتى مع تغير سلوك المستخدم.
عندما يتلقى Personalizer استدعاء Rank، فإنه يقوم بإرجاع RewardActionID الذي إما:
- يستخدم الصلة المعروفة لمطابقة سلوك المستخدم الأكثر احتمالا استنادا إلى نموذج التعلم الآلي الحالي.
- يستخدم الاستكشاف، والذي لا يتطابق مع الإجراء الذي يحتوي على أعلى احتمال في الرتبة.
يستخدم Personalizer حاليا خوارزمية تسمى epsilon greedy لاستكشافها.
اختيار إعداد استكشاف
يمكنك تكوين النسبة المئوية لنسبة استخدام الشبكة لاستخدامها في الاستكشاف في صفحة تكوين مدخل Microsoft Azure ل Personalizer. يحدد هذا الإعداد النسبة المئوية لاستدعاءات Rank التي تقوم بالاستكشاف.
يحدد Personalizer ما إذا كان يجب استكشاف أو استخدام الإجراء الأكثر احتمالا للنموذج على كل استدعاء رتبة. يختلف هذا عن السلوك في بعض أطر عمل A/B التي تقوم بتأمين علاج على معرفات مستخدم معينة.
أفضل الممارسات لاختيار إعداد الاستكشاف
اختيار إعداد الاستكشاف هو قرار تجاري حول نسبة تفاعلات المستخدم لاستكشافها، من أجل تحسين النموذج.
سينفي إعداد الصفر العديد من فوائد Personalizer. باستخدام هذا الإعداد، لا يستخدم Personalizer أي تفاعلات للمستخدم لاكتشاف تفاعلات أفضل للمستخدم. وهذا يؤدي إلى ركود النموذج والانجراف وانخفاض الأداء في نهاية المطاف.
سيؤدي الإعداد عالي جدا إلى نفي فوائد التعلم من سلوك المستخدم. تعيينه إلى 100% يعني عشوائية مستمرة، وأي سلوك متعلم من المستخدمين لن يؤثر على النتيجة.
من المهم عدم تغيير سلوك التطبيق استنادا إلى ما إذا كنت ترى ما إذا كان Personalizer يستكشف أو يستخدم أفضل إجراء تم تعلمه. وهذا من شأنه أن يؤدي إلى تحيزات التعلم التي من شأنها أن تقلل في نهاية المطاف من الأداء المحتمل.