Dela via


Utforskning

Viktigt!

Från och med den 20 september 2023 kommer du inte att kunna skapa nya personaliseringsresurser. Personanpassningstjänsten dras tillbaka den 1 oktober 2026.

Med utforskning kan Personalizer kontinuerligt leverera bra resultat, även när användarbeteendet ändras.

När Personanpassning tar emot ett Rank-anrop returneras ett RewardActionID som antingen:

  • Använder känd relevans för att matcha det mest sannolika användarbeteendet baserat på den aktuella maskininlärningsmodellen.
  • Använder utforskning, som inte matchar den åtgärd som har högst sannolikhet i rangordningen.

Personalizer använder för närvarande en algoritm som kallas epsilon girig för att utforska.

Välja en utforskningsinställning

Du konfigurerar den procentandel av trafiken som ska användas för utforskning på Azure-portalens konfigurationssida för Personanpassning. Den här inställningen avgör procentandelen rankningsanrop som utför utforskning.

Personanpassning avgör om du vill utforska eller använda modellens mest sannolika åtgärd för varje rankningsanrop. Detta skiljer sig från beteendet i vissa A/B-ramverk som låser en behandling på specifika användar-ID:n.

Metodtips för att välja en utforskningsinställning

Att välja en utforskningsinställning är ett affärsbeslut om andelen användarinteraktioner att utforska med för att förbättra modellen.

En inställning på noll kommer att förneka många av fördelarna med Personanpassning. Med den här inställningen använder Personalizer inga användarinteraktioner för att identifiera bättre användarinteraktioner. Detta leder till modellstagnation, drift och i slutändan lägre prestanda.

En inställning som är för hög kommer att förneka fördelarna med att lära sig av användarbeteende. Att ange den till 100 % innebär en konstant slumpmässighet, och alla inlärda beteenden från användare skulle inte påverka resultatet.

Det är viktigt att inte ändra programbeteendet baserat på om du ser om Personanpassning utforskar eller använder den inlärda bästa åtgärden. Detta skulle leda till inlärningsfördomar som i slutändan skulle minska den potentiella prestandan.

Nästa steg

Förstärkningsinlärning