Konfigurera personalizer-inlärningsloop

Viktigt!

Från och med den 20 september 2023 kommer du inte att kunna skapa nya personaliseringsresurser. Personanpassningstjänsten dras tillbaka den 1 oktober 2026.

Tjänstkonfigurationen omfattar hur tjänsten behandlar belöningar, hur ofta tjänsten utforskar, hur ofta modellen tränas om och hur mycket data som lagras.

Konfigurera inlärningsloopen på sidan Konfiguration i Azure-portalen för den personanpassningsresursen.

Planera konfigurationsändringar

Eftersom vissa konfigurationsändringar återställer din modell bör du planera konfigurationsändringarna.

Om du planerar att använda lärlingsläge bör du granska konfigurationen för Personanpassning innan du byter till Lärlingsläge.

Inställningar som inkluderar återställning av modellen

Följande åtgärder utlöser en omträning av modellen med data som är tillgängliga upp till de senaste 2 dagarna.

  • Belöning
  • Utforskning

Om du vill rensa alla dina data använder du sidan Modell- och inlärningsinställningar .

Konfigurera belöningar för feedbackloopen

Konfigurera tjänsten för din inlärningsloops användning av belöningar. Ändringar i följande värden återställer den aktuella personanpassningsmodellen och tränar om den med de senaste två dagarnas data.

Configure the reward values for the feedback loop

Värde Syfte
Väntetid för belöning Anger hur lång tid personanpassningen ska samla in belöningsvärden för ett rankningsanrop, från och med det ögonblick då Rank-anropet inträffar. Det här värdet anges genom att fråga: "Hur länge ska personaliseraren vänta på belöningssamtal?" Alla belöningar som kommer efter det här fönstret loggas men används inte för inlärning.
Standardbelöning Om inget belöningssamtal tas emot av Personanpassning under fönstret Väntetid för belöning som är associerat med ett rankningssamtal tilldelar Personalizer standardbelöningen. Som standard, och i de flesta scenarier, är Standardbelöning noll (0).
Belöningsaggregering Om flera belöningar tas emot för samma Rank API-anrop används den här aggregeringsmetoden: summa eller tidigast. Tidigast väljer den tidigaste poängen som tagits emot och tar bort resten. Detta är användbart om du vill ha en unik belöning bland eventuellt duplicerade anrop.

När du har ändrat dessa värden måste du välja Spara.

Konfigurera utforskning så att inlärningsloopen kan anpassas

Anpassning kan identifiera nya mönster och anpassa sig till användarbeteendeändringar över tid genom att utforska alternativ i stället för att använda den tränade modellens förutsägelse. Utforskningsvärdet avgör vilken procentandel av Rank-anrop som besvaras med utforskning.

Ändringar av det här värdet återställer den aktuella personanpassningsmodellen och tränar om den med de senaste 2 dagarnas data.

The exploration value determines what percentage of Rank calls are answered with exploration

När du har ändrat det här värdet väljer du Spara.

Konfigurera modelluppdateringsfrekvens för modellträning

Uppdateringsfrekvensen för modell anger hur ofta modellen tränas.

Frekvensinställning Syfte
1 minut Uppdateringsfrekvenser på en minut är användbara när du felsöker ett programs kod med hjälp av Personanpassning, gör demonstrationer eller testar maskininlärningsaspekter interaktivt.
15 minuter Höga modelluppdateringsfrekvenser är användbara i situationer där du vill spåra ändringar i användarbeteenden. Exempel är webbplatser som körs på livenyheter, viralt innehåll eller liveproduktbudgivning. Du kan använda en frekvens på 15 minuter i dessa scenarier.
1 timme För de flesta användningsfall är en lägre uppdateringsfrekvens effektiv.

Model update frequency sets how often a new Personalizer model is retrained.

När du har ändrat det här värdet väljer du Spara.

Datakvarhållning

Datakvarhållningsperioden anger hur många dagar Personanpassning lagrar dataloggar. Tidigare dataloggar krävs för att utföra offlineutvärderingar, som används för att mäta effektiviteten hos Personanpassning och optimera inlärningspolicyn.

När du har ändrat det här värdet väljer du Spara.

Nästa steg

Lär dig hur du hanterar din modell