Kenmerken en beperkingen van Personalizer

Belangrijk

Vanaf 20 september 2023 kunt u geen nieuwe Personalizer-resources maken. De Personalizer-service wordt op 1 oktober 2026 buiten gebruik gesteld.

Azure AI Personalizer kan in veel scenario's werken. Als u wilt weten waar u Personalizer kunt toepassen, moet u ervoor zorgen dat de vereisten van uw scenario voldoen aan de verwachtingen dat Personalizer werkt. Als u wilt weten of Personalizer moet worden gebruikt en hoe u deze kunt integreren in uw toepassingen, raadpleegt u Use Cases voor Personalizer. U vindt criteria en richtlijnen voor het kiezen van use cases, het ontwerpen van functies en beloningsfuncties voor uw gebruik van Personalizer.

Voordat u dit artikel leest, is het handig om wat achtergrondinformatie te begrijpen over hoe Personalizer werkt.

Functies voor Personalizer selecteren

Het personaliseren van inhoud is afhankelijk van nuttige informatie over de inhoud en de gebruiker. Voor sommige toepassingen en branches kunnen sommige gebruikersfuncties direct of indirect als discriminerend en mogelijk illegaal worden beschouwd. Zie de Personalizer-integratie en verantwoordelijke gebruiksrichtlijnen voor het beoordelen van functies die met Personalizer moeten worden gebruikt.

Computing-beloningen voor Personalizer

Personalizer leert hoe u actiekeuzen kunt verbeteren op basis van de beloningsscore van uw toepassingslogica. Een goed samengestelde beloningsscore fungeert als een kortetermijnproxy voor een bedrijfsdoel dat is gekoppeld aan de missie van een organisatie. Als u bijvoorbeeld op klikken beloont, wordt Personalizer op kosten van alle andere klikken gezocht, zelfs als wat erop wordt geklikt, afleidend is voor de gebruiker of niet is gekoppeld aan een bedrijfsresultaat. Een nieuwssite wil daarentegen mogelijk beloningen instellen die zijn gekoppeld aan iets zinvoller dan klikken, zoals 'Heeft de gebruiker voldoende tijd besteed om de inhoud te lezen?' of 'Heeft de gebruiker op relevante artikelen of verwijzingen geklikt?' Met Personalizer is het eenvoudig om metrische gegevens nauw te koppelen aan beloningen. U moet er echter op letten dat u de betrokkenheid van gebruikers op korte termijn niet met de gewenste resultaten kunt verstoren.

Onbedoelde gevolgen van beloningsscores

Zelfs als er met de beste intenties beloningsscores zijn gebouwd, kunnen onverwachte gevolgen of onbedoelde resultaten ontstaan vanwege hoe Personalizer inhoud rangschikt.

Bekijk de volgende voorbeelden:

  • Het belonen van video-inhoud aanpassen aan het percentage van de videolengte die wordt bekeken, heeft waarschijnlijk de neiging om kortere video's hoger dan langere video's te rangschikken.
  • Het belonen van sociale mediashares, zonder sentimentanalyse van hoe het wordt gedeeld of de inhoud zelf, kan leiden tot het rangschikken van aanstootgevende, niet-gemodereerde of ontstekingsinhoud. Dit type inhoud leidt vaak tot veel betrokkenheid, maar is vaak schadelijk.
  • Het belonen van de actie op gebruikersinterface-elementen die gebruikers niet verwachten te veranderen, kan de bruikbaarheid en voorspelbaarheid van de gebruikersinterface verstoren. Knoppen die de locatie of het doel wijzigen zonder waarschuwing, maken het bijvoorbeeld moeilijker voor bepaalde groepen gebruikers om productief te blijven.

Implementeer deze aanbevolen procedures:

  • Voer offlineexperimenten met uw systeem uit met behulp van verschillende beloningsmethoden om inzicht te krijgen in de impact en bijwerkingen.
  • Evalueer uw beloningsfuncties en vraag uzelf af hoe een naïef persoon de interpretatie ervan kan wijzigen, wat kan leiden tot onbedoelde of ongewenste resultaten.
  • Archiveer informatie en assets, zoals modellen, leerbeleid en andere gegevens, die Personalizer gebruikt om te functioneren, zodat resultaten kunnen worden gereproduceerd.

Algemene richtlijnen voor het begrijpen en verbeteren van de prestaties

Omdat Personalizer is gebaseerd op versterking en leert van beloningen om betere keuzes te maken in de loop van de tijd, worden prestaties niet gemeten in traditionele leertermen onder supervisie die worden gebruikt in classificaties, zoals precisie en relevante overeenkomsten. De prestaties van Personalizer worden rechtstreeks gemeten als de som van beloningsscores die worden ontvangen van uw toepassing via de Reward-API.

Wanneer u Personalizer gebruikt, biedt de gebruikersinterface van het product in Azure Portal prestatiegegevens, zodat u deze kunt bewaken en erop kunt reageren. De prestaties zijn te zien op de volgende manieren:

  • Als Personalizer zich in de onlineleermodus bevindt, kunt u offline evaluaties uitvoeren.
  • Als Personalizer zich in de modus Apprentice bevindt, ziet u de metrische prestatiegegevens (gebeurtenissen die zijn geïmiteerd en beloningen geïmiteerd) in het deelvenster Evaluatie in Azure Portal.

We raden u aan regelmatig offline evaluaties uit te voeren om toezicht te houden. Met deze taak kunt u trends bewaken en de effectiviteit ervan garanderen. U kunt bijvoorbeeld besluiten om Personalizer tijdelijk in de Apprentice-modus te plaatsen als de beloningsprestaties een dip hebben.

Schattingen van personalizer-prestaties die worden weergegeven in offlineevaluaties: beperkingen

We definiëren de 'prestaties' van Personalizer als de totale beloningen die tijdens het gebruik worden verkregen. Personalizer-prestatieschattingen die worden weergegeven in offlineevaluaties, worden berekend in plaats van gemeten. Het is belangrijk om inzicht te hebben in de beperkingen van deze schattingen:

  • De schattingen zijn gebaseerd op eerdere gegevens, zodat toekomstige prestaties kunnen variëren wanneer de wereld en uw gebruikers veranderen.
  • De schattingen voor basislijnprestaties worden probabilistisch berekend. Daarom is de betrouwbaarheidsband voor de gemiddelde beloning basislijn belangrijk. De schatting wordt nauwkeuriger met meer gebeurtenissen. Als u een kleiner aantal acties in elke Rank-aanroep gebruikt, kan de schatting van de prestaties toenemen omdat er een hogere kans is dat Personalizer een van deze acties (inclusief de basislijnactie) voor elke gebeurtenis kan kiezen.
  • Personalizer traint voortdurend een model in bijna realtime om de acties te verbeteren die voor elke gebeurtenis zijn gekozen. Als gevolg hiervan is dit van invloed op de totale verkregen beloningen. De modelprestaties variëren in de loop van de tijd, afhankelijk van de recente trainingsgegevens uit het verleden.
  • Verkenning en actiekeuze zijn stochastische processen die worden begeleid door het Personalizer-model. De willekeurige getallen die voor deze stochastische processen worden gebruikt, worden geseed uit de gebeurtenis-id. Gebruik dezelfde gebeurtenis-id om de reproduceerbaarheid van explore-exploit en andere stochastische processen te garanderen.
  • Onlineprestaties kunnen worden beperkt door verkenning. Als u de verkenningsinstellingen verlaagt, wordt beperkt hoeveel informatie wordt verzameld om op de hoogte te blijven van veranderende trends en gebruikspatronen, zodat het saldo afhankelijk is van elke use-case. Sommige gebruiksvoorbeelden verdienen het starten met hogere verkenningsinstellingen en verminderen ze na verloop van tijd (bijvoorbeeld beginnen met 30% en verminderen tot 10%).

Bestaande modellen controleren die per ongeluk personalizer kunnen vertekenen

Bestaande aanbevelingen, klantsegmentatie en propensiteitsmodeluitvoer kunnen door uw toepassing worden gebruikt als invoer voor Personalizer. Personalizer leert functies negeren die geen bijdrage leveren aan beloningen. Bekijk en evalueer eventuele propensiteitsmodellen om te bepalen of ze goed zijn in het voorspellen van beloningen en sterke vooroordelen bevatten die schadelijk kunnen zijn als neveneffect. Zoek bijvoorbeeld naar aanbevelingen die kunnen zijn gebaseerd op schadelijke stereotypen. Overweeg het gebruik van hulpprogramma's zoals FairLearn om het proces te vergemakkelijken.

Proactieve evaluaties tijdens de levenscyclus van uw project

Overweeg methoden te maken voor teamleden, gebruikers en bedrijfseigenaren om zorgen te melden over verantwoord gebruik en een proces dat prioriteit geeft aan hun oplossing. Overweeg taken te behandelen voor verantwoordelijk gebruik, net als andere kruislingse taken in de levenscyclus van de toepassing, zoals taken met betrekking tot gebruikerservaring, beveiliging of DevOps. Taken met betrekking tot verantwoordelijk gebruik en hun vereisten mogen niet achteraf worden gebruikt. Verantwoordelijk gebruik moet worden besproken en geïmplementeerd gedurende de levenscyclus van de toepassing.

Volgende stappen