Share via


Wat is Personalizer?

Belangrijk

Vanaf 20 september 2023 kunt u geen nieuwe Personalizer-resources maken. De Personalizer-service wordt op 1 oktober 2026 buiten gebruik gesteld.

Notitie

Vanaf juli 2023 omvatten Azure AI-services alle eerder bekende cognitive services en Azure-app lied AI Services. Er zijn geen wijzigingen in prijzen. De namen Cognitive Services en Azure-app lied AI blijven worden gebruikt in Azure-facturering, kostenanalyse, prijslijst en prijs-API's. Er zijn geen belangrijke wijzigingen in API's (Application Programming Interfaces) of SDK's.

Azure AI Personalizer is een AI-service die uw toepassingen slimmere beslissingen op schaal nemen met behulp van versterkingsleer. Personalizer verwerkt informatie over de status van uw toepassing, scenario en/of gebruikers (contexten) en een set mogelijke beslissingen en gerelateerde kenmerken (acties) om de beste beslissing te nemen. Feedback van uw toepassing (beloningen) wordt verzonden naar Personalizer om te leren hoe u de besluitvormingsmogelijkheid in bijna realtime kunt verbeteren.

Personalizer kan de beste acties bepalen die in verschillende scenario's moeten worden uitgevoerd:

  • E-commerce: Welk product moet aan klanten worden getoond om de kans op een aankoop te maximaliseren?
  • Aanbeveling voor inhoud: Welk artikel moet worden weergegeven om de klikfrequentie te verhogen?
  • Inhoudsontwerp: Waar moet een advertentie worden geplaatst om de betrokkenheid van gebruikers op een website te optimaliseren?
  • Communicatie: Wanneer en hoe moet een melding worden verzonden om de kans op een antwoord te maximaliseren?

Als u aan de slag wilt gaan met Personalizer, volgt u de snelstartgids of probeert u Personalizer in uw browser met deze interactieve demo.

Deze documentatie bevat de volgende typen artikelen:

  • Quickstarts bieden stapsgewijze instructies om u te begeleiden bij het instellen en voorbeeldcode om API-aanvragen naar de service te maken.
  • Instructiegidsen bevatten instructies voor het gebruik van Personalizer-functies en geavanceerde mogelijkheden.
  • Codevoorbeelden laten zien hoe u Personalizer gebruikt en u helpt om uw toepassing eenvoudig te interfacen met de service.
  • Zelfstudies zijn langere instructies voor het implementeren van Personalizer als onderdeel van een bredere bedrijfsoplossing.
  • Concepten bieden meer informatie over Personalizer-functies, -mogelijkheden en -basisprincipes.

Hoe werkt Personalizer?

Personalizer gebruikt versterkingsleer om de beste actie te selecteren voor een bepaalde context voor alle gebruikers om een gemiddelde beloning te maximaliseren.

  • Context: Informatie die de status van uw toepassing, scenario of gebruiker beschrijft die relevant kan zijn voor het nemen van een beslissing.
    • Voorbeeld: De locatie, het apparaattype, de leeftijd en de favoriete onderwerpen van gebruikers die een website bezoeken.
  • Acties: Een discrete set items die kunnen worden gekozen, samen met kenmerken die elk item beschrijven.
    • Voorbeeld: Een set nieuwsartikelen en de onderwerpen die in elk artikel worden besproken.
  • Beloning: Een numerieke score tussen 0 en 1 die aangeeft of de beslissing slecht (0) of goed (1) was
    • Voorbeeld: Een '1' geeft aan dat een gebruiker op het voorgestelde artikel heeft geklikt, terwijl een '0' aangeeft dat de gebruiker dat niet heeft gedaan.

Rank- en Reward-API's

Met Personalizer kunt u profiteren van de kracht en flexibiliteit van versterking met behulp van slechts twee primaire API's.

De Rank-API wordt door uw toepassing aangeroepen telkens wanneer er een beslissing moet worden genomen. De toepassing verzendt een JSON met een set acties, functies die elke actie beschrijven en functies die de huidige context beschrijven. Elke Rank API-aanroep wordt een gebeurtenis genoemd en vermeld met een unieke gebeurtenis-id. Personalizer retourneert vervolgens de id van de beste actie waarmee de totale gemiddelde beloning wordt gemaximaliseerd zoals bepaald door het onderliggende model.

De Reward-API wordt aangeroepen door uw toepassing wanneer er feedback is die Personalizer kan helpen te leren of de actie-id die wordt geretourneerd in de door rank-aanroep verstrekte waarde. Als een gebruiker bijvoorbeeld op het voorgestelde nieuwsartikel heeft geklikt of de aankoop van een voorgesteld product heeft voltooid. Een aanroep van de Reward-API kan in realtime zijn (net nadat de Rank-aanroep is uitgevoerd) of vertraagd om beter aan de behoeften van het scenario te voldoen. De beloningsscore wordt bepaald door de metrische gegevens en doelstellingen van uw bedrijf en kan worden gegenereerd door een algoritme of regels in uw toepassing. De score is een reëel getal tussen 0 en 1.

Leermodi

  • De apprenticemodus is vergelijkbaar met de manier waarop een leerling een ambacht leert van het observeren van een expert. Met de modus Apprentice kan Personalizer leren door de huidige beslissingslogica van uw toepassing te observeren. Dit helpt om het zogenaamde 'koude begin'-probleem met een nieuw niet-getraind model te beperken en stelt u in staat om de actie- en contextfuncties te valideren die naar Personalizer worden verzonden. In de apprentice-modus retourneert elke aanroep naar de Rank-API de basislijnactie of standaardactie die de actie is die de toepassing zou hebben uitgevoerd zonder Personalizer te gebruiken. Dit wordt door uw toepassing verzonden naar Personalizer in de Rank-API als het eerste item in de set mogelijke acties.

  • Personalizer in de onlinemodus retourneert de beste actie, gezien de context, zoals bepaald door het onderliggende RL-model en verkent andere mogelijke acties die de prestaties kunnen verbeteren. Personalizer leert van feedback die wordt gegeven in aanroepen naar de Reward-API.

Personalizer gebruikt collectieve informatie voor alle gebruikers om de beste acties te leren op basis van de huidige context. De service doet het volgende niet:

  • Gebruikersprofielgegevens behouden en beheren. Unieke gebruikers-id's mogen niet worden verzonden naar Personalizer.
  • De voorkeuren of historische gegevens van afzonderlijke gebruikers registreren.

Voorbeeldscenario's

Hier volgen enkele voorbeelden waarin Personalizer kan worden gebruikt om de beste inhoud te selecteren die voor een gebruiker moet worden weergegeven.

Content type Acties {features} Contextfuncties Geretourneerde beloningsactie-id
(deze inhoud weergeven)
Nieuwsartikelen a. The president..., {national, politics, [text]}
b. Premier League ... {global, sports, [text, image, video]}
c. Hurricane in the ... {regionaal, weer, [tekst,afbeelding]}
Country='USA',
Recent_Topics=('politiek', 'zaken'),
Maand='Oktober'
een The president...
Films 1. Star Wars {1977, [actie, avontuur, fantasie], George Lucas}
2. Hoop Dreams {1994, [documentaire, sport], Steve James}
3. Casablanca {1942, [romantiek, drama, oorlog], Michael Curtiz}
Device='smart TV',
Screen_Size='large',
Favorite_Genre='classics'
3. Casablanca
E-commerceproducten i. Product A {3 kg, =, leveren in 1 dag}
ii. Product B {20 kg, $$, leveren in 7 dagen}
iii. Product C {3 kg, =, leveren in 2 dagen}
Device='i Telefoon',
Spending_Tier='low',
Maand='Juni'
ii. Product B

Scenariovereisten

Gebruik Personalizer wanneer uw scenario het volgende heeft:

  • Een beperkte set acties of items waaruit u kunt kiezen in elke persoonlijke gebeurtenis. We raden u aan niet meer dan ~50 acties in elke Rank API-aanroep uit te voeren. Als u een grotere set mogelijke acties hebt, raden we u aan een aanbevelingsengine of een ander mechanisme te gebruiken om de lijst met acties te verminderen voordat u de Rank-API aanroept.
  • Informatie over de acties (actiefuncties).
  • Informatie over de huidige context (contextuele functies).
  • Voldoende gegevensvolume om Personalizer in staat te stellen te leren. Over het algemeen raden we minimaal circa 1000 gebeurtenissen per dag aan om Personalizer in staat te stellen effectief te leren. Als Personalizer onvoldoende gegevens ontvangt, duurt de service langer om de beste acties te bepalen.

Verantwoordelijk gebruik van AI

Bij Microsoft zetten we ons in voor de vooruitgang van AI op basis van principes die mensen als eerste plaatsen. AI-modellen zoals de modellen die beschikbaar zijn in de Personalizer-service hebben aanzienlijke potentiële voordelen, maar zonder zorgvuldig ontwerp en doordachte oplossingen hebben dergelijke modellen het potentieel om onjuiste of zelfs schadelijke inhoud te genereren. Microsoft heeft aanzienlijke investeringen gedaan om te helpen beschermen tegen misbruik en onbedoelde schade, het opnemen van de principes van Microsoft voor verantwoord AI-gebruik, het bouwen van inhoudsfilters ter ondersteuning van klanten en het verstrekken van verantwoorde AI-implementatierichtlijnen voor ge onboardde klanten. Zie de verantwoordelijke AI-documenten voor Personalizer.

Personalizer integreren in een toepassing

  1. Ontwerp en plan de acties en context. Bepaal hoe feedback moet worden geïnterpreteerd als beloningsscore.

  2. Elke Personalizer-resource die u maakt, wordt gedefinieerd als één leerlus. De lus ontvangt zowel de Rank- als Reward-aanroepen voor die inhoud of gebruikerservaring en traint een onderliggend RL-model. Er zijn

    Resourcetype Doel
    Leerlingmodus - E0 Train Personalizer om uw huidige beslissingslogica na te bootsen zonder dat dit van invloed is op uw bestaande toepassing, voordat u de onlinemodus gebruikt om beter beleid in een productieomgeving te leren kennen.
    Onlinemodus - Standaard, S0 Personalizer gebruikt RL om de beste acties in productie te bepalen.
    Onlinemodus - Gratis, F0 Probeer Personalizer in een beperkte niet-productieomgeving.
  3. Voeg Personalizer toe aan uw toepassing, website of systeem:

    1. Voeg een Rank-aanroep toe aan Personalizer in uw toepassing, website of systeem om de beste actie te bepalen.

    2. Gebruik de beste actie, zoals opgegeven als een beloningsactie-id in uw scenario.

    3. Bedrijfslogica toepassen op gebruikersgedrag of feedbackgegevens om de beloningsscore te bepalen. Bijvoorbeeld:

      Gedrag Berekende beloningsscore
      Gebruiker heeft een nieuwsartikel geselecteerd dat door Personalizer wordt voorgesteld 1
      Gebruiker heeft een nieuwsartikel geselecteerd dat niet wordt voorgesteld door Personalizer 0
      De gebruiker aarzelde om een nieuwsartikel te selecteren, ondeugdelijk rond te schuiven en uiteindelijk het nieuwsartikel te selecteren dat door Personalizer wordt voorgesteld 0.5
    4. Een beloningsaanroep toevoegen om een beloningsscore tussen 0 en 1 te verzenden

      • Direct nadat feedback is ontvangen.
      • Of later in scenario's waarin vertraagde feedback wordt verwacht.
    5. Evalueer uw lus met een offline evaluatie na een bepaalde periode waarin Personalizer aanzienlijke gegevens heeft ontvangen om online beslissingen te nemen. Met een offline evaluatie kunt u de effectiviteit van de Personalizer-service testen en beoordelen zonder codewijzigingen of gebruikersimpact.

Volgende stappen