Share via


Richtlijnen voor integratie en verantwoordelijk gebruik van Personalizer

Belangrijk

Vanaf 20 september 2023 kunt u geen nieuwe Personalizer-resources maken. De Personalizer-service wordt op 1 oktober 2026 buiten gebruik gesteld.

Microsoft werkt om klanten te helpen bij het op verantwoorde wijze ontwikkelen en implementeren van oplossingen met behulp van Azure AI Personalizer. Onze principebenadering handhaaft persoonlijke instantie en waardigheid door rekening te houden met het AI-systeem:

  • Redelijkheid, betrouwbaarheid en veiligheid.
  • Privacy en beveiliging.
  • Inclusiviteit.
  • Transparantie.
  • Menselijke verantwoordelijkheid.

Deze overwegingen weerspiegelen onze toezegging om verantwoorde AI te ontwikkelen.

Algemene richtlijnen voor integratie en verantwoorde gebruiksprincipes

Wanneer u klaar bent om AI-producten of -functies te integreren en op verantwoorde wijze te gebruiken, helpen de volgende activiteiten u om u in te stellen voor succes:

  • Begrijpen wat het kan doen. Evalueer volledig het potentieel van Personalizer om inzicht te krijgen in de mogelijkheden en beperkingen ervan. Begrijp hoe het in uw specifieke scenario en context zal worden uitgevoerd door het grondig te testen met reële omstandigheden en gegevens.

  • Respecteer het recht van een persoon op privacy. Verzamel alleen gegevens en informatie van personen voor rechtmatige en rechtvaardige doeleinden. Gebruik alleen gegevens en informatie waarvoor u toestemming hebt om voor dit doel te gebruiken.

  • Juridische controle verkrijgen. Vraag passende juridische adviezen om Personalizer te bekijken en hoe u deze gebruikt in uw oplossing, met name als u deze gebruikt in gevoelige of risicovolle toepassingen. Begrijpen binnen welke beperkingen u mogelijk moet werken en uw verantwoordelijkheid om eventuele problemen op te lossen die in de toekomst kunnen optreden.

  • Een mens in de lus hebben. Neem menselijk toezicht op als een consistent patroongebied om te verkennen. Zorg voor constant menselijk toezicht op het ai-product of de functie. Houd de rol van mensen bij het nemen van beslissingen. Zorg ervoor dat u realtime menselijke tussenkomst in de oplossing kunt hebben om schade te voorkomen en situaties te beheren wanneer het AI-systeem niet werkt zoals verwacht.

  • Bouw vertrouwen met betrokken belanghebbenden. Communiceer de verwachte voordelen en potentiële risico's voor betrokken belanghebbenden. Help mensen te begrijpen waarom de gegevens nodig zijn en hoe het gebruik van de gegevens tot hun voordeel leidt. Beschrijf gegevensverwerking op een begrijpelijke manier.

  • Maak een feedbacklus van klanten. Geef een feedbackkanaal op waarmee gebruikers en personen problemen met de service kunnen melden nadat deze is geïmplementeerd. Nadat u een ai-product of -functie hebt geïmplementeerd, is doorlopende bewaking en verbetering vereist. Wees klaar om feedback en suggesties voor verbetering te implementeren. Stel kanalen in om vragen en zorgen van betrokken belanghebbenden te verzamelen. Mensen die direct of indirect worden beïnvloed door het systeem, zijn werknemers, bezoekers en het grote publiek.

  • Feedback: Vraag feedback van een diverse steekproef van de community tijdens het ontwikkelings- en evaluatieproces (bijvoorbeeld historisch gemarginaliseerde groepen, mensen met een handicap en servicemedewerkers). Zie communityjury voor meer informatie.

  • Gebruikersstudie: aanbevelingen voor toestemming of openbaarmaking moeten worden opgenomen in een gebruikersstudie. Evalueer de eerste en continue gebruikservaring met een representatieve steekproef van de community om te valideren dat de ontwerpkeuzen leiden tot effectieve openbaarmaking. Voer gebruikersonderzoek uit met 10-20 communityleden (betrokken belanghebbenden) om hun begrip van de informatie te evalueren en om te bepalen of aan hun verwachtingen wordt voldaan.

  • Transparantie & uitlegbaarheid: Overweeg het inschakelen en gebruiken van de deductiemogelijkheden van Personalizer om beter te begrijpen welke functies een belangrijke rol spelen bij de beslissingskeuze van Personalizer in elke Rank-aanroep. Met deze mogelijkheid kunt u uw gebruikers transparantie bieden over hoe hun gegevens een rol spelen bij het produceren van de aanbevolen beste actie. U kunt uw gebruikers bijvoorbeeld een knop geven met het label 'Waarom deze suggesties?' die laat zien welke belangrijkste functies een rol hebben gespeeld bij het produceren van de Personalizer-resultaten. Deze informatie kan ook worden gebruikt om beter te begrijpen welke gegevenskenmerken over uw gebruikers, contexten en acties werken ten gunste van de keuze van Personalizer voor de beste actie, die ermee werken en die mogelijk weinig of geen effect hebben. Deze mogelijkheid kan ook inzicht bieden in uw gebruikerssegmenten en u helpen potentiële vooroordelen te identificeren en aan te pakken.

  • Adversarial gebruik: overweeg een proces tot stand te brengen om schadelijke manipulatie te detecteren en erop te reageren. Er zijn actoren die profiteren van de mogelijkheid van machine learning en AI-systemen om van hun omgeving te leren. Met gecoördineerde aanvallen kunnen ze kunstmatig valse gedragspatronen maken die de gegevens en AI-modellen naar hun doelen verplaatsen. Als uw gebruik van Personalizer van invloed kan zijn op belangrijke keuzes, moet u ervoor zorgen dat u over de juiste middelen beschikt om deze soorten aanvallen te detecteren en te beperken.

  • Afmelden: Overweeg een controle te bieden voor gebruikers om af te zien van het ontvangen van persoonlijke aanbevelingen. Voor deze gebruikers wordt de Personalizer Rank-API niet aangeroepen vanuit uw toepassing. In plaats daarvan kan uw toepassing een alternatief mechanisme gebruiken om te bepalen welke actie wordt ondernomen. Als u zich bijvoorbeeld afmeldt voor persoonlijke aanbevelingen en de standaardactie of basislijnactie kiest, ervaart de gebruiker de actie die zou worden uitgevoerd zonder de aanbeveling van Personalizer. Uw toepassing kan ook aanbevelingen gebruiken op basis van geaggregeerde of op populatie gebaseerde metingen (bijvoorbeeld trending, top 10 populairst, enzovoort).

Uw verantwoordelijkheid

Alle richtlijnen voor verantwoorde implementatie bouwen voort op de basis die ontwikkelaars en bedrijven die Personalizer gebruiken, verantwoordelijk zijn voor de effecten van het gebruik van deze algoritmen in de samenleving. Als u een toepassing ontwikkelt die door uw organisatie wordt geïmplementeerd, moet u uw rol en verantwoordelijkheid voor de werking ervan herkennen en hoe dit van invloed is op personen. Als u een toepassing ontwerpt die door een derde partij moet worden geïmplementeerd, komt u tot een gedeeld begrip van wie uiteindelijk verantwoordelijk is voor het gedrag van de toepassing. Zorg ervoor dat u dat begrijpt.

Vragen en feedback

Microsoft werkt voortdurend hulpprogramma's en documenten bij, zodat u op deze verantwoordelijkheden kunt reageren. Ons team nodigt u uit om feedback te geven aan Microsoft als u denkt dat andere hulpprogramma's, productfuncties en documenten u helpen deze richtlijnen te implementeren voor het gebruik van Personalizer.

  • Zie de zes principes van Microsoft voor de verantwoorde ontwikkeling van AI die is gepubliceerd in het boek januari 2018, The Future Computed.

Volgende stappen

Meer informatie over hoe de Personalizer-API functies ontvangt: Functies: Actie en Context