Share via


Wat is Responsible AI?

VAN TOEPASSING OP:Azure CLI ml extension v2 (current)Python SDK azure-ai-ml v2 (current)

Verantwoorde kunstmatige intelligentie (verantwoorde AI) is een benadering voor het ontwikkelen, beoordelen en implementeren van AI-systemen veilig, ethisch en met vertrouwen. AI-systemen zijn het gevolg van veel beslissingen van hun makers. Verantwoorde AI helpt bij het bepalen van deze beslissingen, van het definiëren van systeemdoel tot gebruikersinteractie, tot gunstiger en rechtvaardiger resultaten. Het houdt mensen en hun doelen centraal in het ontwerp en respecteert waarden zoals billijkheid, betrouwbaarheid en transparantie.

Microsoft heeft een verantwoordelijke AI-standaard gemaakt, een framework voor het bouwen van AI-systemen op basis van zes principes: billijkheid, betrouwbaarheid en veiligheid, privacy en beveiliging, inclusiefheid, transparantie en verantwoordelijkheid. Deze principes vormen de basis van een verantwoorde en betrouwbare benadering van AI, met name omdat intelligente technologie vaker voorkomt in alledaagse producten en services.

In dit artikel wordt uitgelegd hoe Azure Machine Learning hulpprogramma's biedt waarmee ontwikkelaars en gegevenswetenschappers deze zes principes kunnen implementeren en operationeel maken.

 Diagram van de zes principes van Microsoft Responsible AI, die redelijkheid, betrouwbaarheid en veiligheid, privacy en beveiliging, inclusiefheid, transparantie en verantwoordelijkheid omvat.

Billijkheid en inclusiefheid

AI-systemen moeten iedereen eerlijk behandelen en voorkomen dat vergelijkbare groepen verschillend worden beïnvloed. Wanneer AI-systemen bijvoorbeeld richtlijnen bieden voor medische behandeling, leningsaanvragen of werkgelegenheid, moeten ze dezelfde aanbevelingen doen aan mensen met vergelijkbare symptomen, financiële omstandigheden of kwalificaties.

Fairness and inclusiveness in Azure Machine Learning: The fairness assessment component of the Responsible AI dashboard helpt model fairness te beoordelen in gevoelige groepen, zoals geslacht, etniciteit, leeftijd en andere kenmerken.

Betrouwbaarheid en veiligheid

Om vertrouwen te bouwen, moeten AI-systemen betrouwbaar, veilig en consistent werken. Ze moeten functioneren zoals ontworpen, veilig reageren op onverwachte omstandigheden en bestand zijn tegen schadelijke manipulatie. Hun gedrag en de mogelijkheid om verschillende voorwaarden af te handelen, weerspiegelen het bereik van situaties die ontwikkelaars verwachten tijdens het ontwerpen en testen.

Betrouwbaarheid en veiligheid in Azure Machine Learning: Het onderdeel foutanalyse van het Dashboard Verantwoorde AI helpt u bij het volgende:

  • Krijg een goed beeld van de verdeling van fouten voor een model.
  • Identificeer cohorten (subsets) van gegevens met een hoger foutpercentage dan de algehele benchmark.

Deze verschillen kunnen optreden wanneer het systeem of model minder goed presteert voor specifieke demografische groepen of voor zelden waargenomen invoervoorwaarden in de trainingsgegevens.

Doorzichtigheid

Wanneer AI-systemen beslissingen informeren die van invloed zijn op het leven van mensen, is het essentieel dat mensen begrijpen hoe deze beslissingen worden genomen. Een bank kan bijvoorbeeld een AI-systeem gebruiken om te bepalen of een persoon kredietwaardig is, of een bedrijf kan er een gebruiken om kandidaten te selecteren.

Een cruciaal onderdeel van transparantie is interpreteerbaarheid: nuttige uitleg over ai-systeemgedrag bieden. Door de interpreteerbaarheid te verbeteren, kunnen belanghebbenden begrijpen hoe en waarom AI-systemen werken, zodat ze prestatieproblemen, getrouwheidsproblemen, uitsluitingspraktijken of onbedoelde resultaten kunnen identificeren.

Transparantie in Azure Machine Learning: de interpreteerbaarheid van het model en contrafactuele wat-als-onderdelen van het verantwoordelijke AI-dashboard helpen bij het genereren van begrijpelijke beschrijvingen van modelvoorspellingen.

Het model interpreteerbaarheidsonderdeel biedt verschillende weergaven in het gedrag van een model:

  • Globale uitleg. Welke functies zijn bijvoorbeeld van invloed op het algehele gedrag van een leningtoewijzingsmodel?
  • Lokale uitleg. Waarom is de leningsaanvraag van een klant bijvoorbeeld goedgekeurd of afgewezen?
  • Modeluitleg voor een geselecteerd cohort van gegevenspunten. Welke functies zijn bijvoorbeeld van invloed op het algehele gedrag van een leningtoewijzingsmodel voor aanvragers met een laag inkomen?

Het contrafactuele wat-als-onderdeel helpt u inzicht te hebben in en fouten in een machine learning-model op te sporen door te laten zien hoe het reageert op functiewijzigingen en verstoringen.

Azure Machine Learning biedt ook ondersteuning voor een verantwoordelijke AI-scorecard. De scorecard is een aanpasbaar PDF-rapport dat ontwikkelaars kunnen configureren, genereren, downloaden en delen met technische en niet-technische belanghebbenden. Het helpt belanghebbenden te informeren over de status van gegevenssets en modellen, naleving te bereiken en vertrouwen te bouwen. De scorecard kan ook controlebeoordelingen ondersteunen door de kenmerken van het Machine Learning-model weer te geven.

Privacy en beveiliging

Naarmate AI gebruikelijker wordt, is het beschermen van privacy en het beveiligen van persoonlijke en zakelijke gegevens belangrijker en complexer. Privacy- en gegevensbeveiliging vereisen veel aandacht omdat AI-systemen gegevens nodig hebben om nauwkeurige voorspellingen en beslissingen te kunnen nemen. AI-systemen moeten voldoen aan privacywetten die:

  • Transparantie vereisen over het verzamelen, gebruiken en opslaan van gegevens.
  • Verplicht stellen dat consumenten de juiste controles hebben om te kiezen hoe hun gegevens worden gebruikt.

Privacy en beveiliging in Azure Machine Learning: Met Azure Machine Learning kunnen beheerders en ontwikkelaars veilige configuraties maken die voldoen aan het bedrijfsbeleid. Met Azure Machine Learning en het Azure-platform kunt u het volgende doen:

  • Beperk de toegang tot resources en bewerkingen per gebruikersaccount of groep.
  • Binnenkomende en uitgaande netwerkcommunicatie beperken.
  • Versleutel gegevens die worden verzonden en at-rest.
  • Scannen op beveiligingsproblemen.
  • Configuratiebeleid toepassen en controleren.

Microsoft heeft ook twee opensource-pakketten gemaakt om privacy- en beveiligingsprincipes te implementeren:

  • SmartNoise: Differentiële privacy is een set systemen en procedures die helpen de gegevens van personen veilig en privé te houden. In machine learning-oplossingen kan differentiële privacy vereist zijn voor naleving van regelgeving. SmartNoise is een opensource-project (mede ontwikkeld door Microsoft) dat onderdelen bevat voor het bouwen van differentiële privésystemen die wereldwijd zijn.

  • Counterfit: Counterfit is een opensource-project dat bestaat uit een opdrachtregelprogramma en een algemene automatiseringslaag, zodat ontwikkelaars cyberaanvallen kunnen simuleren op AI-systemen. Iedereen kan het hulpprogramma downloaden en implementeren via Azure Cloud Shell om in een browser uit te voeren of lokaal te implementeren in een Anaconda Python-omgeving. Het kan AI-modellen evalueren die worden gehost in verschillende cloudomgevingen, on-premises of in de rand. Het hulpprogramma is agnostisch voor AI-modellen en ondersteunt verschillende gegevenstypen, waaronder tekst, afbeeldingen of algemene invoer.

Verantwoordelijkheid

Personen die AI-systemen ontwerpen en implementeren, moeten verantwoordelijk zijn voor de werking van deze systemen. Organisaties moeten industriestandaarden gebruiken om verantwoordingsnormen te ontwikkelen. Deze normen helpen ervoor te zorgen dat AI-systemen niet de uiteindelijke autoriteit zijn voor beslissingen die van invloed zijn op het leven van mensen en dat mensen zinvolle controle houden over zeer autonome systemen.

Verantwoordelijkheid in Azure Machine Learning: Machine Learning-bewerkingen (MLOps) is gebaseerd op DevOps-principes en -procedures die de efficiëntie van ai-werkstromen verbeteren. Azure Machine Learning biedt deze MLOps-mogelijkheden voor betere verantwoordelijkheid:

  • Registreer, verpakt en implementeer modellen vanaf elke locatie. U kunt ook de gekoppelde metagegevens bijhouden die vereist zijn voor het gebruik van het model.
  • Leg de governancegegevens vast voor de end-to-end levenscyclus van machine learning. De vastgelegde herkomstgegevens kunnen omvatten wie modellen publiceert, waarom er wijzigingen zijn aangebracht en wanneer modellen in productie zijn geïmplementeerd of gebruikt.
  • Informeer en waarschuw gebeurtenissen in de levenscyclus van Machine Learning. Voorbeelden hiervan zijn voltooiing van experimenten, modelregistratie, modelimplementatie en detectie van gegevensdrift.
  • Bewaak toepassingen voor operationele problemen en problemen met betrekking tot machine learning. Vergelijk modelinvoer tussen training en deductie, verken modelspecifieke metrische gegevens en geef bewaking en waarschuwingen op uw machine learning-infrastructuur.

Bovendien creëert de verantwoordelijke AI-scorecard in Azure Machine Learning verantwoording door communicatie tussen belanghebbenden mogelijk te maken. Met de scorecard kunnen ontwikkelaars modelstatusinzichten configureren, downloaden en delen met zowel technische als niet-technische belanghebbenden. Het delen van deze inzichten helpt bij het opbouwen van vertrouwen.

Azure Machine Learning biedt ook ondersteuning voor besluitvorming door zakelijke beslissingen te informeren via:

  • Gegevensgestuurde inzichten, die belanghebbenden helpen bij het begrijpen van causale behandelingseffecten op resultaten met alleen historische gegevens. Bijvoorbeeld: "Hoe zou een geneesmiddel de bloeddruk van een patiënt beïnvloeden?" Deze inzichten zijn afkomstig van het causale deductieonderdeel van het Dashboard Verantwoorde AI.
  • Modelgestuurde inzichten, die vragen van gebruikers beantwoorden (zoals 'Wat kan ik doen om een ander resultaat te krijgen van uw AI volgende keer?') zodat ze actie kunnen ondernemen. Deze inzichten worden geboden via het contrafactuele wat-als-onderdeel van het dashboard voor verantwoorde AI.

Volgende stappen