Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Modellering van schadelijke effecten is een praktijk waarmee u kunt anticiperen op het potentieel van schade, hiaten in producten kunt identificeren die mensen in gevaar kunnen brengen en uiteindelijk benaderingen kunnen creëren die proactief schade aanpakken.
Deze richtlijnen zijn bedoeld voor architecten die algoritmegestuurde systemen ontwerpen, zoals aangepaste besluitvormingsframeworks. Het is ook van toepassing op uitbesteed besluitvormingsprocessen, zoals processen die betrekking hebben op AI- of machine learning-modellen.
Als technologiebouwer heeft uw werk een wereldwijde impact. Als u betrouwbare algoritmegestuurde systemen wilt ontwerpen, moet u oplossingen maken die ethische principes weerspiegelen die zijn geroot in belangrijke en tijdloze menselijke waarden. Tijdens het ontwerp- en ontwikkelingsproces moet u niet alleen ideale resultaten voor uw gebruikers evalueren, maar ook mogelijke negatieve resultaten, ook wel schade genoemd. Deze schade kan optreden in elke besluitvormingsarchitectuur die geen menselijk toezicht omvat.
Hint
Zie De principes en benadering van verantwoorde AI voor richtlijnen die specifiek zijn voor verantwoorde AI.
Overwegingen voor belanghebbenden
Als u betrouwbare systemen wilt bouwen, moet u mensenrechten erkennen en waarderen als een fundamenteel aspect en rekening houden met de perspectieven van veel mensen. Als u betere producten wilt ontwerpen en bouwen, moet u vragen wie de belanghebbenden zijn, wat ze waarderen, hoe ze kunnen profiteren van uw technologie en hoe ze kunnen worden gekwetst door uw technologie.
Wie zijn de klanten voor uw technologie?
- Wat vinden zij belangrijk?
- Hoe moeten ze profiteren van uw technologie?
- Hoe kan uw technologie ze schaden?
Wie zijn de niet-klant belanghebbenden?
- Wat vinden zij belangrijk?
- Hoe moeten ze profiteren van uw technologie?
- Hoe kan uw technologie ze schaden?
Stel deze vragen om een beter inzicht te krijgen in wat belangrijk is voor belanghebbenden en hoe deze aspecten van invloed zijn op hun relatie met het product.
Soorten schade
In de volgende tabellen worden verschillende soorten schade beschreven die technologiegebruikers kunnen tegenkomen. Ze omvatten een breed scala aan schades die van invloed kunnen zijn op mensen in verschillende scenario's, maar het is niet volledig. Uw workload kan leiden tot andere soorten schade die niet worden vermeld.
Risico op letsel
Lichamelijk letsel
Bedenk hoe technologie mensen pijn kan doen of gevaarlijke omgevingen kan creëren.
Schade | Beschrijving | Overwegingen | Voorbeeld |
---|---|---|---|
Te veel vertrouwen op veiligheidsfuncties | Een afhankelijkheid van technologie om beslissingen te nemen zonder adequaat menselijk toezicht. | Hoe kunnen mensen vertrouwen op deze technologie om ze veilig te houden? Hoe kan deze technologie het juiste menselijke toezicht verminderen? |
Een zorgagent heeft een onjuiste diagnose gesteld van ziekte, wat leidt tot onnodige behandeling. |
Ontoereikende veiligheidsmaatregelen | Praktijktests hebben geen betrekking op een diverse set gebruikers en scenario's. | Als deze technologie uitvalt of misbruikt is, hoe heeft deze invloed op mensen? Op welk moment kan een mens ingrijpen? Zijn er alternatieve toepassingen die u niet hebt getest? Hoe heeft een systeemfout invloed op gebruikers? |
Een automatische deur detecteert een rolstoel niet tijdens een noodsituatie, waardoor een persoon vast kan komen te zitten als er geen toegankelijke noodoverridemogelijkheid is. |
Blootstelling aan ongezonde stoffen | De productie, evenals de verwijdering van technologie, brengt de gezondheid en het welzijn van werknemers en nabijgelegen bewoners in gevaar. | Welke negatieve resultaten kunnen zich voordoen bij de productie van uw onderdelen of apparaten? | Onvoldoende veiligheidsmaatregelen stellen werknemers bloot aan toxines tijdens de productie van digitale componenten. |
Emotioneel of psychologisch letsel
Misbruikte technologie kan leiden tot ernstige emotionele en psychologische nood.
Schade | Beschrijving | Overwegingen | Voorbeeld |
---|---|---|---|
Overmatige afhankelijkheid van automatisering | Misleide overtuigingen leiden gebruikers ertoe om de betrouwbaarheid van een digitale agent over een mens te vertrouwen. | Hoe kan deze technologie directe interpersoonlijke feedback verminderen? Hoe kan deze technologie samenwerken met vertrouwde bronnen van informatie? Hoe kan enige afhankelijkheid van een kunstmatige agent een persoon beïnvloeden? |
Een persoon is afhankelijk van een chatbot voor relatieadvies of mentale gezondheidsadvies in plaats van een getrainde professional. |
Vervorming van de realiteit of gaslichting | Technologie wordt opzettelijk misbruikt om vertrouwen te ondermijnen en iemands gevoel van realiteit te verstoren. | Kan deze technologie worden gebruikt om digitale media of fysieke omgevingen te wijzigen? | Een IoT-apparaat maakt bewaking en controle mogelijk van een ex-intieme partner van veraf. |
Verminderde zelfwaarde of reputatieschade | Gedeelde inhoud die schadelijk, onwaar, misleidend of degraderend is. | Hoe kan deze technologie worden gebruikt om persoonlijke gegevens ongepast te delen? Hoe kan het worden gemanipuleerd om informatie te misbruiken en mensen verkeerd voor te stellen? |
Synthetische media "wraakporno" wisselen gezichten, die de illusie creëren van een persoon die deelneemt aan een video. |
Verslaving of aandacht kapen | Technologie die is ontworpen voor langdurige interactie, zonder rekening te houden met welzijn. | Hoe kan deze technologie de beloning geven of de interactie stimuleren die verder gaat dan het leveren van gebruikerswaarde? | Variabele dalingspercentages in video game loot boxen zorgen ervoor dat spelers blijven spelen en negeren zelfzorg. |
Identiteitsdiefstal | Identiteitsdiefstal kan leiden tot verlies van controle over persoonlijke referenties, reputatie en vertegenwoordiging. | Hoe kan een persoon met deze technologie worden geïmiteerd? Hoe kan deze technologie per ongeluk de verkeerde persoon herkennen als een authentieke gebruiker? |
Het synthetische spraaklettertype nabootst het geluid van de stem van een persoon en wordt gebruikt om toegang te krijgen tot een bankrekening. |
Misattributie | Technologie schrijft een persoon toe aan een actie of inhoud waarvoor zij niet verantwoordelijk zijn. | Hoe kan deze technologie een actie toewijzen aan een persoon of groep? Welke invloed kan een onjuiste toeschrijving van een actie op iemand hebben? |
Gezichtsherkenning identificeert een persoon tijdens een politieonderzoek verkeerd. |
Weigering van diensten met nadelige gevolgen
Kansenverlies
Geautomatiseerde beslissingen kunnen de toegang tot resources, services en kansen beperken die essentieel zijn voor welzijn.
Schade | Beschrijving | Overwegingen | Voorbeeld |
---|---|---|---|
Werkgelegenheidsdiscriminatie | Sommige personen krijgen geen toegang om een baan aan te vragen of te beveiligen op basis van kenmerken die niet gerelateerd zijn aan merites. | Hoe kan deze technologie van invloed zijn op aanbevelingen of beslissingen met betrekking tot werkgelegenheid? | Het inhuren van AI raadt minder kandidaten aan die vrouwelijke namen hebben voor interviews. |
Huisvestingsdiscriminatie | Het weigeren van toegang tot huisvesting of de mogelijkheid om huisvesting aan te vragen. | Hoe kan deze technologie invloed hebben op aanbevelingen of beslissingen met betrekking tot huisvesting? | Een wachtrij-algoritme voor openbare huisvesting zorgt ervoor dat mensen met internationaal klinkende namen langer wachten op vouchers. |
Verzekerings- en uitkeringsdiscriminatie | Het weigeren van personenverzekering, sociale bijstand of toegang tot een medisch proces vanwege vooroordelen. | Kan deze technologie worden gebruikt om de toegang, kosten of toewijzing van verzekerings- of sociale uitkeringen te bepalen? | Een verzekeringsmaatschappij brengt hogere tarieven in rekening voor bestuurders die nachtdiensten werken, omdat algoritmevoorspellingen een verhoogd dronken rijrisico voorstellen. |
Onderwijsdiscriminatie | Toegang tot onderwijs wordt geweigerd vanwege een onveranderbaar kenmerk. | Hoe kan deze technologie worden gebruikt om toegang, kosten, accommodaties of andere resultaten met betrekking tot onderwijs te bepalen? | Een emotieclassificatie meldt onjuist dat studenten van één rasgroep minder betrokken zijn dan een andere rassengroep, wat leidt tot lagere cijfers. |
Digitale verdeling of technologische discriminatie | Onevenredige toegang tot de voordelen van technologie laat sommige mensen minder geïnformeerd of uitgerust om deel te nemen aan de samenleving. | Welke vereiste vaardigheden, apparatuur of connectiviteit zijn nodig om optimaal gebruik te maken van deze technologie? Wat kunnen de gevolgen zijn van bepaalde personen die vroeg toegang krijgen tot deze technologie, wat betreft apparatuur, connectiviteit of andere productfunctionaliteiten? |
Inhoudsbeperking voorkomt dat studenten op het platteland toegang hebben tot videofeeds voor leslokaalinstructie. |
Verlies van keuze/netwerk en filterballon | Het presenteren van mensen met enkel informatie die hun overtuigingen bevestigt en versterkt. | Hoe kan deze technologie van invloed zijn op de keuzes en informatie die beschikbaar zijn voor personen? Op welke eerdere gedragingen of voorkeuren kan deze technologie vertrouwen om toekomstig gedrag of voorkeuren te voorspellen? |
Een nieuwsfeed geeft alleen informatie weer die bestaande overtuigingen bevestigt. |
Economisch verlies
Geautomatiseerde beslissingen die betrekking hebben op financiële instrumenten, economische kansen en middelen kunnen bestaande maatschappelijke onzinnigheid versterken en het welzijn belemmeren.
Schade | Beschrijving | Overwegingen | Voorbeeld |
---|---|---|---|
Kredietdiscriminatie | Het weigeren van toegang tot financiële instrumenten op basis van kenmerken die niet gerelateerd zijn aan economische voordelen. | Hoe kan deze technologie afhankelijk zijn van bestaande kredietstructuren om beslissingen te nemen? Hoe kan deze technologie van invloed zijn op de mogelijkheid van een persoon of groep om een kredietscore te verkrijgen of te onderhouden? |
Hogere introductietarieven worden alleen verzonden naar huishoudens in lagere sociaal-economische postcodes. |
Differentiële prijzen van goederen en diensten | Goederen of diensten worden aangeboden tegen verschillende prijzen om redenen die niet gerelateerd zijn aan de kosten van productie of levering. | Hoe kan deze technologie worden gebruikt om de prijzen van goederen of diensten te bepalen? Welke criteria worden gebruikt om de kosten voor personen te bepalen voor het gebruik van deze technologie? |
Producten worden aangeboden tegen een hogere prijs op basis van een geslachtsbepaling. |
Economische exploitatie | Mensen worden gedwongen of misleid om te werken aan iets dat hun waardigheid of welzijn beïnvloedt. | Hoe beïnvloedt menselijke arbeid de productie van trainingsgegevens voor deze technologie? Hoe wordt dit personeel overgenomen? Hoe ondersteunt menselijke arbeid deze technologie? Waar komen deze werknemers vandaan? |
Financieel gedestitueerden worden betaald voor hun biometrische gegevens om AI-systemen te trainen. |
Devaluatie van individuele expertise | Technologie vervangt het gebruik van betaalde menselijke expertise of arbeid. | Hoe kan deze technologie van invloed zijn op de noodzaak om een bestaand personeel te gebruiken? | AI-agents vervangen artsen of radiografen voor de evaluatie van medische imaging. |
Schending van de mensenrechten
Waardigheid verlies
Technologie kan invloed hebben op hoe mensen de wereld ervaren en hoe ze elkaar herkennen, benaderen en waarderen. Technologie kan de uitwisseling van eer en respect tussen mensen verstoren.
Schade | Beschrijving | Overwegingen | Voorbeeld |
---|---|---|---|
Ontmenselijking | Het verwijderen, verminderen of verbergen van de zichtbaarheid van de menselijkheid van een persoon. | Hoe kan deze technologie worden gebruikt om de representatie van een persoon te vereenvoudigen of te abstraheren? Hoe kan deze technologie het onderscheid tussen mensen en de digitale wereld verminderen? |
Entiteitsherkenning en virtuele overlays in dronebewaking verminderen de waargenomen verantwoordelijkheid van menselijke acties. |
Publieke beschaming | Het blootstellen van persoonlijke, gevoelige of sociaal ongepaste materiaal van individuen. | Hoe kan gegevensaggregatie de verplaatsingen of acties van een persoon onthullen? | Een fitness-app onthult de GPS-locatie van een gebruiker op sociale media, wat aangeeft dat er aanwezig is bij een anonieme vergadering van alcoholisten. |
Vrijheidsverlies
Geautomatiseerde juridische, gerechtelijke en sociale systemen kunnen vooroordelen versterken en leiden tot nadelige gevolgen.
Schade | Beschrijving | Overwegingen | Voorbeeld |
---|---|---|---|
Voorspellende policing | Het uitstellen van verdacht gedrag of criminele intentie op basis van historische records. | Hoe kan deze technologie de besluitvorming van mensen op het gebied van politie of strafrecht ondersteunen of vervangen? | Een algoritme voorspelt verschillende arrestaties in een gebied, dus de politie zorgt ervoor dat ze dat aantal matchen of zelfs overstijgen. |
Sociale controle | Conformiteit wordt versterkt of aangemoedigd door het openbaar aan te wijzen van menselijk gedrag als positief of negatief. | Welke typen persoonlijke of gedragsgegevens voeden deze technologie? Hoe wordt het verkregen? Welke uitvoer is afgeleid van deze gegevens? Kan deze technologie worden gebruikt om bepaalde gedragingen aan te moedigen of te ontmoedigen? |
De overheid gebruikt sociale media- en e-commercegegevens om een "betrouwbare" score te bepalen op basis van waar mensen winkelen en met wie ze tijd doorbrengen. |
Verlies van effectieve remedie | Een onvermogen om de logica of het gebrek aan kansen uit te leggen om een beslissing te betwisten. | Hoe kunnen mensen de redenering voor de beslissingen van deze technologie begrijpen? Hoe kan een persoon die afhankelijk is van deze technologie zijn beslissingen uitleggen? Hoe kunnen mensen een beslissing betwisten of vragen stellen die deze technologie maakt? |
Een geautomatiseerde gevangenisstraf of beslissing tot voorlopige vrijgave wordt niet uitgelegd aan de beklaagde. |
Privacyverlies
De informatie die technologie genereert, kan worden gebruikt om feiten te bepalen of veronderstellingen over iemand te doen zonder hun kennis.
Schade | Beschrijving | Overwegingen | Voorbeeld |
---|---|---|---|
Interferentie met privé-leven | Het onthullen van informatie die een persoon heeft gekozen om niet te delen. | Hoe kan deze technologie informatie gebruiken om delen van het privéleven van een persoon af te leiden? Hoe kunnen beslissingen op basis van deze deducties informatie weergeven die een persoon liever privé houdt? |
Een functie voor het bijhouden van taken bewaakt persoonlijke patronen waaruit een buitenechtelijke affaire wordt afgeleid. |
Geforceerde koppeling | Deelname aan het gebruik van technologie of bewaking vereisen om deel te nemen aan de samenleving. | Hoe hebben mensen deze technologie nodig om deel te nemen aan het lidmaatschap van de samenleving of organisatie? | Een functieaanbiedingsbrief vereist biometrische inschrijving voor de transcriptie-AI in de vergaderruimte van het bedrijf. |
Onvermogen om vrij en volledig persoonlijkheid te ontwikkelen | Beperking van het vermogen van iemand om zichzelf waarheidsgetrouw uit te drukken of externe wegen voor zelfontwikkeling te verkennen. | Hoe schrijft deze technologie positieve versus negatieve connotaties toe aan bepaalde persoonlijkheidskenmerken? Hoe onthult deze technologie informatie aan entiteiten zoals de overheid of werkgever en remt vrije expressie? |
Een intelligent vergadersysteem registreert alle discussies tussen collega's, waaronder persoonlijke coaching en mentorschapssessies. |
Nooit vergeten | Digitale bestanden of records worden nooit verwijderd. | Wat en waar worden gegevens opgeslagen vanuit dit product en wie heeft er toegang tot het product? Hoe lang worden gebruikersgegevens opgeslagen na interactie met technologie? Hoe worden gebruikersgegevens bijgewerkt of verwijderd? |
De sociale mediageschiedenis van een tiener blijft doorzoekbaar lang nadat ze het platform hebben ontgroeid. |
Verlies van vrijheid van verkeer of vergadering | Een onvermogen om door de fysieke of virtuele wereld te navigeren met de gewenste anonimiteit. | Hoe kan deze technologie mensen in fysieke en virtuele ruimte bewaken? | Een echte naam is vereist om zich aan te melden voor een videogame, waardoor echte stalking mogelijk is. |
Impact op het milieu
Elke beslissing in een systeem of productlevenscyclus kan van invloed zijn op de omgeving, van de hoeveelheid vereiste cloud-computing tot retailverpakkingen. Omgevingswijzigingen kunnen van invloed zijn op hele community's.
Schade | Beschrijving | Overwegingen | Voorbeeld |
---|---|---|---|
Exploitatie of uitputting van middelen | Het verkrijgen van de grondstoffen voor technologie, inclusief hoe het wordt aangedreven, leidt tot negatieve gevolgen voor het milieu en de bewoners. | Welke materialen zijn nodig om deze technologie te bouwen of uit te voeren? Welke energievereisten zijn nodig om deze technologie te bouwen of uit te voeren? |
Een lokale gemeenschap wordt verplaatst omdat een berekening bepaalt dat het oogsten van zeldzame aardemineralen op deze locatie kan leiden tot een groot rendement op investeringen. |
Elektronisch afval | Verminderde kwaliteit van collectief welzijn vanwege het onvermogen om elektronica te repareren, recyclen of anderszins op verantwoorde wijze te verwijderen. | Hoe kan deze technologie elektronisch afval verminderen door het recyclen van materialen of gebruikers zelf te laten repareren? Hoe kan deze technologie bijdragen aan elektronisch afval wanneer nieuwe versies worden vrijgegeven of wanneer de huidige of eerdere versies niet meer werken? |
Giftige materialen in wegwerp-elektronische apparaten lekken in de watervoorziening, waardoor lokale populaties ziek worden. |
Koolstofemissies | Het uitvoeren van inefficiënte cloudoplossingen leidt tot onnodige koolstofuitstoot en elektriciteitsverspilling, wat het klimaat nadelig voorkomt. | Hebt u inzicht in hoe uw cloudworkloads en -oplossingen zijn geoptimaliseerd? Welke impact heeft uw oplossing op het klimaat en verschilt deze op basis van de regio waar u uw workloads implementeert? |
Inefficiënte of onjuist ontworpen oplossingen voor cloudefficiëntie leiden tot een zwaardere tol voor het klimaat, wat onnodige koolstofuitstoot en elektriciteitsafval veroorzaakt. |
Afbraak van sociale en democratische structuren
Manipulatie
Het vermogen van technologie om zeer persoonlijke en manipulatieve ervaringen te creëren, kan een geïnformeerd burgerschap en vertrouwen in maatschappelijke structuren ondermijnen.
Schade | Beschrijving | Overwegingen | Voorbeeld |
---|---|---|---|
Desinformatie | Valse informatie verhult als legitieme of geloofwaardige informatie. | Hoe kan deze technologie worden gebruikt om onjuiste informatie te genereren? Hoe kan het worden gebruikt om geloofwaardige onjuiste informatie te verspreiden? |
Synthetische toespraak van een politieke leider wordt gegenereerd, die een verkiezing beïnvloedt. |
Gedragsmisbruik | Het benutten van persoonlijke voorkeuren of gedragspatronen om een gewenste reactie te veroorzaken. | Hoe kan deze technologie worden gebruikt om gedragspatronen te observeren? Hoe kan deze technologie worden gebruikt om disfunctioneel of maladaptive gedrag aan te moedigen? |
Het bewaken van winkelgewoonten in de verbonden retailomgeving leidt tot gepersonaliseerde incentives voor impulsklanten en hoarders. |
Maatschappelijke nadelen
Op grote schaal beïnvloedt de manier waarop technologie mensen raakt, de sociale en economische structuren binnen gemeenschappen. Het kan elementen die sommige personen omvatten of ten goede komen, verder beperken terwijl anderen worden uitgesloten.
Schade | Beschrijving | Overwegingen | Voorbeeld |
---|---|---|---|
Versterking van machtsongelijkheid | Voortzetten van bestaande klasse- of privilegeverschillen. | Hoe kan deze technologie worden gebruikt in contexten met bestaande sociale, economische of klasseverschillen? Hoe kunnen mensen met meer macht of bevoegdheden deze technologie onevenredig beïnvloeden? |
Een vacaturewebsite vereist een woonadres en telefoonnummer voor registratie, waardoor een dakloze zich niet kan inschrijven. |
Versterking van stereotypen | Het bestendigen van niet-geïnformeerde "conventionele wijsheid" over historisch of statistisch ondervertegenwoordigde mensen. | Hoe kan deze technologie worden gebruikt om bestaande sociale normen of culturele stereotypen te versterken of te versterken? Hoe kunnen de gegevens die door deze technologie worden gebruikt, ertoe leiden dat deze vooroordelen of stereotypen weerspiegelen? |
De resultaten van een afbeelding zoeken naar "CEO" tonen voornamelijk foto's van Kaukasische mannen. |
Verlies van individualiteit | Een onvermogen om een uniek perspectief uit te drukken. | Hoe kan deze technologie de meerderheidsadviezen of 'groep-denken' versterken? Hoe kan deze technologie daarentegen unieke vormen van expressie onderdrukken? Hoe kan deze technologie de verzamelde gegevens gebruiken als feedback aan mensen? |
Beperkte aanpassingsopties voor een avatar van een videogame remt zelfexpressie van de diversiteit van een speler. |
Verlies van representatie | Brede categorieën van generalisatie verbergen, verminderen of wissen echte identiteiten. | Hoe kan deze technologie identiteitsopties beperken? Kan het worden gebruikt om personen automatisch te labelen of te categoriseren? |
Een geautomatiseerd fotobijschrift wijst de onjuiste genderidentiteit en leeftijd toe aan een onderwerp. |
Vaardigheidsdegradatie en zelfgenoegzaamheid | Overschrijding van automatisering leidt tot atrofie van handmatige vaardigheden. | Hoe kan deze technologie de toegankelijkheid en de mogelijkheid om handmatige besturingselementen te gebruiken verminderen? | Piloten kunnen de ware oriëntatie van een vliegtuig niet meten, omdat ze alleen worden getraind om te vertrouwen op instrumenten. |
Definieer schadelijke effecten die specifiek zijn voor uw workloads
Gebruik de vorige categorieën, vragen en voorbeelden om specifieke ideeën te genereren voor hoe schade kan optreden binnen uw workload. Pas andere categorieën aan die relevant zijn voor uw scenario.
U kunt deze activiteit voor het modelleren van schade individueel voltooien, maar idealiter werkt u samen met belanghebbenden. Wanneer u de technologie ontwerpt en implementeert, moet u ontwikkelaars, gegevenswetenschappers, ontwerpers, gebruikersonderzoekers, besluitvormers en andere disciplines betrekken.
Beoogd gebruik: Als [functie] wordt gebruikt voor [use case], kan [belanghebbende] [beschrijving van schade] ervaren.
Onbedoeld gebruik: Als [gebruiker] heeft geprobeerd [functie] te gebruiken voor [use case], kan [belanghebbende] [beschrijving van schade] ervaren.
Systeemfout: Als [functie] niet goed functioneert wanneer deze wordt gebruikt voor [use case], kan [belanghebbende] [beschrijving van schade] ervaren.
Misbruik: [Kwaadwillende actor] kan mogelijk [functie] gebruiken om [beschrijving van schade] aan [belanghebbende] te veroorzaken].
Transparantiedocumenten gebruiken
Sommige services bieden transparantiedocumenten. Transparantiedocumenten bieden inzicht in de werking van de service, de mogelijkheden, beperkingen en ethische overwegingen. U kunt deze documenten bekijken om inzicht te hebben in de interne werking van de service en te zorgen voor verantwoordelijk gebruik.
Wanneer u oplossingen bouwt in Azure, leest u alle transparantiedocumenten die door uw service worden aangeboden. Houd rekening met de wijze waarop deze oplossingen zijn afgestemd op de modellering van uw workload. Overweeg of de functionaliteiten en beperkingen van de service risico's in uw specifieke use-case veroorzaken of beperken.
Schadelijke effecten evalueren
Nadat u een brede lijst met mogelijke schade hebt gegenereerd, evalueert u de mogelijke grootte voor elke schadecategorie. Deze stap geeft prioriteit aan uw aandachtsgebieden. Houd rekening met de volgende factoren.
Bijdragefactor | Definitie |
---|---|
Ernstigheid | Hoe acuut kan de technologie van invloed zijn op het welzijn van een persoon of groep? |
Schaal | Hoe breed kan de impact op welzijn worden ervaren in populaties of groepen? |
Kans | Hoe waarschijnlijk is de technologie om het welzijn van een persoon of groep te beïnvloeden? |
Frequentie | Hoe vaak kan de technologie van invloed zijn op het welzijn van een persoon of groep? |
Volgende stappen
Zie relevante artikelen over Verantwoorde AI: