Freigeben über


Arten von Schäden

In diesem Artikel wird auf die unterschiedlichen Arten von Schäden aufmerksam gemacht, damit geeignete Schritte unternommen werden können, um sie zu mindern.

Verletzungsgefahr

Physische Verletzung

Überlegen Sie sich, wie Menschen durch Technologie verletzt werden können oder wie durch Technologie gefährliche Umgebungen entstehen können.

Schaden Beschreibung Überlegungen Beispiel
Blindes Vertrauen auf Sicherheitsfeatures Das bedeutet, dass Entscheidungen durch Technologie ohne angemessene menschliche Aufsicht getroffen werden. Inwiefern verlassen sich Personen möglicherweise darauf, dass diese Technologie für ihre Sicherheit sorgt? Wie könnte diese Technologie eine angemessene menschliche Aufsicht verringern? Ein Mitarbeiter im Gesundheitswesen könnte eine Krankheit falsch diagnostizieren, was eine unnötige Behandlung nach sich zieht.
Unzureichende Sicherheitsmaßnahmen Bei Praxistests werden vielfältige Benutzer und Szenarien möglicherweise nur unzureichend berücksichtigt. Welche Auswirkungen könnte ein Ausfall oder eine nicht ordnungsgemäße Verwendung dieser Technologie auf Personen haben? An welchem Punkt wäre menschliches Eingreifen möglich? Gibt es alternative Verwendungsmöglichkeiten, die nicht getestet wurden? Welche Folgen hätte ein Systemausfall für die Benutzer? Wenn eine Automatiktür bei einer Notfallevakuierung einen Rollstuhl nicht erkennt, hat die betroffene Person möglicherweise keine Fluchtmöglichkeit, falls kein für sie zugänglicher Überbrückungsschalter vorhanden ist.
Belastung durch gesundheitsschädliche Stoffe Die Herstellung und die Entsorgung der Technologie können die Gesundheit und das Wohl von Mitarbeitern und Einwohnern in der näheren Umgebung gefährden. Welche Gefahren könnten von der Fertigung Ihrer Komponenten oder Geräte ausgehen? Unzureichende Sicherheitsmaßnahmen könnten dazu führen, dass Mitarbeiter bei der Herstellung digitaler Komponenten mit Giftstoffen in Kontakt kommen.

Emotionale oder psychische Belastung

Nicht korrekt verwendete Technologie kann zu schweren emotionalen und psychischen Belastungen führen.

Schaden Beschreibung Überlegungen Beispiel
Blindes Vertrauen auf Automatisierung Falsche Vorstellungen könnten dazu führen, dass Benutzer der Zuverlässigkeit einer digitalen Entität mehr vertrauen als der eines Menschen. Wie könnte diese Technologie zur Reduzierung von direktem zwischenmenschlichem Feedback beitragen? Wie könnte diese Technologie mit vertrauenswürdigen Informationsquellen verknüpft werden? Welche Folgen könnte das alleinige Vertrauen auf eine künstliche Entität für eine Person haben? Ein Chatbot könnte für Beziehungsratschläge oder für eine psychologische Beratung herangezogen werden, anstatt einen ausgebildeten Spezialisten zu konsultieren.
Verzerrung der Realität oder Gaslighting Wenn Technologie bewusst missbraucht wird, kann sie das Vertrauen untergraben und die Realitätswahrnehmung einer Person verzerren. Könnte diese Technologie dazu verwendet werden, digitale Medien oder physische Umgebungen zu verändern? Ein IoT-Gerät könnte die Fernüberwachung und -kontrolle eines ehemaligen Intimpartners ermöglichen.
Geringeres Selbstwertgefühl/Rufschädigung Geteilte Inhalte können mitunter schädlich, falsch, irreführend oder verunglimpfend sein. Wie könnte diese Technologie zur unangemessenen Weitergabe persönlicher Informationen verwendet werden? Wie könnte sie manipuliert werden, um Informationsmissbrauch und eine falsche Darstellung von Personen zu ermöglichen? In sogenannten Rachepornos können künstlich Gesichter ausgetauscht werden, um fälschlicherweise den Eindruck zu erwecken, eine Person wäre an einem Video beteiligt gewesen.
Abhängigkeit/Hijacking der Aufmerksamkeit Technologie kann für die Interaktion über einen längeren Zeitraum konzipiert sein, ohne das Wohl des Benutzers im Blick zu haben. Auf welche Weise könnte diese Technologie eine anhaltende Interaktion belohnen oder zu einer solchen Interaktion animieren, ohne einen zusätzlichen Nutzen für den Benutzer zu bieten? Variable Erfolgschancen bei Lootboxen in Videospielen können dazu führen, dass Spieler immer weiter spielen und sich selbst vernachlässigen.
Identitätsdiebstahl Identitätsdiebstahl kann den Verlust der Kontrolle über persönliche Anmeldeinformationen, die eigene Reputation und die Selbstdarstellung zur Folge haben. Wie könnte mit dieser Technologie die Identität einer anderen Person angenommen werden? Wie könnte diese Technologie irrtümlich eine falsche Person als echten Benutzer erkennen? Mithilfe eines synthetischen Voicefonts könnte der Klang der Stimme einer Person imitiert und für den Zugriff auf ein Bankkonto verwendet werden.
Fehlzuschreibung Hierzu gehört unter anderem, dass einer Person Aktionen oder Inhalte zugeschrieben werden, für die sie nicht verantwortlich ist. Wie könnte diese Technologie einer Person oder Gruppe eine Aktion zuschreiben? Welche Auswirkungen könnte es für eine Person haben, wenn ihr fälschlicherweise eine Aktion zugeschrieben wird? Im Rahmen einer polizeilichen Untersuchung könnte eine Person per Gesichtserkennung falsch identifiziert werden.

Verweigerung wichtiger Leistungen

Chancenverlust

Automatisierte Entscheidungen können den Zugang zu Ressourcen, Leistungen und Chancen beschränken, die für das Wohlergehen unerlässlich sind.

Schaden Beschreibung Überlegungen Beispiel
Diskriminierung bei der Einstellung Bestimmten Personen wird unter Umständen auf der Grundlage von Kriterien, die nichts mit der Leistung zu tun haben, die Möglichkeit verweigert, sich für eine Stelle zu bewerben oder eine Stelle zu bekommen. Ist diese Technologie dazu geeignet, beschäftigungsbezogene Empfehlungen oder Entscheidungen zu beeinflussen? Von einer künstlichen Intelligenz für die Personalbeschaffung werden möglicherweise weniger Kandidaten mit weiblich klingenden Namen für Bewerbungsgespräche empfohlen.
Diskriminierung im Zusammenhang mit Wohnraum Hierzu zählen unter anderem Fälle, in denen Personen der Zugang zu Wohnraum oder die Möglichkeit, sich für Wohnraum zu bewerben, verweigert wird. Wie könnte sich diese Technologie auf Empfehlungen oder Entscheidungen im Zusammenhang mit Wohnraum auswirken? Durch einen Wartelistenalgorithmus für Sozialwohnungen könnte es dazu kommen, dass Personen mit ausländisch klingenden Namen länger auf eine Bescheinigung warten müssen.
Diskriminierung im Zusammenhang mit Versicherungen und Leistungen Hierzu zählen unter anderem Fälle, in denen Personen aufgrund von unausgewogenen Standards eine Versicherung, Sozialleistung oder der Zugang zu einer medizinischen Studie verweigert wird. Könnte diese Technologie zur Steuerung des Zugangs zu bzw. der Kosten für oder der Zuteilung von Versicherungs- oder Sozialleistungen verwendet werden? Ein Versicherungsunternehmen könnte aufgrund von algorithmischen Vorhersagen, die bei in der Nachtschicht tätigen Autofahrern auf ein höheres Risiko für das Fahren unter Alkoholeinfluss hindeuten, höhere Prämien verlangen.
Diskriminierung im Bildungsbereich Der Zugang zu Bildung könnte aufgrund eines unveränderlichen Merkmals verweigert werden. Wie könnte diese Technologie dazu verwendet werden, den Zugriff, die Kosten, die Unterbringung oder andere Ergebnisse im Zusammenhang mit der Bildung zu steuern? Von einem Emotionsklassifizierer könnte fälschlicherweise gemeldet werden, dass farbige Schüler und Studenten weniger fleißig sind als weiße Schüler und Studenten, was zu schlechteren Noten führt.
Digitale Spaltung/technologische Diskriminierung Einige Personen können ggf. weniger von den technologischen Vorteilen profitieren als andere und sind daher möglicherweise schlechter informiert oder bei der gesellschaftlichen Teilhabe benachteiligt. Welche Kenntnisse sind erforderlich bzw. welche Ausstattung oder Konnektivität wird benötigt, um diese Technologie optimal nutzen zu können? Welche Auswirkungen können dadurch entstehen, dass bestimmte Personen früher Zugang zu dieser Technologie haben als andere (im Hinblick auf Ausstattung, Konnektivität oder andere Produktfunktionen)? Eine Drosselung von Inhalten könnte dazu führen, dass Schüler/Studenten in ländlichen Gegenden nicht auf Videofeeds ihrer Bildungseinrichtung zugreifen können.
Verlust der Vielfalt/Netzwerk- und Filterblase Hiermit ist gemeint, dass Personen nur Informationen präsentiert werden, die sich mit ihren Ansichten decken und diese verstärken. Wie könnte sich diese Technologie auf die Wahlmöglichkeiten und Informationen auswirken, die Personen zur Verfügung stehen? Welche früheren Verhaltensweisen oder Präferenzen könnten von dieser Technologie zur Vorhersage zukünftiger Verhaltensweisen oder Präferenzen genutzt werden? In einem Newsfeed könnten nur Informationen präsentiert werden, die bereits vorhandene Ansichten bestätigen.

Wirtschaftlicher Verlust

Die Automatisierung von Entscheidungen im Hinblick auf Finanzinstrumente, auf wirtschaftliche Chancen sowie auf Ressourcen kann bereits vorhandene soziale Ungleichheiten verstärken und das Wohlergehen beeinträchtigen.

Schaden Beschreibung Überlegungen Beispiel
Diskriminierung im Kreditwesen Personen wird unter Umständen auf der Grundlage von Kriterien, die nichts mit wirtschaftlichen Aspekten zu tun haben, der Zugang zu Finanzinstrumenten verweigert. Inwiefern könnte diese Technologie bei der Entscheidungsfindung auf bestehende Kreditstrukturen zurückgreifen? Wie könnte sich diese Technologie auf die Kreditwürdigkeit einer Person oder Gruppe auswirken? Angebote mit höheren Einstiegstarifen könnten nur an Haushalte in Postleitzahlbereichen mit niedrigerem sozioökonomischem Status versendet werden.
Unterschiedliche Preise für Waren und Dienstleistungen Waren oder Dienstleistungen können aus Gründen, die nicht mit der Produktion oder Bereitstellung zusammenhängen, zu unterschiedlichen Preisen angeboten werden. Wie könnte diese Technologie verwendet werden, um die Preise für Waren oder Dienstleistungen zu steuern? Welche Kriterien werden bei der Bestimmung der Kosten für Personen herangezogen, die diese Technologie verwenden? Für Produkte könnte abhängig vom Geschlecht der Zielgruppe ein höherer Preis verlangt werden.
Wirtschaftliche Ausbeutung Menschen können durch Nötigung oder Täuschung dazu gebracht werden, an etwas zu arbeiten, was ihre Würde verletzt oder ihrem Wohlergehen schadet. Welche Rolle haben menschliche Arbeitskräfte bei der Generierung von Trainingsdaten für diese Technologie gespielt? Wie wurden diese Arbeitskräfte gewonnen? Welche Rolle spielen menschliche Arbeitskräfte bei der Unterstützung dieser Technologie? Wo kommen diese Arbeitskräfte voraussichtlich her? Bezahlung notleidender Menschen für ihre biometrischen Daten, um KI-Systeme zu trainieren
Abwertung menschlichen Know-hows Technologie kann zu einer Verdrängung menschlicher Experten oder Arbeitskräfte führen. Wie könnte sich diese Technologie auf den Personalbedarf auswirken? Ärzte/Radiologen werden bei der bildgebenden Diagnostik durch KI ersetzt.

Verletzung von Menschenrechten

Verlust der Würde

Technologie kann Einfluss darauf haben, wie Menschen die Welt und sich gegenseitig wahrnehmen, wie sie miteinander umgehen und welche Wertschätzung sie sich entgegenbringen. Anerkennung und gegenseitiger Respekt zwischen Menschen kann gestört werden.

Schaden Beschreibung Überlegungen Beispiel
Entmenschlichung Der Entzug oder die Herabsetzung oder Verschleierung der Menschlichkeit einer Person. Wie könnte diese Technologie dazu verwendet werden, die Darstellung von Personen zu vereinfachen oder zu abstrahieren? Wie könnte diese Technologie die Unterscheidung zwischen Menschen und der digitalen Welt erschweren? Entitätserkennung und virtuelle Überlagerungen bei der Drohnenüberwachung könnten die gefühlte Verantwortlichkeit bei menschlichen Aktionen senken.
Öffentliche Bloßstellung Hierzu wird unter Umständen privates, vertrauliches oder gesellschaftlich unangemessenes Material einer Person veröffentlicht. Wie könnten Bewegungen oder Aktionen mittels Datenaggregation offengelegt werden? Eine Fitness-App könnte die GPS-Position eines Benutzers in sozialen Medien enthüllen und so die Teilnahme an einem Treffen der anonymen Alkoholiker preisgeben.

Verlust der Freiheit

Die Automatisierung gesetzlicher, gerichtlicher und sozialer Systeme kann die Verstärkung von Urteilsverzerrungen begünstigen und negative Folgen haben.

Schaden Beschreibung Überlegungen Beispiel
Vorhersagenbasierte Überwachung Ableitung von verdächtigem Verhalten oder kriminellen Absichten auf der Grundlage historischer Datensätze. Wie könnte dies eine menschliche Überwachung oder strafrechtliche Entscheidungsprozesse unterstützen oder ersetzen? Ein Algorithmus sagt mehrere Festnahmen für ein Gebiet vorher, woraufhin die Polizei sicherstellt, dass sie diese Zahl erreicht oder übertrifft.
Soziale Kontrolle Konformität kann verstärkt oder gefördert werden, indem menschliches Verhalten öffentlich als positiv oder negativ eingestuft wird. Welche Arten von persönlichen oder verhaltensbezogenen Daten könnten dieser Technologie zugeführt werden? Wie könnten diese erlangt werden? Was ließe sich aus diesen Daten ableiten? Ist es wahrscheinlich, dass diese Technologie dazu genutzt würde, bestimmte Verhaltensweisen zu fördern oder zu unterbinden? Eine autoritäre Regierung nutzt Daten aus sozialen Medien sowie E-Commerce-Daten, um die Vertrauenswürdigkeit von Personen in Abhängigkeit davon zu bestimmen, wo sie einkaufen und mit wem sie ihre Zeit verbringen.
Verlust wirksamer Rechtsmittel Damit ist gemeint, dass es nicht möglich ist, eine Erklärung zu erhalten oder eine Entscheidung anzufechten. Wie können Menschen die von dieser Technologie getroffenen Entscheidungen nachvollziehen? Wie kann eine Person, die diese Technologie nutzt, ihre Entscheidungen erklären? Wie können Personen eine von dieser Technologie getroffene Entscheidung anfechten oder in Frage stellen? Eine automatisierte Entscheidung hinsichtlich einer Freiheitsstrafe oder der Freilassung vor der Gerichtsverhandlung wird dem Beschuldigten gegenüber nicht erklärt.

Verlust der Privatsphäre

Die Informationen, die durch die Nutzung unserer Technologie generiert werden, können verwendet werden, um ohne das Wissen einer Person Fakten zu dieser Person zu ermitteln oder Vermutungen anzustellen.

Schaden Beschreibung Überlegungen Beispiel
Eingriff in das Privatleben Offenlegung von Informationen, die eine Person nicht preisgeben möchte. Wie könnten Informationen von dieser Technologie dazu genutzt werden, Rückschlüsse auf Teile des Privatlebens zu ermöglichen? Wie könnten durch Entscheidungen, die auf diesen Rückschlüssen basieren, Dinge preisgegeben werden, die eine Person nicht öffentlich machen möchte? Eine KI für die Aufgabenverfolgung könnte persönliche Muster überwachen und daraus eine außereheliche Affäre ableiten.
Unfreiwillige Nutzung Damit ist gemeint, dass die Nutzung der Technologie oder Überwachung hingenommen werden muss, um am gesellschaftlichen Leben teilhaben zu können. Inwiefern könnte die Nutzung dieser Technologie eine Voraussetzung für die Teilhabe am gesellschaftlichen Leben oder für die Mitgliedschaft bei einer Organisation sein? In einer Stellenausschreibung ist die biometrische Registrierung bei der Transkriptions-KI für den Konferenzraum eines Unternehmens als Bedingung angegeben.
Einschränkung der Persönlichkeitsentwicklung Das kann bedeuten, dass Menschen sich nicht frei entfalten/entwickeln können. Inwiefern schreibt das System oder Produkt bestimmten Persönlichkeitsmerkmalen eine positive oder negative Bedeutung zu? Wie kann die Verwendung des Produkts oder Systems zur Preisgabe von Informationen gegenüber Instanzen wie der Regierung oder dem Arbeitgeber führen, die einer freien Entwicklung im Wege stehen? Ein intelligentes Besprechungssystem könnte sämtliche Gespräche zwischen Kollegen aufzeichnen (einschließlich persönlicher Coaching- und Mentoring-Sitzungen).
Dauerhafte Speicherung Digitale Dateien oder Datensätze werden möglicherweise nie gelöscht. Welche Daten werden aus diesem Produkt gespeichert, wo werden sie gespeichert, und wer kann darauf zugreifen? Wie lange bleiben Benutzerdaten nach der Interaktion mit der Technologie gespeichert? Wie werden Benutzerdaten aktualisiert oder gelöscht? Die Social Media-Chronik eines Teenagers ist möglicherweise noch lange für Suchabfragen verfügbar, obwohl der Teenager die Plattform längst nicht mehr nutzt.
Verlust der Bewegungs- oder Versammlungsfreiheit Das bedeutet, dass es nicht möglich ist, sich mit der gewünschten Anonymität in der physischen oder virtuellen Welt zu bewegen. Wie könnte diese Technologie dazu verwendet werden, Menschen im physischen und virtuellen Raum zu überwachen? Für die Registrierung bei einem Videospiel könnte ein echter Name erforderlich sein, was Stalking in der realen Welt ermöglicht.

Umweltauswirkungen

Die Umwelt kann durch jede Entscheidung in einem System- oder Produktlebenszyklus beeinflusst werden – vom Umfang des erforderlichen Cloud Computings bis hin zur Verpackung für den Einzelhandel. Umweltveränderungen können Folgen für eine Vielzahl von Menschen haben.

Schaden Beschreibung Überlegungen Beispiel
Abbau/Verknappung von Ressourcen Die Beschaffung der Rohmaterialien für eine Technologie und für deren Energieversorgung hat negative Auswirkungen auf Umwelt und Bewohner. Welche Materialien werden für die Herstellung oder den Betrieb dieser Technologie benötigt? Welcher Energiebedarf besteht im Zusammenhang mit der Herstellung oder dem Betrieb dieser Technologie? Eine örtliche Gemeinde könnte aufgrund des Abbaus seltener Erden für die Herstellung elektronischer Komponenten umgesiedelt werden.
Elektronikschrott Beeinträchtigung der allgemeinen Lebensqualität, da Elektronik nicht repariert, recycelt oder verantwortungsvoll entsorgt werden kann. Wie könnte diese Technologie durch Recycling von Materialen oder durch die Möglichkeit einer Reparatur durch den Benutzer zur Vermeidung von Elektronikschrott beitragen? Inwiefern trägt diese Technologie ggf. zu mehr Elektronikschrott bei, wenn neue Versionen veröffentlicht werden oder die aktuellen/älteren Versionen nicht mehr funktionieren? Giftige Materialien in ausgemusterten Elektronikgeräten könnten in die Wasserversorgung gelangen und die Gesundheit der örtlichen Bevölkerung schädigen.
CO2-Emissionen Nicht optimierte Cloudlösungen können zu unnötigen CO2-Emissionen sowie zu Stromverschwendung führen und so das Klima schädigen. Haben Sie Einblick in den Optimierungsstatus Ihrer Cloudworkloads und -lösungen? Welche Auswirkungen hat Ihre Lösung auf das Klima, und unterscheiden sich diese abhängig von der Region, in der Sie Ihre Workloads bereitstellen? Der Betrieb nicht optimierter oder nicht ordnungsgemäß für Cloudeffizienz konzipierter Lösungen kann das Klima durch unnötige CO2-Emissionen und Stromverschwendung stärker belasten.

Erosion sozialer und demokratischer Strukturen

Manipulation

Die technologiegestützte Erstellung stark personalisierter und manipulativer Umgebungen kann eine gut informierte Bürgerschaft unterminieren sowie das Vertrauen in gesellschaftliche Strukturen untergraben.

Schaden Beschreibung Überlegungen Beispiel
Verbreitung von Fehlinformationen Die Darstellung falscher Informationen als seriöse oder glaubwürdige Informationen. Wie könnten mit dieser Technologie Fehlinformationen generiert werden? Wie könnte sie dazu verwendet werden, glaubwürdig erscheinende Fehlinformationen zu verbreiten? Durch eine künstlich erzeugte mündliche Aussage eines Spitzenpolitikers wird der Ausgang einer Wahl beeinflusst.
Ausnutzung des Verhaltens Die Ausnutzung persönlicher Präferenzen oder Verhaltensmuster, um eine gewünschte Reaktion hervorzurufen. Wie könnten mit dieser Technologie Verhaltensmuster beobachtet werden? Wie könnte diese Technologie zur Förderung dysfunktionaler oder maladaptiver Verhaltensmuster verwendet werden? Die Überwachung von Einkaufsgewohnheiten in einer vernetzten Einzelhandelsumgebung führt zu personalisierten Anreizen für Impulskäufer und Sammler.

Soziale Benachteiligung

Die Auswirkungen, die Technologie auf Menschen hat, haben großen Einfluss auf die Bildung sozialer und wirtschaftlicher Strukturen in Gemeinschaften. Dies kann zur Verfestigung von Strukturen führen, durch die bestimmte Personen einbezogen werden oder profitieren, während andere Personen auf der Strecke bleiben.

Schaden Beschreibung Überlegungen Beispiel
Verstärkung ungleicher Machtverhältnisse Dies kann dazu führen, dass bereits vorhandene Klassenunterschiede oder Unterschiede bei Privilegien bewahrt werden. Wie könnte diese Technologie in einem Kontext mit sozialen, wirtschaftlichen oder klassenbezogenen Unterschieden verwendet werden? Wie könnte die Technologie durch Personen mit mehr Macht oder Privilegien unverhältnismäßig beeinflusst werden? Wenn für die Registrierung bei einer Website für die Stellensuche eine Wohnanschrift und eine Telefonnummer angegeben werden müssen, könnte dies dazu führen, dass sich eine obdachlose Person nicht bewerben kann.
Verstärkung von Klischees Dies kann dazu führen, dass eine gängige Meinung zu historisch oder statistisch unterrepräsentierten Personen aufrechterhalten wird. Wie könnte diese Technologie dazu verwendet werden, vorhandene soziale Standards oder kulturelle Klischees zu festigen oder zu verstärken? Wie könnten die von dieser Technologie verwendeten Daten zu einer voreingenommenen oder klischeehaften Darstellung beitragen? Bei einer Bildersuche mit dem Suchbegriff „CEO“ könnten hauptsächlich Fotos von weißen Männern zurückgegeben werden.
Verlust der Individualität Damit kann gemeint sein, dass es nicht möglich ist, eine individuelle Sichtweise zum Ausdruck zu bringen. Wie könnte diese Technologie Mehrheitsmeinungen oder Gruppendenken verstärken? Oder andersherum gefragt: Wie könnten individuelle Ausdrucksformen unterdrückt werden? Wie könnten die von dieser Technologie gesammelten Daten in Feedback für Personen verwendet werden? Eingeschränkte Anpassungsmöglichkeiten bei der Gestaltung eines Videospielavatars führen dazu, dass ein Spieler seine Diversität nicht zum Ausdruck bringen kann.
Verlust der Repräsentierung Weit gefasste Verallgemeinerungskategorien können dazu führen, dass echte Identitäten verschleiert werden, an Wert verlieren oder ganz beseitigt werden. Wie könnten Identitätsoptionen durch diese Technologie eingeschränkt werden? Kann die Technologie zur automatischen Kennzeichnung oder Kategorisierung von Personen verwendet werden? Bei der automatischen Beschriftung eines Fotos werden der abgebildeten Person eine falsche Geschlechtsidentität und ein falsches Alter zugeschrieben.
Bequemlichkeit und Abbau von Fähigkeiten Blindes Vertrauen in die Automatisierung führt zur Verkümmerung manueller Fähigkeiten. Inwiefern könnte diese Technologie die Zugänglichkeit manueller Steuerungen sowie die Fähigkeit zur Verwendung solcher Steuerungen beeinträchtigen? Blindes Vertrauen in die Automatisierung könnte dazu führen, dass Piloten die tatsächliche Flugrichtung nicht ermitteln können, da sie sich aufgrund ihrer Ausbildung nur auf die Instrumente verlassen.

Auswerten der Schäden

Nachdem Sie eine umfassende Liste potenzieller Schäden erstellt haben, müssen Sie zur Vervollständigung des Schadensmodells das potenzielle Ausmaß der einzelnen Schadenskategorien auswerten. Dadurch können Sie Ihre Schwerpunktbereiche priorisieren. Im Anschluss finden Sie ein exemplarisches Schadensmodell als Referenz:

Faktor Definition
Schweregrad Wie stark könnte das Wohl einer Person oder Gruppe durch die Technologie beeinträchtigt werden?
Skalieren In welchem Umfang könnte die Beeinträchtigung des Wohls in der Bevölkerung oder in Gruppen spürbar sein?
Probability Wie hoch ist die Wahrscheinlichkeit, dass das Wohl einer Person oder Gruppe durch die Technologie beeinträchtigt wird?
Häufigkeit Wie oft könnte das Wohl einer Person oder Gruppe durch die Technologie spürbar beeinträchtigt werden?

Nächste Schritte

Beziehen Sie das von Ihnen entwickelte Schadensmodell in Ihre Produktentwicklung mit ein:

  • Holen Sie weitere Informationen von potenziell Betroffenen ein.
  • Entwickeln und überprüfen Sie die Hypothesen für Maßnahmen in den Bereichen, in denen Sie ein besonders hohes Schadenspotenzial ermittelt haben.
  • Lassen Sie die Erkenntnisse während des gesamten Technologieentwicklungsprozesses in Ihre Entscheidungen einfließen – von der Datensammlung und dem Modelltraining über die Systemarchitektur, die Gestaltung der Benutzeroberfläche, die Produktdokumentation und Feedbackschleifen bis hin zu Kommunikationsfunktionen und Einschränkungen der Technologie.
  • Machen Sie sich mit dem Communityforum vertraut.
  • Beurteilen und mindern Sie Unfairness mithilfe von Azure Machine Learning und dem Open-Source-basierten Fairlearn-Paket.

Weitere Tools für verantwortungsvolle KI:

Zusätzliche Referenzen: