Sdílet prostřednictvím


Zodpovědná a důvěryhodná AI

Microsoft popisuje šest klíčových principů zodpovědné umělé inteligence: odpovědnost, inkluzivnost, spolehlivost a bezpečnost, nestrannost, transparentnost a ochranu osobních údajů a zabezpečení. Tyto principy jsou nezbytné k vytvoření zodpovědné a důvěryhodné umělé inteligence při přesunu do běžných produktů a služeb. Řídí se dvěma perspektivami: etickými a vysvětlitelnými.

Diagram zodpovědných principů umělé inteligence

Etický

Z etického hlediska by AI měla:

  • Buďte v kontrolních výrazech spravedliví a inkluzivní.
  • Buďte zodpovědní za svá rozhodnutí.
  • Nerozlišovat nebo bránit různým rasám, zdravotním postižením nebo pozadím.

V roce 2017 společnost Microsoft vytvořila poradní výbor pro AI, etiku a účinky v oblasti technického a výzkumného Aethera. Klíčovou odpovědností výboru je poradit o problémech, technologiích, procesech a osvědčených postupech odpovědných za AI.

Odpovědnost

Odpovědnost je základním pilířem zodpovědné umělé inteligence. Lidé, kteří navrhují a nasazují systém AI, musí být zodpovědní za své akce a rozhodnutí, zejména když postupujeme směrem k autonomním systémům.

Organizace by měly zvážit vytvoření interního kontrolního orgánu, který poskytuje dohled, přehledy a pokyny k vývoji a nasazování systémů AI. Tyto pokyny se můžou lišit v závislosti na společnosti a oblasti a měly by odrážet cestu k umělé inteligenci organizace.

Inkluzivnost

Inkluzivnost vyžaduje, aby AI zvážila všechny lidské rasy a zkušenosti. Postupy inkluzivního návrhu můžou vývojářům pomoct pochopit a řešit potenciální překážky, které by mohly neúmyslně vyloučit lidi. Pokud je to možné, organizace by měly používat technologii pro převod řeči na text, řeč na řeč a vizuální rozpoznávání, aby lidem s vadami sluchu, zraku a jiným postižením umožnila.

Spravedlnost

Nestrannost je základním etickým principem, který se snaží všichni lidé pochopit a použít. Tento princip je ještě důležitější při vývoji systémů AI. Klíčové kontroly a rovnováhy musí zajistit, aby se rozhodnutí systému nerozlišovalo nebo vyjádřilo předsudky vůči skupině nebo jednotlivci na základě pohlaví, rasy, sexuální orientace nebo náboženství.

Microsoft poskytuje kontrolní seznam pro AI spravedlnosti, který nabízí pokyny a řešení pro systémy AI. Tato řešení jsou volně rozdělená do pěti fází: představa, prototyp, sestavení, spuštění a vývoj. Každá fáze uvádí doporučené aktivity due-pečlivě, které pomáhají minimalizovat dopad nespravedlivosti v systému.

Fairlearn se integruje se službou Azure Machine Learning a podporuje datové vědce a vývojáře k posouzení a zlepšení spravedlnosti svých systémů AI. Poskytuje algoritmy pro zmírnění nespravedlivosti a interaktivní řídicí panel, který vizualizuje nestrannost modelu. Organizace by měla tuto sadu nástrojů používat a při vytváření modelu pečlivě posoudit nestrannost modelu. Tato aktivita by měla být nedílnou součástí procesu datových věd.

Zjistěte, jak zmírnit nespravedlivost v modelech strojového učení.

Spolehlivost a zabezpečení

Aby systémy AI byly důvěryhodné, musí být spolehlivé a bezpečné. Je důležité, aby systém fungoval tak, jak byl původně navržen, a aby bezpečně reagoval na nové situace. Jeho vlastní odolnost by měla bránit zamýšlené nebo neúmyslné manipulaci.

Organizace by měla zavést důkladné testování a ověřování provozních podmínek, aby systém bezpečně reagoval na hraniční případy. Měla by integrovat metody testování A/B a šampióna/challengeru do procesu hodnocení.

Výkon systému AI může v průběhu času snížit. Organizace potřebuje vytvořit robustní proces monitorování a sledování modelů, který bude reaktivně a proaktivně měřit výkon modelu (a podle potřeby ho znovu vytrénovat pro modernizaci).

Vysvětlitelný

Vysvětlitelnost pomáhá datovým vědcům, auditorům a pracovníkům s rozhodovací pravomocí zajistit, aby systémy AI mohly ospravedlnit svá rozhodnutí a jejich dosažení závěrů. Vysvětlitelnost také pomáhá zajistit soulad se zásadami společnosti, oborovými standardy a vládními předpisy.

Datový vědec by měl být schopný vysvětlit účastníkům, jak dosáhl určitých úrovní přesnosti a co ovlivnilo výsledek. Stejně tak, aby bylo v souladu se zásadami společnosti, auditor potřebuje nástroj, který model ověří. Podniková rozhodovací společnost potřebuje získat důvěru tím, že poskytuje transparentní model.

Nástroje pro vysvětlení

Microsoft vyvinul InterpretML, opensourcovou sadu nástrojů, která organizacím pomáhá dosáhnout vysvětlitelnosti modelu. Podporuje modely skleněné krabice a černé skříňky:

  • Modely skla jsou interpretovatelné z důvodu jejich struktury. Pro tyto modely poskytuje vysvětlitelný boosting machine (EBM) stav algoritmu na základě rozhodovacího stromu nebo lineárních modelů. EBM poskytuje bezeztrátová vysvětlení a je upravitelná odborníky na doménu.

  • Černobílé modely jsou náročnější na interpretaci kvůli složité vnitřní struktuře, neurální síti. Vysvětlení, jako je místní interpretovatelné vysvětlení nezávislé na modelu (LIME) nebo SHapley Additive exPlanations (SHAP), interpretují tyto modely analýzou vztahu mezi vstupem a výstupem.

Fairlearn je integrace služby Azure Machine Learning a opensourcová sada nástrojů pro sadu SDK a grafické uživatelské rozhraní AutoML. Používá vysvětlení k pochopení toho, co hlavně ovlivňuje model, a k ověření těchto vlivů používá odborníky na domény.

Další informace o vysvětlitelnosti najdete v tématu interpretovatelnost modelů ve službě Azure Machine Learning.

Transparency

Dosažení transparentnosti pomáhá týmu pochopit:

  • Data a algoritmy použité k trénování modelu.
  • Logika transformace použitá na data.
  • Poslední vygenerovaný model.
  • Přidružené prostředky modelu.

Tyto informace nabízejí přehledy o tom, jak byl model vytvořen, aby ho tým mohl transparentně reprodukovat. Snímky v pracovních prostorech Azure Machine Learning podporují transparentnost zaznamenáváním nebo opětovným trénováním všech prostředků a metrik souvisejících s trénováním, které jsou součástí experimentu.

Ochrana osobních údajů a zabezpečení

Držitel údajů je povinen chránit data v systému AI. Ochrana osobních údajů a zabezpečení jsou nedílnou součástí tohoto systému.

Osobní údaje musí být zabezpečené a přístup k němu by neměl ohrozit soukromí jednotlivce. Rozdílová ochrana osobních údajů v Azure pomáhá chránit a zachovat ochranu osobních údajů náhodným nastavením dat a přidáním šumu pro skrytí osobních údajů od datových vědců.

Pokyny pro lidskou AI

Pokyny pro návrh lidské umělé inteligence se skládají z 18 principů, ke kterým dochází během čtyř období: zpočátku během interakce, při nesprávném stavu a v průběhu času. Tyto principy pomáhají organizaci vytvářet inkluzivnější a lidsky orientovaný systém AI.

Initially (Na začátku)

  • Objasnění toho, co systém může dělat. Pokud systém AI používá nebo generuje metriky, je důležité jim ukázat všechny a způsob jejich sledování.

  • Objasněte si, jak dobře může systém dělat to, co dělá. Pomozte uživatelům pochopit, že AI není úplně přesná. Nastavte očekávání pro to, kdy systém AI může dělat chyby.

Během interakce

  • Umožňuje zobrazit kontextově relevantní informace. Zadejte vizuální informace související s aktuálním kontextem a prostředím uživatele, jako jsou například hotely v okolí. Vrátí podrobnosti blízko cílového cíle a data.

  • Zmírnění sociálních předsudků Ujistěte se, že jazyk a chování nezavádějí nezamýšlené stereotypy nebo předsudky. Například funkce automatického dokončování musí být inkluzivní z genderové identity.

Pokud je chyba

  • Podpora efektivního zavření Poskytněte snadný mechanismus pro ignorování nebo zavření nežádoucích funkcí nebo služeb.
  • Podpora efektivní opravy. Poskytuje intuitivní způsob, jak usnadnit úpravy, zpřesnění nebo obnovení.
  • Jasně, proč systém udělal to, co udělal. Optimalizujte vysvětlitelnou AI a nabídněte přehledy o kontrolních výrazech systému AI.

Přesčas

  • Zapamatujte si nedávné interakce. Uchovávejte historii interakcí pro budoucí referenci.
  • Seznamte se s chováním uživatelů. Přizpůsobení interakce na základě chování uživatele
  • Aktualizujte a přizpůsobte se opatrně. Omezte rušivé změny a aktualizujte je na základě profilu uživatele.
  • Povzbuďte podrobnou zpětnou vazbu. Shromážděte zpětnou vazbu uživatelů ze svých interakcí se systémem AI.

Důvěryhodná architektura AI

Diagram architektury AI zaměřené na osoby

Návrhář AI

Návrhář AI sestaví model a zodpovídá za:

  • Posun dat a kontroly kvality Návrhář detekuje odlehlé hodnoty a provádí kontroly kvality dat za účelem identifikace chybějících hodnot. Návrhář také standardizuje distribuci, kontroluje data a vytváří případy použití a sestavy projektů.

  • Posouzení dat ve zdroji systému za účelem identifikace potenciálních předsudků

  • Navrhování algoritmů AI pro minimalizaci předsudků dat Mezi tyto snahy patří zjištění, jak binning, seskupování a normalizace (zejména v tradičních modelech strojového učení, jako jsou stromové modely), může odstranit menšinové skupiny z dat. Kategorický návrh umělé inteligence znovu opakuje data tím, že seskupuje sociální, rasové a genderové třídy ve svislých odvětvích, které spoléhají na chráněné zdravotní informace (PHI) a osobní údaje.

  • Optimalizace monitorování a výstrah pro identifikaci cílového úniku a posílení vývoje modelu

  • Vytvoření osvědčených postupů pro vytváření sestav a přehledů, které nabízejí podrobné znalosti modelu. Návrhář se vyhýbá přístupům černé skříňky, které používají důležitost funkcí nebo vektorů, clustering uniform manifold a projekce (UMAP), friedmanovu H-statistiku, efekty funkcí a související techniky. Identifikační metriky pomáhají definovat prediktivní vliv, vztahy a závislosti mezi korelacemi v komplexních a moderních datových sadách.

Správce AI a důstojníci

Správci a správci AI dohlíží na operace a metriky výkonu architektury AI, zásad správného řízení a auditování. Také dohlížejí na to, jak se implementuje zabezpečení AI, a návratnost investic firmy. Mezi jejich úkoly patří:

  • Monitorování řídicího panelu sledování, který pomáhá monitorování modelů a kombinuje metriky modelu pro produkční modely. Řídicí panel se zaměřuje na přesnost, snížení výkonu modelu, posun dat, odchylku a změny rychlosti a chyby odvozování.

  • Implementace flexibilního nasazení a opětovného nasazení (nejlépe prostřednictvím rozhraní REST API), která umožňuje implementaci modelů do otevřené nezávislé architektury. Architektura integruje model s obchodními procesy a generuje hodnotu pro smyčky zpětné vazby.

  • Pracujeme na vytváření zásad správného řízení modelu a přístupu k nastavením hranic a zmírnění negativních obchodních a provozních dopadů. Standardy řízení přístupu na základě role (RBAC) určují kontrolní mechanismy zabezpečení, které zachovávají omezená produkční prostředí a IP adresu.

  • Použití architektury auditu a dodržování předpisů AI ke sledování toho, jak modely vyvíjejí a mění, aby se zachovaly standardy specifické pro dané odvětví. Interpretovatelná a zodpovědná AI je založena na mírách vysvětlení, stručných funkcích, vizualizacích modelů a svislém jazyce.

Firemní spotřebitelé umělé inteligence

Firemní spotřebitelé AI (obchodní odborníci) uzavře smyčku zpětné vazby a poskytují vstup pro návrháře AI. Prediktivní rozhodování a potenciální důsledky předsudků, jako jsou nestrannost a etické opatření, ochrana osobních údajů a dodržování předpisů a obchodní efektivita, pomáhají vyhodnotit systémy AI. Tady jsou některé aspekty pro firemní spotřebitele:

  • Smyčky zpětné vazby patří do ekosystému firmy. Data ukazující předsudky, chyby, rychlost předpovědi a nestrannost modelu vytvářejí důvěru a rovnováhu mezi návrhářem AI, správcem a důstojníky. Hodnocení zaměřené na člověka by mělo postupně zlepšit AI v průběhu času.

    Minimalizace učení umělé inteligence z multidimenzionálních a složitých dat může pomoct zabránit zkresleným učením. Tato technika se nazývá učení s menším než jedním snímkem (LO-shot).

  • Použití návrhu interpretability a nástrojů obsahuje systémy AI zodpovědné za potenciální předsudky. Problémy s předsudky a nestranností modelu by měly být označeny a předány systému pro výstrahy a detekci anomálií, který se z tohoto chování učí a automaticky řeší předsudky.

  • Každá prediktivní hodnota by se měla rozdělit na jednotlivé vlastnosti nebo vektory podle důležitosti nebo dopadu. Měla by poskytovat důkladné vysvětlení predikcí, které je možné exportovat do obchodní sestavy pro účely kontrol auditu a dodržování předpisů, transparentnosti zákazníků a obchodní připravenosti.

  • Vzhledem ke zvýšení globálních rizik zabezpečení a ochrany osobních údajů vyžadují osvědčené postupy pro řešení porušení předpisů během odvozování dodržování předpisů v jednotlivých odvětvích. Mezi příklady patří výstrahy týkající se nedodržení předpisů phI a osobních údajů nebo výstrahy týkající se porušení vnitrostátních/regionálních bezpečnostních zákonů.

Další kroky

Prozkoumejte pokyny pro lidskou AI a získejte další informace o zodpovědné umělé inteligenci.