Přijetí zodpovědných a důvěryhodných principů AI
Mezi šest klíčových principů zodpovědné umělé inteligence v Microsoftu patří nestrannost, spolehlivost a bezpečnost, ochrana osobních údajů a zabezpečení, inkluzivnost, transparentnost a odpovědnost. Pomocí těchto principů můžete vytvořit zodpovědnou a důvěryhodnou AI při integraci do běžných produktů a služeb v průběhu přechodu na AI.
Zodpovědné principy AI
Společnost Microsoft se zavazuje posílit zodpovědné postupy umělé inteligence.
Šest klíčových principů definuje zodpovědnou AI:
Nestrannost: Systémy AI by měly zacházet se všemi stejně a poskytovat stejná doporučení všem jednotlivcům. Nestrannost systémů AI brání diskriminaci na základě osobních charakteristik.
Spolehlivost a bezpečnost: Systémy AI musí spolehlivě, bezpečně a konzistentně fungovat za různých podmínek, aby pomohly vybudovat důvěru.
Ochrana osobních údajů a zabezpečení: Systémy AI by měly respektovat ochranu osobních údajů a udržovat zabezpečení tím, že chrání soukromé a důvěrné informace. Měly by také odolat útokům a pokusům o poškození nebo ohrožení systému.
Inkluzivnost: Systémy umělé inteligence by měly umožnit a zapojit všechny uživatele. Inkluzivní postupy návrhu můžou vývojářům systému AI pomoct pochopit a řešit potenciální překážky vyloučení v produktu nebo službě. Inkluzivnost podporuje inovace a pomáhá navrhovat prostředí, která mají prospěch všem.
Transparentnost: Systémy umělé inteligence by měly být transparentní a srozumitelné. Systémy AI můžou informovat rozhodnutí, která mohou hluboce ovlivnit životy lidí, takže je pro jednotlivce zásadní pochopit, jak systém tato rozhodnutí provádí.
Odpovědnost: Systémy AI a jejich vývojáři by měly být zodpovědné a srozumitelné.
Začleňte zodpovědné principy AI v rámci cesty přechodu na AI– od strategie a plánování až po implementaci. Ujistěte se, že tyto zásady použijete při zabezpečení, správě a řízení iniciativ umělé inteligence.
Tyto pokyny k přechodu na AI zahrnují příklady použití architektury přechodu na cloud pro Azure k implementaci zodpovědných postupů AI. Zásady zodpovědné umělé inteligence jsou v rámci této cesty přechodu na AI integrované do pokynů a doporučení.
Důležitost zodpovědné umělé inteligence
Zodpovědná AI pomáhá zmírnit následující rizika:
Nezamýšlené důsledky: Naplánujte a dohlížejte na implementaci zodpovědné umělé inteligence, abyste snížili riziko nepředvídatelných účinků, které mají etické důsledky.
Vyvíjející se hrozby: Nové hrozby se pravidelně objevují při vývoji technologií umělé inteligence. Pokud chcete tyto hrozby zmírnit a držet před sebou, dodržujte zásady zodpovědné umělé inteligence.
Předsudky: Zmírnění předsudků v AI může být náročné, ale je nezbytné zajistit, aby systémy AI byly spravedlivé a nestranné. Využijte zodpovědné principy AI, které vám pomůžou.
Citlivé technologie: Technologie, jako je rozpoznávání obličeje, mohou být považovány za citlivé technologie z důvodu rizika základních svobod a lidských práv. Zvažte důsledky těchto technologií, abyste zajistili, že je budete používat zodpovědně.
Usnadnění azure
Microsoft Azure poskytuje řadu nástrojů, služeb a prostředků, které vám pomůžou vytvářet zodpovědné systémy AI.
Použití Microsoft Azure AI Content Safety k vytváření bezpečných systémů
Pomocí Microsoft Azure AI Content Safety detekujte škodlivý uživatelem generovaný a generovaný obsah AI v aplikacích a službách. Zabezpečení obsahu pomáhá analyzovat vygenerovaný obsah v aplikacích umělé inteligence, včetně textu a obrázků, a zajistit tak, aby byl bezpečný a vhodný pro vaše uživatele. Zabezpečení obsahu poskytuje následující možnosti:
Vyzývat štíty prohledává text a dokumenty za riziko útoku na uživatelský vstup nebo jailbreak ve velkém jazykovém modelu (LLM).
Detekce uzemnění zjistí, jestli jsou textové odpovědi LLM uzemněné ve zdrojových materiálech, které uživatelé poskytují.
Detekce chráněných materiálů zjistí, jestli textové odpovědi LLM obsahují chráněný materiál, například text chráněný autorským právem, text skladby, články a webový obsah.
Rozhraní API vlastních kategorií (rychlé) definuje vznikající škodlivé vzory obsahu a kontroluje shody textu a obrázků.
Rozhraní API pro analýzu textu analyzuje potenciálně škodlivý textový obsah. Obvykle identifikuje kategorie, jako je nenávist, sebepoškozování a sexuální nebo násilné obsah.
Rozhraní API pro analýzu obrázků analyzuje potenciální škodlivý obsah obrázku. Obvykle identifikuje kategorie, jako je nenávist, sebepoškozování a sexuální nebo násilné obsah.
Zodpovědné používání AI ve službách Azure AI
Microsoft poskytuje seznam poznámek k transparentnosti pro služby Azure relevantní pro AI. Seznam zahrnuje služby v sadě služeb Azure AI. Další informace najdete v tématu Zodpovědné používání AI se službami Azure AI.
Použití řídicího panelu Zodpovědné AI pro Azure Machine Learning
Pokud vytváříte systémy pomocí služby Azure Machine Learning, můžete k posouzení systémů AI použít řídicí panel Zodpovědné AI. Řídicí panel zodpovědné umělé inteligence poskytuje jedno rozhraní, které vám pomůže implementovat zodpovědné principy AI. Mezi funkce zodpovědné umělé inteligence patří:
Analýza dat: Seznamte se s distribucemi a statistikami datových sad a prozkoumejte je.
Přehled modelu a posouzení nestrannosti: Vyhodnoťte výkon modelu a problémy se skupinami modelu.
Analýza chyb: Umožňuje zobrazit a pochopit, jak se chyby distribuují ve vaší datové sadě.
Interpretovatelnost modelu: Porozumíte předpovědím modelu a způsobu, jakým model vytváří individuální a celkové předpovědi.
Kontrafaktuální citlivostní analýza: Sledujte, jak změny funkcí můžou ovlivnit předpovědi modelu.
Kauzální analýza: Pomocí historických dat můžete zobrazit kauzální účinky funkcí léčby na reálné výsledky.
Zodpovědně vyvíjet AI
Resource | Popis |
---|---|
Praktické nástroje pro vytváření efektivních zkušeností s lidskou AI (HAX) | V rané fázi procesu návrhu použijte sadu HAX Toolkit, která vám pomůže konceptualizovat, co systém AI dělá a jak se chová. Sada HAX Toolkit se používá pro produkty umělé inteligence určené pro uživatele. |
Pokyny pro konverzační AI | Navrhovat roboty způsobem, který získá důvěru ostatních, aby pomohl lidem a společnosti realizovat jejich plný potenciál. Pomocí těchto pokynů vytvořte robota, který vytváří důvěru ve společnost a službu, kterou představuje. |
Pokyny pro inkluzivní návrh AI | Tyto pokyny vám pomůžou navrhnout AI, která je inkluzivní a přístupná všem. |
Kontrolní seznam pro nestrannost AI | Kontrolní seznam pro nestrannost AI slouží k určení, jestli je váš systém AI spravedlivý a nestranný. |
Zodpovědná AI ve službě Machine Learning | Pokud k vytváření systémů AI používáte Machine Learning, projděte si tyto zodpovědné prostředky AI. |