Sdílet prostřednictvím


Přijetí zodpovědných a důvěryhodných principů AI

Mezi šest klíčových principů zodpovědné umělé inteligence v Microsoftu patří nestrannost, spolehlivost a bezpečnost, ochrana osobních údajů a zabezpečení, inkluzivnost, transparentnost a odpovědnost. Pomocí těchto principů můžete vytvořit zodpovědnou a důvěryhodnou AI při integraci do běžných produktů a služeb v průběhu přechodu na AI.

Zodpovědné principy AI

Společnost Microsoft se zavazuje posílit zodpovědné postupy umělé inteligence.

Šest klíčových principů definuje zodpovědnou AI:

  • Nestrannost: Systémy AI by měly zacházet se všemi stejně a poskytovat stejná doporučení všem jednotlivcům. Nestrannost systémů AI brání diskriminaci na základě osobních charakteristik.

  • Spolehlivost a bezpečnost: Systémy AI musí spolehlivě, bezpečně a konzistentně fungovat za různých podmínek, aby pomohly vybudovat důvěru.

  • Ochrana osobních údajů a zabezpečení: Systémy AI by měly respektovat ochranu osobních údajů a udržovat zabezpečení tím, že chrání soukromé a důvěrné informace. Měly by také odolat útokům a pokusům o poškození nebo ohrožení systému.

  • Inkluzivnost: Systémy umělé inteligence by měly umožnit a zapojit všechny uživatele. Inkluzivní postupy návrhu můžou vývojářům systému AI pomoct pochopit a řešit potenciální překážky vyloučení v produktu nebo službě. Inkluzivnost podporuje inovace a pomáhá navrhovat prostředí, která mají prospěch všem.

  • Transparentnost: Systémy umělé inteligence by měly být transparentní a srozumitelné. Systémy AI můžou informovat rozhodnutí, která mohou hluboce ovlivnit životy lidí, takže je pro jednotlivce zásadní pochopit, jak systém tato rozhodnutí provádí.

  • Odpovědnost: Systémy AI a jejich vývojáři by měly být zodpovědné a srozumitelné.

Začleňte zodpovědné principy AI v rámci cesty přechodu na AI– od strategie a plánování až po implementaci. Ujistěte se, že tyto zásady použijete při zabezpečení, správě a řízení iniciativ umělé inteligence.

Diagram znázorňující, jak zodpovědná AI je základem pro veškerou práci s AI napříč metodologiemi v rámci architektury přechodu na cloud pro Azure

Tyto pokyny k přechodu na AI zahrnují příklady použití architektury přechodu na cloud pro Azure k implementaci zodpovědných postupů AI. Zásady zodpovědné umělé inteligence jsou v rámci této cesty přechodu na AI integrované do pokynů a doporučení.

Důležitost zodpovědné umělé inteligence

Zodpovědná AI pomáhá zmírnit následující rizika:

  • Nezamýšlené důsledky: Naplánujte a dohlížejte na implementaci zodpovědné umělé inteligence, abyste snížili riziko nepředvídatelných účinků, které mají etické důsledky.

  • Vyvíjející se hrozby: Nové hrozby se pravidelně objevují při vývoji technologií umělé inteligence. Pokud chcete tyto hrozby zmírnit a držet před sebou, dodržujte zásady zodpovědné umělé inteligence.

  • Předsudky: Zmírnění předsudků v AI může být náročné, ale je nezbytné zajistit, aby systémy AI byly spravedlivé a nestranné. Využijte zodpovědné principy AI, které vám pomůžou.

  • Citlivé technologie: Technologie, jako je rozpoznávání obličeje, mohou být považovány za citlivé technologie z důvodu rizika základních svobod a lidských práv. Zvažte důsledky těchto technologií, abyste zajistili, že je budete používat zodpovědně.

Usnadnění azure

Microsoft Azure poskytuje řadu nástrojů, služeb a prostředků, které vám pomůžou vytvářet zodpovědné systémy AI.

Použití Microsoft Azure AI Content Safety k vytváření bezpečných systémů

Pomocí Microsoft Azure AI Content Safety detekujte škodlivý uživatelem generovaný a generovaný obsah AI v aplikacích a službách. Zabezpečení obsahu pomáhá analyzovat vygenerovaný obsah v aplikacích umělé inteligence, včetně textu a obrázků, a zajistit tak, aby byl bezpečný a vhodný pro vaše uživatele. Zabezpečení obsahu poskytuje následující možnosti:

  • Vyzývat štíty prohledává text a dokumenty za riziko útoku na uživatelský vstup nebo jailbreak ve velkém jazykovém modelu (LLM).

  • Detekce uzemnění zjistí, jestli jsou textové odpovědi LLM uzemněné ve zdrojových materiálech, které uživatelé poskytují.

  • Detekce chráněných materiálů zjistí, jestli textové odpovědi LLM obsahují chráněný materiál, například text chráněný autorským právem, text skladby, články a webový obsah.

  • Rozhraní API vlastních kategorií (rychlé) definuje vznikající škodlivé vzory obsahu a kontroluje shody textu a obrázků.

  • Rozhraní API pro analýzu textu analyzuje potenciálně škodlivý textový obsah. Obvykle identifikuje kategorie, jako je nenávist, sebepoškozování a sexuální nebo násilné obsah.

  • Rozhraní API pro analýzu obrázků analyzuje potenciální škodlivý obsah obrázku. Obvykle identifikuje kategorie, jako je nenávist, sebepoškozování a sexuální nebo násilné obsah.

Zodpovědné používání AI ve službách Azure AI

Microsoft poskytuje seznam poznámek k transparentnosti pro služby Azure relevantní pro AI. Seznam zahrnuje služby v sadě služeb Azure AI. Další informace najdete v tématu Zodpovědné používání AI se službami Azure AI.

Použití řídicího panelu Zodpovědné AI pro Azure Machine Learning

Pokud vytváříte systémy pomocí služby Azure Machine Learning, můžete k posouzení systémů AI použít řídicí panel Zodpovědné AI. Řídicí panel zodpovědné umělé inteligence poskytuje jedno rozhraní, které vám pomůže implementovat zodpovědné principy AI. Mezi funkce zodpovědné umělé inteligence patří:

  • Analýza dat: Seznamte se s distribucemi a statistikami datových sad a prozkoumejte je.

  • Přehled modelu a posouzení nestrannosti: Vyhodnoťte výkon modelu a problémy se skupinami modelu.

  • Analýza chyb: Umožňuje zobrazit a pochopit, jak se chyby distribuují ve vaší datové sadě.

  • Interpretovatelnost modelu: Porozumíte předpovědím modelu a způsobu, jakým model vytváří individuální a celkové předpovědi.

  • Kontrafaktuální citlivostní analýza: Sledujte, jak změny funkcí můžou ovlivnit předpovědi modelu.

  • Kauzální analýza: Pomocí historických dat můžete zobrazit kauzální účinky funkcí léčby na reálné výsledky.

Zodpovědně vyvíjet AI

Resource Popis
Praktické nástroje pro vytváření efektivních zkušeností s lidskou AI (HAX) V rané fázi procesu návrhu použijte sadu HAX Toolkit, která vám pomůže konceptualizovat, co systém AI dělá a jak se chová. Sada HAX Toolkit se používá pro produkty umělé inteligence určené pro uživatele.
Pokyny pro konverzační AI Navrhovat roboty způsobem, který získá důvěru ostatních, aby pomohl lidem a společnosti realizovat jejich plný potenciál. Pomocí těchto pokynů vytvořte robota, který vytváří důvěru ve společnost a službu, kterou představuje.
Pokyny pro inkluzivní návrh AI Tyto pokyny vám pomůžou navrhnout AI, která je inkluzivní a přístupná všem.
Kontrolní seznam pro nestrannost AI Kontrolní seznam pro nestrannost AI slouží k určení, jestli je váš systém AI spravedlivý a nestranný.
Zodpovědná AI ve službě Machine Learning Pokud k vytváření systémů AI používáte Machine Learning, projděte si tyto zodpovědné prostředky AI.

Další krok