Sdílet prostřednictvím


Důvěryhodná AI pro Azure AI Foundry

Tento článek obsahuje přehled prostředků pro sestavování a nasazování důvěryhodných agentů. To zahrnuje kompletní zabezpečení, pozorovatelnost a zásady správného řízení s ovládacími prvky a kontrolními body ve všech fázích životního cyklu agenta. Naše doporučené základní kroky vývoje jsou zakotveny v standardu Microsoft Responsible AI Standard, který nastavuje požadavky na zásady, které následují naše vlastní technické týmy. Většina obsahu standardu se řídí vzorem a žádá týmy o zjištění, ochranu a řízení potenciálních rizik obsahu.

V Microsoftu se náš přístup řídí architekturou zásad správného řízení, která je kořenem principů AI, která stanoví požadavky na produkty a slouží jako naše "severní hvězda". Když identifikujeme obchodní případ použití pro generování umělé inteligence, nejprve zjistíme a posoudíme potenciální rizika systému AI, abychom určili kritické oblasti zaměření.

Jakmile tato rizika identifikujeme, vyhodnotíme jejich prevalenci v systému AI prostřednictvím systematického měření, což nám pomáhá určit prioritu oblastí, které vyžadují pozornost. Pak na úrovni modelu a agenta použijeme odpovídající ochranu proti těmto rizikům.

Nakonec prozkoumáme strategie pro řízení rizik v produkčním prostředí, včetně nasazení a provozní připravenosti a nastavení monitorování, které podporuje a kontinuitu řízení, aby se zajistilo dodržování předpisů a odhalila nová rizika po spuštění aplikace.

V souladu s postupy RAI společnosti Microsoft jsou tato doporučení uspořádaná do tří fází:

  • Seznamte se s riziky kvality, bezpečnosti a zabezpečení agenta před nasazením a po nasazení.
  • Chraňte – na úrovni výstupu modelu i modulu runtime agenta – proti rizikům zabezpečení, nežádoucím výstupům a nebezpečným akcím.
  • Řízení agentů prostřednictvím nástrojů pro trasování a monitorování a integrací dodržování předpisů

Výstrahy zabezpečení a doporučení

Výstrahy a doporučení zabezpečení v programu Defender for Cloud můžete zobrazit, abyste zlepšili stav zabezpečení v části Rizika a výstrahy . Výstrahy zabezpečení jsou oznámení generovaná plánem Defenderu for AI Services, když jsou hrozby identifikovány ve vašich úlohách AI. Tyto výstrahy můžete řešit na webu Azure Portal nebo na portálu Defender.

Další informace o zodpovědné umělé inteligenci