Sdílet prostřednictvím


Zabezpečení umělé inteligence

Tento článek vám pomůže vytvořit proces zabezpečení pro úlohy AI v Azure. Zabezpečené prostředí AI podporuje obchodní cíle a vytváří důvěru zúčastněných stran v řešeních umělé inteligence.

Diagram znázorňující 6 fází přechodu na AI: strategie, plán, připraveno, řízení, zabezpečení, správa

Řízení umělé inteligence, správy AI a zabezpečené umělé inteligence jsou průběžné procesy, které musíte pravidelně iterovat. Podle potřeby se můžete znovu vrátit ke každé strategii AI, plánu AI a připravenosti AI.

Zjištění rizik zabezpečení AI

Úlohy AI vytvářejí nové oblasti útoku, které tradiční bezpečnostní opatření nemůžou řešit. Abyste mohli vytvářet efektivní obranu, musíte systematicky vyhodnotit ohrožení zabezpečení specifická pro AI. Postupujte následovně:

  1. Identifikujte rizika systému AI v celém prostředí. Přechod na AI zavádí třídy rizik, které tradiční modelování hrozeb nemusí explicitně řešit. I když už vaše stávající podniková architektura může být schopná modelovat tato rizika, zásady správného řízení AI vyžadují záměrné ověření, že to skutečně dělá. Začněte se zavedenou architekturou modelování hrozeb, například STRIDE. Pak odkazujte na znalostní báze a inventáře rizik specifické pro AI, jako jsou MITRE ATLAS a OWASP Generative AI risk , abyste potvrdili, že se odpovídajícím způsobem řeší techniky útoku specifické pro AI, scénáře zneužití a systémová rizika. Tyto zdroje použijte k doplnění, nikoli nahrazení stávající architektury a k informování konzistentní identifikace rizik umělé inteligence v celé organizaci.

  2. Vyhodnoťte rizika dat AI v rámci vašich pracovních postupů. Citlivá data v AI pracovních postupech zvyšují riziko hrozeb zevnitř a úniků dat, které mohou ohrozit provoz firmy. Posouzení rizik dat vám pomůže určit prioritu investic do zabezpečení na základě skutečných úrovní expozice. Správa insiderských rizik Microsoft Purview můžete integrovat s dalšími sadami zabezpečení a řešeními, abyste mohli vyhodnotit rizika dat na podnikové úrovni a určit jejich prioritu na základě úrovní citlivosti dat. Může také pomoct s exfiltrací dat založenými na výzev a identifikací rizikových vzorů chování umělé inteligence.

  3. Otestujte modely AI pro ohrožení zabezpečení. Modely AI obsahují jedinečná ohrožení zabezpečení, jako je únik dat, injektáž výzvy a inverze modelu, které útočníci můžou zneužít. Reálné testování odhalí rizika, která statická hodnocení nedokáže rozpoznat. Otestujte modely na zranitelnost pomocí technik prevence ztráty dat a simulací adversářů, a otestujte pomocí červeného týmu jak generativní AI, tak negenerativní modely AI, abyste simulovali skutečné útoky.

  4. Provádění pravidelných posouzení rizik. Nové hrozby se v průběhu času vyvíjejí jako modely AI, vzory využití a aktéři hrozeb. Pravidelné posouzení zajišťují, aby se stav zabezpečení přizpůsobil měnícím se rizikovým prostředím. Spuštěním opakovaných posouzení identifikujte ohrožení zabezpečení v modelech, datových kanálech a prostředích nasazení a využijte závěry posouzení k řízení priorit zmírnění rizik ve všech vašich prostředích.

Ochrana prostředků a dat AI

Systémy AI obsahují cenné prostředky a data, která vyžadují silnou ochranu před neoprávněným přístupem a útoky. Abyste tyto důležité prostředky ochránili, musíte implementovat konkrétní bezpečnostní prvky.

Zabezpečení prostředků AI

Komplexní bezpečnostní opatření chrání vaše investice do AI a udržují důvěru zúčastněných stran ve vašich řešeních AI. Pomocí cílových ovládacích prvků zabezpečte všechny komponenty infrastruktury AI. Postupujte následovně:

  1. Vytvořte kompletní inventář prostředků AI. Neznámé prostředky AI nebo prostředky AI, které nejsou sledovány kvůli dodržování zásad AI vaší organizace, vytvářejí bezpečnostní rizika, která můžou chybní aktéři využít k získání neoprávněného přístupu. Komplexní inventář umožňuje efektivní monitorování a rychlou reakci na incidenty pro všechny komponenty AI. Ke zjišťování prostředků AI napříč předplatnými použijte Azure Resource Graph. Pomocí Microsoft Defender for Cloud identifikujte úlohy generování umělé inteligence. Výsledky se stanou inventářem AI a měly by se udržovat prostřednictvím automatizované kontroly a pravidelného ověřování.

  2. Zabezpečte všechny komunikační kanály umělé inteligence. Vystavené komunikační cesty mezi komponentami AI umožňují zachycení dat a ohrožení systému. Správně zabezpečené kanály brání neoprávněnému přístupu a chrání citlivé informace během přenosu. Implementujte spravované identity pro zabezpečené ověřování identit zařízení a úloh (mimo člověka) bez uložených přihlašovacích údajů. K izolaci komunikace SI použijte virtuální sítě . Nasaďte Azure API Management pro zabezpečení koncových bodů serveru MCP (Model Context Protocol).

  3. Použití bezpečnostních prvků specifických pro platformu Různé modely nasazení AI čelí různým bezpečnostním hrozbám na základě jejich architektury a bodů ohrožení. Ovládací prvky přizpůsobené platformě řeší konkrétní ohrožení zabezpečení v jednotlivých typech nasazení. Postupujte podle vyhrazených pokynů k zabezpečení na základě modelu nasazení:

Zabezpečení dat AI

Úlohy umělé inteligence spoléhají na data a artefakty, které vyžadují robustní ochranu, aby se zabránilo neoprávněnému přístupu, únikům dat a porušením dodržování předpisů. Implementujte komplexní bezpečnostní opatření pro ochranu dat a artefaktů AI. Postupujte následovně:

  1. Definujte a udržujte hranice dat. Jasné hranice dat zajišťují, že úlohy AI přistupují jenom k datům, která jsou vhodná pro zamýšlenou cílovou skupinu a případ použití. Pomocí Microsoft Purview klasifikujte citlivost dat pomocí typů citlivých informací, trénovatelných klasifikátorů a klasifikace dat k definování zásad přístupu. Implementujte Azure řízení přístupu na základě role (RBAC) pro omezení přístupu k datům podle úloh a skupin uživatelů. Pomocí Azure Private Link povolte přístup ke službám PaaS Azure přes privátní koncový bod ve vaší virtuální síti.

  2. Implementujte komplexní ochranu před únikem informací. Neoprávněné vystavení dat prostřednictvím odpovědí na AI může ohrozit citlivé informace a porušit zákonné požadavky. Ovládací prvky ochrany před únikem informací brání modelům AI neúmyslně odhalit chráněná data ve svých výstupech. Pomocí Ochrana před únikem informací Microsoft Purview můžete kontrolovat a blokovat citlivá data v pracovních postupech AI. Nakonfigurujte filtrování obsahu tak, aby se zabránilo úniku citlivých informací, a implementujte vlastní filtry pro detekci a redakci citlivých dat specifických pro organizaci. Pro Microsoft Copilot Studio Konfigurovat zásady ochrany před únikem informací pro agenty.

  3. Chraňte artefakty AI před ohrožením zabezpečení. Nezabezpečené modely AI a datové sady se stávají cíli pro krádež, otravu nebo útoky reverzního inženýrství. Chráněné artefakty udržují hodnotu duševního vlastnictví a brání škodlivé manipulaci se systémy AI. Modely a datové sady můžete ukládat v Azure Blob Storage s privátními koncovými body, používat šifrování neaktivních uložených a přenášených dat a implementovat přísné zásady přístupu s monitorováním za účelem zjištění neoprávněných pokusů o přístup.

Detekce bezpečnostních hrozeb AI

Systémy AI čelí vyvíjejícím se hrozbám, které vyžadují nepřetržité monitorování, aby se zabránilo narušení zabezpečení a přerušení služeb. Rychlá detekce hrozeb chrání investice do umělé inteligence a udržuje provozní kontinuitu. Implementujte automatizované možnosti monitorování a reakce, které efektivně řeší incidenty zabezpečení specifické pro AI. Postupujte následovně:

  1. Nasaďte automatizované zjišťování rizik umělé inteligence v celém prostředí. Úlohy umělé inteligence představují dynamické hrozby, které ruční monitorování nedokáže rychle rozpoznat, aby se zabránilo poškození. Automatizované systémy poskytují přehled o nově vznikajících rizicích v reálném čase a umožňují rychlou reakci na incidenty zabezpečení. Pomocí správy stavu zabezpečení AI v Microsoft Defender for Cloud můžete automatizovat zjišťování a nápravu rizik generování AI v celém prostředí Azure.

  2. Vytvořte postupy reakce na incidenty zaměřené na AI. Nedetekované incidenty zabezpečení můžou vést ke ztrátě dat, ohrožení modelu nebo přerušení služeb, které poškodí obchodní operace. Specializované postupy reakce na incidenty řeší jedinečné charakteristiky událostí zabezpečení AI. Vytvářejte a testujte plány reakce na incidenty, které řeší hrozby specifické pro AI, a průběžně monitorují indikátory ohrožení v systémech AI. Stanovte jasné eskalační postupy pro různé typy incidentů zabezpečení AI.

  3. Implementujte strategie monitorování specifické pro platformu. Úlohy AI nasazené na různých platformách čelí různým výzvám zabezpečení, které vyžadují přizpůsobené přístupy k monitorování. Monitorování specifické pro platformu zajišťuje komplexní pokrytí všech potenciálních vektorů útoku. Následující pokyny k monitorování využijte na základě architektury nasazení:

prostředky Azure

Kategorie nástroj Description
Zjišťování majetku Azure Resource Graph Explorer Objevuje a inventarizuje prostředky AI napříč předplatnými Azure
Monitorování zabezpečení Microsoft Defender for Cloud Identifikuje generující úlohy AI a rizika zabezpečení.
Správa identit Spravované identity Zabezpečuje ověřování služby AI bez uložení přihlašovacích údajů.
Zabezpečení sítě Virtuální sítě Izolace komunikace SI a omezení síťového přístupu
Zabezpečení rozhraní API Azure API Management Zabezpečení koncových bodů serveru kontextového protokolu modelu
Ochrana dat Azure Blob Storage Poskytuje šifrované úložiště pro artefakty AI pomocí řízení přístupu.
Zásady správného řízení dat Microsoft Purview Katalogizuje a klasifikuje data AI pomocí štítků citlivosti.

Další kroky

Jak jsme uvedli dříve, procesy řízení umělé inteligence, správy AI a zabezpečené AI jsou průběžné procesy, kterými je nutné pravidelně iterovat. Podle potřeby se můžete znovu vrátit ke každé strategii AI, plánu AI a připravenosti AI. Kontrolní seznamy přechodu na AI vám pomůžou určit, co má být vaším dalším krokem.