Säker AI – Rekommendationer för organisationer som skyddar AI-arbetsbelastningar i Azure
Den här artikeln beskriver organisationsprocessen för att skydda AI-arbetsbelastningar. Den fokuserar på sekretess, integritet och tillgänglighet (CIA) för AI. Effektiva säkerhetsrutiner minskar risken för kompromisser genom att skydda sekretess, integritet och tillgänglighet för AI-modeller och data. En säker AI-miljö överensstämmer också med affärssäkerhetsmål och ökar förtroendet för AI-drivna processer.
Utvärdera AI-säkerhetsrisker
Att utvärdera AI-säkerhetsrisker innebär att identifiera och utvärdera potentiella sårbarheter som kan påverka AI-arbetsbelastningar. Proaktivt hantera dessa risker hjälper till att förhindra överträdelser, manipulation och missbruk, vilket stärker tillförlitligheten för AI-program. Den här metoden stöder också organisationens mål genom att skydda känsliga data och upprätthålla intressentförtroende.
Identifiera vanliga AI-säkerhetsrisker. Använd identifierade resurser som MITRE ATLAS, OWASP Machine Learning-risk och OWASP Generative AI-risk för att regelbundet utvärdera risker för alla AI-arbetsbelastningar. För kontinuerlig hantering av säkerhetsstatus bör du överväga att använda AI-säkerhetsverktyg som hantering av AI-säkerhetsstatus i Microsoft Defender för molnet. Dessa verktyg kan automatisera identifiering och reparation av generativa AI-risker.
Identifiera datarisker. Känslig dataförlust eller exponering kan ha betydande inverkan på organisationens intressenter och efterlevnadsskyldigheter. Använd företagsomfattande verktyg som Hantering av interna risker i Microsoft Purview för att utvärdera insiderrisker och upprätthålla datasäkerhet i hela verksamheten. I alla AI-arbetsbelastningar klassificerar och prioriterar du risker baserat på känsligheten hos de data som de bearbetar, lagrar eller överför.
Utföra AI-hotmodellering. Utför företagsomfattande AI-hotmodellering med hjälp av ramverk som STRIDE för att utvärdera potentiella attackvektorer för alla AI-arbetsbelastningar. Uppdatera hotmodeller regelbundet för att anpassa sig till nya AI-användningsfall och hot. AI Center of Excellence bör överväga att centralisera AI-hotmodellering för att säkerställa en enhetlig metod i hela organisationen och minska riskerna med olika AI-modeller, datakällor och processer.
Testa AI-modeller. Utför red-team-testning mot generativa AI-modeller och icke-generativa modeller för att bedöma deras sårbarhet för attacker. Verktyg som PyRIT kan automatisera den här processen för generativ AI, så att du kan utmana modellens utdata under olika förhållanden. Det här steget är mycket tekniskt och kräver dedikerad expertis för att fungera effektivt.
Implementera AI-säkerhetskontroller
Att implementera AI-säkerhetskontroller innebär att upprätta principer, procedurer och verktyg som skyddar AI-resurser och data. Dessa kontroller hjälper till att säkerställa efterlevnad av regelkrav och skydda mot obehörig åtkomst, stöd för kontinuerlig drift och datasekretess. När du tillämpar konsekventa kontroller över AI-arbetsbelastningar kan du hantera säkerheten mer effektivt.
Skydda AI-resurser
Att skydda AI-resurser omfattar hantering och skydd av system, modeller och infrastruktur som stöder AI-program. Det här steget minskar sannolikheten för obehörig åtkomst och hjälper till att standardisera säkerhetsrutiner i hela organisationen. En omfattande resursinventering möjliggör konsekvent tillämpning av säkerhetsprinciper och stärker den övergripande kontrollen över AI-tillgångar.
Upprätta en centraliserad AI-tillgångsinventering. Genom att underhålla en detaljerad och uppdaterad inventering av dina AI-arbetsbelastningsresurser kan du tillämpa säkerhetsprinciper enhetligt på alla AI-arbetsbelastningar. Kompilera en företagsomfattande inventering av alla AI-system, modeller, datauppsättningar och infrastruktur i Hela Azure. Använd verktyg som Azure Resource Graph Explorer och Microsoft Defender för molnet för att automatisera identifieringsprocessen. Microsoft Defender för molnet kan identifiera generativa AI-arbetsbelastningar och i fördistributionsgenerativa AI-artefakter.
Skydda Azure AI-plattformar. Standardisera tillämpningen av Azure-säkerhetsbaslinjer för varje AI-resurs. Följ säkerhetsrekommendationerna i Azure Service Guides.
Använd arbetsbelastningsspecifik styrningsvägledning. Detaljerad säkerhetsvägledning är tillgänglig för AI-arbetsbelastningar på Azure-plattformstjänster (PaaS) och Azure-infrastruktur (IaaS). Använd den här vägledningen för att skydda AI-modeller, resurser och data inom dessa arbetsbelastningstyper.
Skydda AI-data
Att skydda AI-data innebär att skydda de data som AI-modeller använder och genererar. Effektiva datasäkerhetsmetoder hjälper till att förhindra obehörig åtkomst, dataläckor och efterlevnadsöverträdelser. Att kontrollera dataåtkomst och upprätthålla en detaljerad katalog stöder också välgrundat beslutsfattande och minskar risken för att exponera känslig information.
Definiera och underhålla datagränser. Se till att AI-arbetsbelastningar använder data som är lämpliga för deras åtkomstnivå. AI-program som är tillgängliga för alla anställda bör endast bearbeta data som är lämpliga för alla anställda. Internetuppkopplade AI-program måste använda data som är lämpliga för offentlig förbrukning. Använd separata datauppsättningar eller miljöer för olika AI-program för att förhindra oavsiktlig dataåtkomst. Överväg att använda Microsoft Purviews uppsättning datasäkerhetsverktyg för att skydda dina data.
Implementera strikta dataåtkomstkontroller. Se till att programmen kontrollerar att slutanvändarna har behörighet att komma åt de data som ingår i deras frågor. Undvik breda systembehörigheter för användaråtgärder. Använd principen att om AI:n kan komma åt viss information bör användaren ha behörighet att komma åt den direkt.
Underhålla en datakatalog. Håll en uppdaterad katalog över alla data som är anslutna till och förbrukas av AI-system, inklusive lagringsplatser och åtkomstinformation. Genomsök och märka data regelbundet för att spåra känslighetsnivåer och lämplighet, med hjälp av analys och riskidentifiering. Överväg att använda Datakatalog i Microsoft Purview för att mappa och styra dina data.
Skapa en plan för hantering av datakänslighetsändringar. Spåra datakänslighetsnivåer eftersom de kan ändras över tid. Använd datakatalogen för att övervaka information som används i AI-arbetsbelastningar. Implementera en process för att hitta och ta bort känsliga data från AI-arbetsbelastningar.
Skydda AI-artefakter. Identifiera AI-modeller och datauppsättningar som värdefull immateriell egendom och implementera åtgärder för att skydda dem i enlighet med detta. Lagra AI-modeller och datauppsättningar bakom privata slutpunkter och i säkra miljöer som Azure Blob Storage och dedikerade arbetsytor. Tillämpa strikta åtkomstprinciper och kryptering för att skydda AI-artefakter mot obehörig åtkomst eller stöld för att förhindra dataförgiftning.
Skydda känsliga data. När den ursprungliga datakällan inte är lämplig för direkt användning använder dubbletter, lokala kopior eller delmängder som endast innehåller nödvändig information. Bearbeta känsliga data i kontrollerade miljöer som har nätverksisolering och rigorösa åtkomstkontroller för att förhindra obehörig åtkomst eller dataläckor. Dessutom implementerar du omfattande skydd som kryptering, kontinuerlig övervakning och intrångsidentifieringssystem för att skydda mot dataintrång under bearbetningen.
Underhålla AI-säkerhetskontroller
Underhåll av AI-säkerhetskontroller omfattar löpande övervakning, testning och uppdatering av säkerhetsåtgärder för att hantera hot som utvecklas. Genom att regelbundet granska säkerhetskontroller ser du till att AI-arbetsbelastningar förblir skyddade och att organisationen kan anpassa sig till nya risker. Proaktivt underhåll hjälper till att förhindra överträdelser och upprätthålla förtroendet för AI-system över tid.
Implementera testning för dataläckage och tvång i AI-system. Utför rigorösa tester för att avgöra om känsliga data kan läckas eller tvingas via AI-system. Utför dataförlustskyddstester (DLP) och simulera AI-specifika attackscenarier. Simulera modellinvertering eller angrepp mot skadlig kod för att utvärdera motståndskraften hos dataskyddsåtgärder. Att se till att AI-modeller och datahanteringsprocesser är säkra mot obehörig åtkomst och manipulering är avgörande för att upprätthålla dataintegritet och förtroende för AI-program.
Tillhandahålla AI-fokuserad utbildning och medvetenhet för anställda. Tillhandahålla utbildningsprogram för alla anställda som deltar i AI-projekt. Betona vikten av datasäkerhet och metodtips som är specifika för AI-utveckling och distribution. Utbilda personalen om hur man hanterar känsliga data som används i träning och känner igen hot som modellinversion eller dataförgiftningsattacker. Regelbunden utbildning säkerställer att teammedlemmar är kunniga om de senaste AI-säkerhetsprotokollen och förstår deras roll när det gäller att upprätthålla integriteten för AI-arbetsbelastningar.
Utveckla och underhålla en incidenthanteringsplan för AI-säkerhetsincidenter. Skapa en strategi för incidenthantering som är skräddarsydd för AI-system för att hantera potentiella dataintrång eller säkerhetsincidenter. Planen bör beskriva tydliga procedurer för att identifiera, rapportera och minimera säkerhetsincidenter som kan påverka AI-modeller, data eller infrastruktur. Utför regelbundna övningar och simuleringar som fokuserar på AI-specifika scenarier för att säkerställa att svarsteamet är redo att hantera verkliga AI-säkerhetsincidenter effektivt.
Genomför regelbundna riskbedömningar. Utvärdera nya hot och sårbarheter som är specifika för AI regelbundet genom riskbedömningar och konsekvensanalyser. Dessa utvärderingar hjälper dig att identifiera nya risker som är associerade med AI-modeller, datahanteringsprocesser och distributionsmiljöer. Utvärderingar utvärderar också de potentiella effekterna av säkerhetsöverträdelser på AI-system.
Nästa steg
Styra AI, hantera AI och säker AI är kontinuerliga processer som du måste iterera igenom regelbundet. Gå tillbaka till varje AI-strategi, AI-plan och AI Ready efter behov. Använd checklistorna för AI-implementering för att avgöra vad nästa steg ska vara.