Modell för delat ansvar för artificiell intelligens (AI)

När du överväger och utvärderar AI-aktiverad integrering är det viktigt att förstå modellen för delat ansvar och vilka uppgifter AI-plattformen eller programleverantören hanterar och vilka uppgifter du hanterar. Arbetsbelastningsansvaret varierar beroende på om AI-integreringen baseras på SaaS (Software as a Service), PaaS (Platform as a Service) eller Infrastruktur som en tjänst (IaaS).

Ansvarsfördelning

Precis som med molntjänster har du alternativ när du implementerar AI-funktioner för din organisation. Beroende på vilket alternativ du väljer tar du ansvar för olika delar av de åtgärder och principer som krävs för att använda AI på ett säkert sätt.

Följande diagram illustrerar ansvarsområden mellan dig och Microsoft beroende på typen av distribution.

Diagram showing AI responsibility zones.

Översikt över AI-lager

Ett AI-aktiverat program består av tre nivåer av funktioner som grupperar uppgifter, som du eller en AI-provider utför. Säkerhetsansvaret ligger vanligtvis hos den som utför uppgifterna, men en AI-provider kan välja att exponera säkerhet eller andra kontroller som ett konfigurationsalternativ för dig efter behov. Dessa tre lager omfattar:

AI-plattform

AI-plattformsskiktet tillhandahåller AI-funktionerna till programmen. På plattformslagret finns det ett behov av att skapa och skydda infrastrukturen som kör AI-modellen, träningsdata och specifika konfigurationer som ändrar modellens beteende, till exempel vikter och fördomar. Det här lagret ger åtkomst till funktioner via API:er, som skickar text som kallas metaprompt till AI-modellen för bearbetning och sedan returnerar det genererade resultatet, som kallas prompt-response.

Säkerhetsöverväganden för AI-plattformen – För att skydda AI-plattformen från skadliga indata måste ett säkerhetssystem skapas för att filtrera bort de potentiellt skadliga instruktioner som skickas till AI-modellen (indata). Eftersom AI-modeller är generativa finns det också en potential att skadligt innehåll kan genereras och returneras till användaren (utdata). Alla säkerhetssystem måste först skydda mot potentiellt skadliga indata och utdata från många klassificeringar, inklusive hat, jailbreaks och andra. Dessa klassificeringar kommer sannolikt att utvecklas över tid baserat på modellkunskap, nationella inställningar och bransch.

Microsoft har inbyggda säkerhetssystem för både PaaS- och SaaS-erbjudanden:

AI-program

AI-programmet har åtkomst till AI-funktionerna och tillhandahåller den tjänst eller det gränssnitt som användaren använder. Komponenterna i det här lagret kan variera från relativt enkla till mycket komplexa, beroende på programmet. De enklaste fristående AI-programmen fungerar som ett gränssnitt till en uppsättning API:er som tar en textbaserad användarprompt och skickar dessa data till modellen för ett svar. Mer komplexa AI-program inkluderar möjligheten att jorda användarprompten med extra kontext, inklusive ett beständigt lager, semantiskt index eller via plugin-program för att ge åtkomst till fler datakällor. Avancerade AI-program kan också samverka med befintliga program och system. Befintliga program och system kan fungera i text, ljud och bilder för att generera olika typer av innehåll.

Säkerhetsöverväganden för AI-program – Ett programsäkerhetssystem måste byggas för att skydda AI-programmet från skadliga aktiviteter. Säkerhetssystemet ger djupgranskning av innehållet som används i metaprompten som skickas till AI-modellen. Säkerhetssystemet inspekterar också interaktionerna med alla plugin-program, dataanslutningar och andra AI-program (kallas AI Orchestration). Ett sätt att införliva detta i ditt eget IaaS/PaaS-baserade AI-program är att använda Tjänsten Azure AI Content Valv ty. Andra funktioner är tillgängliga beroende på dina behov.

AI-användning

AI-användningsskiktet beskriver hur AI-funktionerna i slutändan används och används. Generativ AI erbjuder en ny typ av användar-/datorgränssnitt som skiljer sig i grunden från andra datorgränssnitt, till exempel API, kommandotolk och grafiska användargränssnitt (GUIs). Det generativa AI-gränssnittet är både interaktivt och dynamiskt, vilket gör att datorfunktionerna kan anpassas efter användaren och deras avsikt. Det generativa AI-gränssnittet står i kontrast till tidigare gränssnitt som främst tvingar användarna att lära sig systemdesignen och funktionerna och anpassa sig till det. Med den här interaktiviteten kan användarnas indata, i stället för programdesigners, ha hög påverkan på systemets utdata, vilket gör skyddsräcken kritiska för att skydda personer, data och affärstillgångar.

Säkerhetsöverväganden för AI-användning – Skydd av AI-användning liknar alla datorsystem eftersom det förlitar sig på säkerhetsgarantier för identitets- och åtkomstkontroller, enhetsskydd och övervakning, dataskydd och styrning, administrativa kontroller och andra kontroller.

Mer fokus krävs på användarbeteende och ansvarsskyldighet på grund av det ökade inflytande som användarna har på systemens utdata. Det är viktigt att uppdatera acceptabla användningsprinciper och informera användarna om skillnaden mellan vanliga IT-program och AI-aktiverade program. Dessa bör omfatta AI-specifika överväganden som rör säkerhet, sekretess och etik. Dessutom bör användare utbildas om AI-baserade attacker som kan användas för att lura dem med övertygande falsk text, röster, videor och mycket mer.

AI-specifika attacktyper definieras i:

Säkerhetslivscykel

Precis som med säkerhet för andra typer av funktioner är det viktigt att planera för en fullständig metod. En fullständig metod omfattar personer, processer och teknik under hela säkerhetslivscykeln: identifiera, skydda, identifiera, svara, återställa och styra. Eventuella luckor eller svagheter i den här livscykeln kan få dig att:

  • Det går inte att skydda viktiga tillgångar
  • Upplev attacker som enkelt kan förebyggas
  • Det går inte att hantera attacker
  • Det går inte att snabbt återställa affärskritiska tjänster
  • Tillämpa kontroller inkonsekvent

Om du vill veta mer om ai-hottestningens unika natur kan du läsa om hur Microsoft AI Red Team skapar framtiden för säkrare AI.

Konfigurera innan du anpassar

Microsoft rekommenderar att organisationer börjar med SaaS-baserade metoder som Copilot-modellen för deras första implementering av AI och för alla efterföljande AI-arbetsbelastningar. Detta minimerar den nivå av ansvar och expertis som din organisation måste tillhandahålla för att utforma, driva och skydda dessa mycket komplexa funktioner.

Om de aktuella funktionerna "utanför hyllan" inte uppfyller de specifika behoven för en arbetsbelastning kan du använda en PaaS-modell med hjälp av AI-tjänster, till exempel Azure OpenAI Service, för att uppfylla dessa specifika krav.

Anpassad modellskapande bör endast antas av organisationer med djup expertis inom datavetenskap och säkerhet, sekretess och etiska överväganden för AI.

För att hjälpa till att få AI till världen utvecklar Microsoft Copilot-lösningar för var och en av de viktigaste produktivitetslösningarna: från Bing och Windows till GitHub och Office 365. Microsoft utvecklar kompletta stacklösningar för alla typer av produktivitetsscenarier. Dessa erbjuds som SaaS-lösningar. De är inbyggda i produktens användargränssnitt och är anpassade för att hjälpa användaren med specifika uppgifter för att öka produktiviteten.

Microsoft ser till att varje Copilot-lösning är utformad enligt våra starka principer för AI-styrning.

Nästa steg

Läs mer om Microsofts krav på produktutveckling för ansvarsfull AI i Microsoft Responsible AI Standard.

Lär dig mer om delat ansvar för molnbaserad databehandling.