Model voor gedeelde verantwoordelijkheid voor kunstmatige intelligentie (AI)

Wanneer u de integratie met AI beschouwt en evalueert, is het essentieel om inzicht te hebben in het model voor gedeelde verantwoordelijkheid en welke taken het AI-platform of de toepassingsprovider afhandelt en welke taken u moet uitvoeren. De workloadverantwoordelijkheden variëren, afhankelijk van of de AI-integratie is gebaseerd op SaaS (Software as a Service), Platform as a Service (PaaS) of IaaS (Infrastructure as a Service).

Verdeling van verantwoordelijkheid

Net als bij cloudservices hebt u opties bij het implementeren van AI-mogelijkheden voor uw organisatie. Afhankelijk van de optie die u kiest, neemt u de verantwoordelijkheid voor verschillende onderdelen van de benodigde bewerkingen en beleidsregels die nodig zijn om AI veilig te gebruiken.

In het volgende diagram ziet u de verantwoordelijkheidsgebieden tussen u en Microsoft op basis van het type implementatie.

Diagram showing AI responsibility zones.

Overzicht van AI-laag

Een ai-toepassing bestaat uit drie lagen functionaliteit die taken groeperen die u of een AI-provider uitvoert. De beveiligingsverantwoordelijkheden bevinden zich over het algemeen bij degene die de taken uitvoert, maar een AI-provider kan ervoor kiezen om beveiliging of andere besturingselementen beschikbaar te maken als configuratieoptie voor u, indien van toepassing. Deze drie lagen omvatten:

AI-platform

De AI-platformlaag biedt de AI-mogelijkheden voor de toepassingen. Op de platformlaag moet u de infrastructuur bouwen en beveiligen waarmee het AI-model, trainingsgegevens en specifieke configuraties worden uitgevoerd die het gedrag van het model wijzigen, zoals gewichten en vooroordelen. Deze laag biedt toegang tot functionaliteit via API's, die tekst doorgeven die bekend staat als een Metaprompt aan het AI-model voor verwerking, en vervolgens het gegenereerde resultaat retourneren, ook wel prompt-response genoemd.

Overwegingen voor ai-platformbeveiliging: om het AI-platform te beschermen tegen schadelijke invoer, moet een veiligheidssysteem worden gebouwd om de mogelijk schadelijke instructies te filteren die naar het AI-model (invoer) worden verzonden. Omdat AI-modellen generatief zijn, is er ook een potentieel dat bepaalde schadelijke inhoud kan worden gegenereerd en geretourneerd aan de gebruiker (uitvoer). Elk veiligheidssysteem moet zich eerst beschermen tegen mogelijk schadelijke invoer en uitvoer van veel classificaties, waaronder haat, jailbreaks en andere. Deze classificaties zullen zich waarschijnlijk in de loop van de tijd ontwikkelen op basis van modelkennis, landinstellingen en industrie.

Microsoft heeft ingebouwde veiligheidssystemen voor paaS- en SaaS-aanbiedingen:

AI-toepassing

De AI-toepassing heeft toegang tot de AI-mogelijkheden en biedt de service of interface die de gebruiker gebruikt. De onderdelen in deze laag kunnen variëren van relatief eenvoudig tot zeer complex, afhankelijk van de toepassing. De eenvoudigste zelfstandige AI-toepassingen fungeren als een interface voor een set API's die een gebruikersprompt op basis van tekst gebruiken en die gegevens doorgeven aan het model voor een antwoord. Complexere AI-toepassingen bevatten de mogelijkheid om de gebruikersprompt te gronden met extra context, waaronder een persistentielaag, semantische index of via invoegtoepassingen om toegang tot meer gegevensbronnen toe te staan. Geavanceerde AI-toepassingen kunnen ook interface hebben met bestaande toepassingen en systemen. Bestaande toepassingen en systemen kunnen werken in tekst, audio en afbeeldingen om verschillende soorten inhoud te genereren.

Beveiligingsoverwegingen voor AI-toepassingen: er moet een beveiligingssysteem voor toepassingen worden gebouwd om de AI-toepassing te beschermen tegen schadelijke activiteiten. Het veiligheidssysteem biedt een grondige inspectie van de inhoud die wordt gebruikt in de Metaprompt die naar het AI-model wordt verzonden. Het veiligheidssysteem inspecteert ook de interacties met invoegtoepassingen, gegevensconnectors en andere AI-toepassingen (ook wel AI Orchestration genoemd). Eén manier waarop u deze kunt opnemen in uw eigen IaaS-/PaaS-ai-toepassing, is door de Azure AI Content Safety-service te gebruiken. Er zijn andere mogelijkheden beschikbaar, afhankelijk van uw behoeften.

AI-gebruik

In de AI-gebruikslaag wordt beschreven hoe de AI-mogelijkheden uiteindelijk worden gebruikt en verbruikt. Generatieve AI biedt een nieuw type gebruikers-/computerinterface die fundamenteel verschilt van andere computerinterfaces, zoals API, opdrachtprompt en grafische gebruikersinterfaces (GUIs). De generatieve AI-interface is zowel interactief als dynamisch, waardoor de computermogelijkheden kunnen worden aangepast aan de gebruiker en hun intentie. De generatieve AI-interface contrasteert met eerdere interfaces die voornamelijk gebruikers dwingen om het systeemontwerp en de functionaliteit ervan te leren kennen en aan te passen. Dankzij deze interactiviteit kan gebruikersinvoer, in plaats van toepassingsontwerpers, een hoge mate van invloed hebben op de uitvoer van het systeem, waardoor veiligheidsrails essentieel zijn voor het beschermen van mensen, gegevens en zakelijke activa.

Beveiligingsoverwegingen voor AI-gebruik: het beveiligen van AI-gebruik is vergelijkbaar met elk computersysteem, omdat het afhankelijk is van beveiligingsgaranties voor identiteits- en toegangsbeheer, apparaatbeveiliging en -bewaking, gegevensbescherming en governance, beheercontroles en andere besturingselementen.

Meer nadruk is vereist op gebruikersgedrag en verantwoording vanwege de toegenomen invloed die gebruikers hebben op de uitvoer van de systemen. Het is essentieel om acceptabel gebruiksbeleid bij te werken en gebruikers te informeren over het verschil tussen standaard IT-toepassingen voor AI-toepassingen. Hiertoe behoren AI-specifieke overwegingen met betrekking tot beveiliging, privacy en ethiek. Daarnaast moeten gebruikers worden geïnformeerd over AI-aanvallen die kunnen worden gebruikt om ze te misleiden met overtuigende valse tekst, stemmen, video's en meer.

AI-specifieke aanvalstypen worden gedefinieerd in:

Beveiligingslevenscyclus

Net als bij beveiliging voor andere typen mogelijkheden is het essentieel om een volledige aanpak te plannen. Een volledige benadering omvat mensen, processen en technologie in de volledige beveiligingslevenscyclus: identificeren, beveiligen, detecteren, reageren, herstellen en beheren. Elke hiaat of zwakke plek in deze levenscyclus kan het volgende hebben:

  • Kan belangrijke assets niet beveiligen
  • Eenvoudig te voorkomen aanvallen
  • Kan aanvallen niet afhandelen
  • Kan bedrijfskritieke services niet snel herstellen
  • Besturingselementen inconsistent toepassen

Lees hoe Microsoft AI Red Team de toekomst van veiligere AI bouwt voor meer informatie over het unieke karakter van AI-bedreigingstests.

Configureren voordat u deze aanpast

Microsoft raadt organisaties aan om te beginnen met Op SaaS gebaseerde benaderingen, zoals het Copilot-model voor de initiële acceptatie van AI en voor alle volgende AI-workloads. Dit minimaliseert het niveau van verantwoordelijkheid en expertise die uw organisatie nodig heeft om deze zeer complexe mogelijkheden te ontwerpen, te gebruiken en te beveiligen.

Als de huidige 'off the shelf'-mogelijkheden niet voldoen aan de specifieke behoeften voor een workload, kunt u een PaaS-model gebruiken met behulp van AI-services, zoals Azure OpenAI Service, om aan deze specifieke vereisten te voldoen.

Het bouwen van aangepaste modellen mag alleen worden gebruikt door organisaties met diepgaande expertise in data science en de beveiligings-, privacy- en ethische overwegingen van AI.

Om AI wereldwijd beschikbaar te maken, ontwikkelt Microsoft Copilot-oplossingen voor elk van de belangrijkste productiviteitsoplossingen: van Bing en Windows tot GitHub en Office 365. Microsoft ontwikkelt volledige stack-oplossingen voor alle soorten productiviteitsscenario's. Deze worden aangeboden als SaaS-oplossingen. Ingebouwd in de gebruikersinterface van het product, zijn ze afgestemd om de gebruiker te helpen bij specifieke taken om de productiviteit te verhogen.

Microsoft zorgt ervoor dat elke Copilot-oplossing wordt ontworpen volgens onze sterke principes voor AI-governance.

Volgende stappen

Meer informatie over de productontwikkelingsvereisten van Microsoft voor verantwoorde AI in de Microsoft Responsible AI Standard.

Meer informatie over gedeelde verantwoordelijkheden voor cloud-computing.