Mesterséges intelligencia (AI) megosztott felelősségi modellje

Az AI-kompatibilis integráció mérlegelése és értékelése során fontos tisztában lenni a megosztott felelősségi modellel, valamint az AI-platform vagy az alkalmazásszolgáltató által kezelt feladatokkal, valamint az Ön által kezelt feladatokkal. A számítási feladatok feladatai attól függően változnak, hogy az AI-integráció a szolgáltatott szoftveren (SaaS), a szolgáltatásként nyújtott platformon (PaaS) vagy az infrastruktúra mint szolgáltatáson (IaaS) alapul.

A felelősség megosztása

A felhőszolgáltatásokhoz hasonlóan a szervezet AI-képességeinek implementálásakor is vannak lehetőségei. Attól függően, hogy melyik lehetőséget választja, felelősséget vállal az AI biztonságos használatához szükséges műveletek és szabályzatok különböző részeiért.

Az alábbi ábra az Üzembe helyezés típusának megfelelően mutatja be az Ön és a Microsoft közötti felelősségi területeket.

Diagram showing AI responsibility zones.

AI-réteg áttekintése

Az AI-kompatibilis alkalmazások három funkciórétegből állnak, amelyek a feladatokat csoportosítják, amelyeket Ön vagy egy AI-szolgáltató hajt végre. A biztonsági feladatkörök általában a feladatokat elvégzőkkel kapcsolatosak, de az AI-szolgáltatók dönthetnek úgy, hogy konfigurációs lehetőségként teszik elérhetővé a biztonsági vagy egyéb vezérlőket. Ez a három réteg a következőket foglalja magában:

AI platform

Az AI platformréteg biztosítja az alkalmazások AI-képességeit. A platformrétegben létre kell hoznunk és meg kell védenünk az AI-modellt futtató infrastruktúrát, a betanítási adatokat és a modell viselkedését módosító konkrét konfigurációkat, például súlyokat és torzításokat. Ez a réteg api-kon keresztül biztosít hozzáférést a funkciókhoz, amelyek metapromptként ismert szöveget adnak át az AI-modellnek feldolgozás céljából, majd visszaadják a létrehozott eredményt, más néven parancssori választ.

AI-platform biztonsági szempontjai – Az AI-platform rosszindulatú bemenetekkel szembeni védelméhez létre kell állítani egy biztonsági rendszert, amely kiszűri az AI-modellnek (bemeneteknek) küldött potenciálisan káros utasításokat. Mivel az AI-modellek generatívak, fennáll annak a lehetősége is, hogy néhány káros tartalom létrejön és visszakerül a felhasználóhoz (kimenetek). Minden biztonsági rendszernek először védelmet kell nyújtania számos besorolás potenciálisan káros bemenetei és kimenetei ellen, beleértve a gyűlöletet, a jailbreakeket és másokat. Ezek a besorolások valószínűleg idővel fejlődni fognak a modell ismerete, a területi beállítások és az iparág alapján.

A Microsoft beépített biztonsági rendszerekkel rendelkezik Mind a PaaS, mind az SaaS-ajánlatokhoz:

AI-alkalmazás

Az AI-alkalmazás hozzáfér az AI képességeihez, és biztosítja a felhasználó által használt szolgáltatást vagy felületet. A réteg összetevői az alkalmazástól függően viszonylag egyszerűtől rendkívül összetettig változhatnak. A legegyszerűbb önálló AI-alkalmazások interfészként szolgálnak olyan API-k készletéhez, amelyek szöveges alapú felhasználói kérést fogadnak, és továbbítják az adatokat a modellnek válaszként. Az összetettebb AI-alkalmazások magukban foglalják a felhasználói kérések további környezettel való kezelését, beleértve a perzisztálási réteget, a szemantikai indexet vagy beépülő modulokat, hogy több adatforráshoz lehessen hozzáférni. A fejlett AI-alkalmazások a meglévő alkalmazásokkal és rendszerekkel is kommunikálhatnak. A meglévő alkalmazások és rendszerek több szöveg, hang és kép között is működhetnek, így különböző típusú tartalmakat hozhatnak létre.

AI-alkalmazások biztonsági szempontjai – Az AI-alkalmazás kártékony tevékenységek elleni védelméhez alkalmazásbiztonsági rendszert kell létrehozni. A biztonsági rendszer részletesen ellenőrzi az AI-modellnek küldött Metapromptban használt tartalmat. A biztonsági rendszer a beépülő modulokkal, adatösszekötőkkel és más AI-alkalmazásokkal (más néven AI Orchestration) való interakciókat is ellenőrzi. Ezt a saját IaaS/PaaS-alapú AI-alkalmazásba is beépítheti, ha az Azure AI Content Széf ty szolgáltatást használja. Az igényeitől függően más képességek is rendelkezésre állnak.

AI-használat

Az AI használati rétege leírja, hogyan használják és használják fel végül az AI-képességeket. A Generative AI új felhasználói/számítógépes felületet kínál, amely alapvetően eltér a többi számítógép-interfésztől, például API-tól, parancssori és grafikus felhasználói felületektől (GUI-k). A generatív AI-felület interaktív és dinamikus is, így a számítógép képességei alkalmazkodhatnak a felhasználóhoz és a szándékukhoz. A generatív AI-felület ellentétben áll a korábbi felületekkel, amelyek elsősorban arra kényszerítik a felhasználókat, hogy megtanulják a rendszer kialakítását és működését, és alkalmazkodjanak hozzá. Ez az interaktivitás lehetővé teszi, hogy az alkalmazástervezők helyett a felhasználói bemenetek nagy mértékben befolyásolják a rendszer kimenetét, így a biztonsági védőkorlátok kritikus fontosságúak az emberek, az adatok és az üzleti eszközök védelme szempontjából.

AI-használat biztonsági szempontjai – Az AI-használat védelme minden számítógépes rendszerhez hasonló, mivel az identitás- és hozzáférés-vezérlésre, az eszközvédelemre és a monitorozásra, az adatvédelemre és szabályozásra, a felügyeleti vezérlőkre és egyéb vezérlőkre vonatkozó biztonsági garanciákra támaszkodik.

Nagyobb hangsúlyt kell fektetni a felhasználói viselkedésre és az elszámoltathatóságra, mivel a felhasználók nagyobb mértékben befolyásolják a rendszerek kimenetét. Kritikus fontosságú az elfogadható használati szabályzatok frissítése és a felhasználók felkészítése a szabványos informatikai alkalmazások AI-kompatibilis alkalmazásokra való különbségére. Ezek közé tartoznak a biztonsággal, az adatvédelemmel és az etikával kapcsolatos AI-szempontok. Emellett a felhasználókat olyan AI-alapú támadásokra is ki kell tanítani, amelyekkel meggyőző hamis szövegekkel, hangokkal, videókkal és egyebekkel trükközhetnek.

Az AI-specifikus támadástípusok a következőkben vannak definiálva:

Biztonsági életciklus

Más típusú képességek biztonságához hasonlóan a teljes megközelítés tervezése is kritikus fontosságú. A teljes körű megközelítés személyekre, folyamatokra és technológiákra terjed ki a teljes biztonsági életciklusban: azonosítás, védelem, észlelés, reagálás, helyreállítás és szabályozás. Az életciklus bármely hiányossága vagy gyengesége a következőt eredményezheti:

  • Nem sikerült biztonságossá tenni a fontos objektumokat
  • Könnyen megelőzhető támadások
  • Nem lehet kezelni a támadásokat
  • Nem lehet gyorsan visszaállítani az üzletileg kritikus szolgáltatásokat
  • Vezérlők inkonzisztens alkalmazása

Ha többet szeretne megtudni az AI-fenyegetéstesztelés egyedi jellegéről, olvassa el, hogyan építi a Microsoft AI Red csapata a biztonságosabb AI jövőjét.

Konfigurálás testreszabás előtt

A Microsoft azt javasolja, hogy a szervezetek saaS-alapú megközelítésekkel kezdjenek, például a Copilot-modellel az AI kezdeti bevezetéséhez és az azt követő AI-számítási feladatokhoz. Ez minimálisra csökkenti a szervezet felelősségi szintjét és szakértelmét ezeknek a rendkívül összetett képességeknek a megtervezéséhez, működtetéséhez és védelméhez.

Ha a jelenlegi "le a polcról" képességek nem felelnek meg a számítási feladatok adott igényeinek, a PaaS-modellt migrálási szolgáltatásokkal, például az Azure OpenAI Szolgáltatással alkalmazhatja, hogy megfeleljen ezeknek a konkrét követelményeknek.

Az egyéni modellépítést csak az adatelemzésben, valamint a mesterséges intelligencia biztonsági, adatvédelmi és etikai szempontjaiban jártas szervezetek használhatják.

Az MI világra hozásához a Microsoft copilot-megoldásokat fejleszt a fő hatékonyságnövelő megoldásokhoz: a Bingtől a Windowson át a GitHubig és az Office 365-höz. A Microsoft teljes veremmegoldásokat fejleszt a termelékenységi forgatókönyvek minden típusához. Ezeket SaaS-megoldásokként kínáljuk. A termék felhasználói felületére beépítettek úgy, hogy segítsék a felhasználót a termelékenység növelése érdekében meghatározott feladatok elvégzésében.

A Microsoft biztosítja, hogy minden Copilot-megoldás az AI-szabályozásra vonatkozó szigorú alapelveket követve legyen megtervezve.

Következő lépések

További információ a Microsoft termékfejlesztési követelményeiről a felelős AI-szabványban.

Megismerheti a felhőalapú számítástechnika megosztott feladatait.