Jegyzet
Az oldalhoz való hozzáférés engedélyezést igényel. Próbálhatod be jelentkezni vagy könyvtárat váltani.
Az oldalhoz való hozzáférés engedélyezést igényel. Megpróbálhatod a könyvtár váltását.
Important
A nem angol nyelvű fordítások csak a kényelem érdekében érhetők el. A végleges verzióhoz tekintse meg EN-US a dokumentum verzióját .
Az Azure OpenAI-modellek közül sok olyan generatív AI-modell, amely olyan fejlett képességek fejlesztését mutatja be, mint a tartalom- és kódlétrehozás, az összegzés és a keresés. Számos ilyen fejlesztés mellett a káros tartalmakkal, a manipulációval, az emberi viselkedéssel, az adatvédelemmel és egyebekkel kapcsolatos felelős AI-kihívások is egyre nagyobb mértékben jelentkeznek. A modellek képességeiről, korlátairól és megfelelő használati eseteiről az Átláthatósági megjegyzésben talál további információt.
Az átláthatósági megjegyzésen kívül technikai javaslatokat és erőforrásokat is biztosítunk az ügyfeleknek az Azure OpenAI-modellek felelős implementálására szolgáló AI-rendszerek tervezéséhez, fejlesztéséhez, üzembe helyezéséhez és használatához. Javaslatainkat a Microsoft Responsible AI Standard tartalmazza, amely a saját mérnöki csapataink által követendő szabályzati követelményeket határozza meg. A Standard tartalmának nagy része egy mintát követ, amely arra kéri a csapatokat, hogy azonosítsák, mérjék és mérsékeljék a lehetséges károkat, és tervezze meg az AI-rendszer üzemeltetését. A fenti gyakorlatokkal összhangban ezek a javaslatok négy szakaszba vannak rendezve:
- Azonosítás : Az AI-rendszerből eredő lehetséges károk azonosítása és rangsorolása iteratív red-teaming, stressztesztelés és elemzés révén.
- Mérték : Mérje meg a károk gyakoriságát és súlyosságát egyértelmű metrikák létrehozásával, mérési tesztkészletek létrehozásával, valamint iteratív, szisztematikus (manuális és automatizált) teszteléssel.
- Mérsékelje a károkat olyan eszközök és stratégiák implementálásával, mint a gyors tervezés és a Guardrails (korábban tartalomszűrők) használata. Ismételje meg a mérést a hatékonyság teszteléséhez a kockázatcsökkentések implementálása után.
- Üzemeltetés : Üzembe helyezési és üzemeltetési készültségi terv definiálása és végrehajtása.
A Microsoft Responsible AI Standardtal való levelezésük mellett ezek a szakaszok szorosan megfelelnek az NIST AI kockázatkezelési keretrendszer funkcióinak.
Identify
A felelős AI-életciklus első szakasza az AI-rendszerekben előforduló vagy az általuk okozott lehetséges károk azonosítása. Minél korábban kezdi azonosítani a lehetséges károkat, annál hatékonyabb lehet az enyhítésükben. A lehetséges károk felmérése során megismerheti azOkat a kártípusokat, amelyek az Azure OpenAI szolgáltatás adott környezetekben való használatából eredhetnek. Ez a szakasz olyan javaslatokat és erőforrásokat tartalmaz, amelyekkel hatásfelméréssel, iteratív vörös csapatteszteléssel, stresszteszteléssel és elemzéssel azonosíthatja a károkat. A vörös csapatkezelés és a stressztesztelés olyan megközelítések, ahol a tesztelők egy csoportja szándékosan mintavételezi a rendszert annak korlátainak, kockázati felületének és biztonsági réseinek azonosítása érdekében.
Ezek a lépések rangsorban jelenítik meg az egyes forgatókönyvek lehetséges kárait.
-
Azonosítsa az adott modellhez, alkalmazáshoz és üzembe helyezési forgatókönyvhöz kapcsolódó károkat.
- Azonosítsa a modellhez és a modell képességeihez (például GPT-3 modell és GPT-4 modell) kapcsolódó lehetséges károkat, amelyeket a rendszerben használ. Minden modell különböző képességekkel, korlátozásokkal és kockázatokkal rendelkezik.
- Azonosítsa a fejlesztendő rendszer tervezett használata által okozott egyéb károkat vagy nagyobb mértékű kárt. Fontolja meg a felelős AI-hatásvizsgálat használatát a lehetséges károk azonosításához.
- Vegyük például a szöveget összegző AI-rendszert. A szöveggenerálás egyes felhasználási módjai alacsonyabb kockázattal járnak, mint mások. Ha a rendszert egészségügyi területen használják az orvos megjegyzéseinek összegzésére, a pontatlanságokból eredő kár kockázata nagyobb, mint ha a rendszer online cikkeket összegz.
- Az ártalmak rangsorolása a kockázat olyan elemei alapján, mint a gyakoriság és a súlyosság. Értékelje az egyes károkkal kapcsolatos kockázatok szintjét és annak valószínűségét, hogy ezek a kockázatok bekövetkeznek, annak érdekében, hogy rangsorolja az Ön által azonosított károkat. Érdemes lehet a szervezeten belüli témaszakértőkkel és kockázatkezelési vezetőkkel, illetve adott esetben az érintett külső érdekelt felekkel együttműködni.
- A legmagasabb prioritású ártalmakkal kezdve végezze el a vörös csapat tesztelését és a stressztesztelést. Jobban megismerheti, hogy az azonosított kár bekövetkezik-e a forgatókönyvben. Azonosítsa azokat az új károkat, amelyeket kezdetben nem várt.
- Ezeket az információkat megoszthatja az érintettekkel a szervezet belső megfelelőségi folyamataival.
Az Azonosítás szakasz végén egy dokumentált, rangsorolt kárlistával rendelkezik. Ha a rendszer további tesztelésével és használatával új károk és új kárpéldányok jelennek meg, frissítse és javítsa ezt a listát.
Measure
Miután azonosította az ártalmak rangsorolását, dolgozzon ki egy módszert az egyes károk szisztematikus mérésére, és végezze el az AI-rendszer kiértékelését. A méréshez manuális és automatizált megközelítéseket használhat. Javasoljuk, hogy mindkét módszert használja, kezdve a manuális méréssel.
A manuális mérés a következő esetekben hasznos:
- A folyamat előrehaladásának mérése néhány prioritási probléma esetén. Adott károk mérséklésekor gyakran a leghatékonyabb, ha manuálisan ellenőrzi a haladást egy kis adatkészleten, amíg a kár már nem észlelhető az automatizált mérésre való áttérés előtt.
- A metrikák meghatározása és jelentése mindaddig szükséges, amíg az automatizált mérés nem elég megbízható ahhoz, hogy önmagában használható legyen.
- Rendszeres helyszíni ellenőrzés az automatikus mérés minőségének mérésére.
Az automatizált mérés a következő esetekben hasznos:
- Nagy léptékű mérés nagyobb lefedettséggel, hogy átfogóbb eredményeket nyújtson.
- Folyamatos mérés a rendszer, a használat és a kockázatcsökkentések fejlődésével kapcsolatos regresszió monitorozásához.
Az alábbi javaslatok segítenek felmérni az AI-rendszert a lehetséges ártalmak szempontjából. Javasoljuk, hogy először manuálisan végezze el ezt a folyamatot, majd dolgozzon ki egy tervet a folyamat automatizálására:
Hozzon létre olyan bemeneteket, amelyek valószínűleg minden prioritást tartalmazó kárt okoznak: Hozzon létre mérési csoportokat úgy, hogy számos különböző példát hoz létre olyan célzott bemenetekre, amelyek valószínűleg minden rangsorolt kárt okoznak.
Rendszerkimenetek létrehozása: Adja át a mérési készletekből származó példákat bemenetként a rendszernek a rendszerkimenetek létrehozásához. A kimenetek dokumentálása.
Rendszerkimenetek és jelentéseredmények kiértékelése az érintett érdekelt feleknek
- Definiáljon egyértelmű metrikákat. A rendszer minden tervezett használatához hozzon létre olyan metrikákat, amelyek az egyes potenciálisan káros kimenetek gyakoriságát és súlyossági fokát mérik. Hozzon létre egyértelmű definíciókat a rendszer és a forgatókönyv kontextusában károsnak vagy problémásnak ítélt kimenetek besorolásához minden azonosított prioritású kártípushoz.
- Mérje fel a kimeneteket a világos metrikadefiníciók alapján. Jegyezze fel és számszerűsítse a káros kimenetek előfordulását. Rendszeresen ismételje meg a méréseket a kockázatcsökkentések felméréséhez és a regresszió monitorozásához.
- Ezeket az információkat megoszthatja az érintettekkel a szervezet belső megfelelőségi folyamataival.
A mérési szakasz végén rendelkeznie kell egy meghatározott mérési megközelítéssel, amely méri, hogy a rendszer hogyan teljesít az egyes lehetséges károk esetén, valamint a dokumentált eredmények kezdeti készletét. A kockázatcsökkentések implementálása és tesztelése során finomítsa a metrikákat és a mérési csoportokat. Adjon hozzá például metrikákat azokhoz az új károkhoz, amelyekre kezdetben nem számított. Frissítse az eredményeket.
Mitigate
A nagy nyelvi modellek, például az Azure OpenAI-modellek által okozott károk enyhítése iteratív, rétegzett megközelítést igényel, amely magában foglalja a kísérletezést és a folyamatos mérést. Javasoljuk, hogy fejlesszen ki egy olyan kockázatcsökkentési tervet, amely a folyamat korábbi szakaszaiban azonosított károk négy rétegét foglalja magában:
- A modell szintjén ismerje meg a használt modell(ek)et, és hogy a modellfejlesztők milyen finomhangolási lépéseket hajtanak végre a modell tervezett felhasználási módjaihoz való igazításához, valamint a potenciálisan káros felhasználások és eredmények kockázatának csökkentéséhez.
- A fejlesztők például a megerősítő tanulási módszereket használják felelős AI-eszközként, hogy jobban igazodjanak a GPT-4-hez a tervezők céljaihoz.
- A biztonsági rendszer szintjén ismerje meg a fejlesztők által implementálandó platformszintű kockázatcsökkentéseket, például az Azure OpenAI Guardrailst (korábban tartalomszűrőket), amelyek segítenek blokkolni a káros tartalmak kimenetét.
- Az alkalmazás szintjén az alkalmazásfejlesztők metaprompt és felhasználóközpontú tervezést és felhasználói élményt csökkentő megoldásokat valósíthatnak meg. A metapromptok olyan utasítások, amelyeket a modellnek a viselkedése irányításához ad meg. Használatuk kritikus különbséget tehet abban, hogy a rendszer az elvárásainak megfelelően viselkedjen. A felhasználóközpontú tervezés és a felhasználói élmény (UX) beavatkozásai szintén kulcsfontosságú kárenyhítő eszközök a mesterséges intelligenciával való visszaélés és túlzott eltérés megelőzéséhez.
- A pozicionálási szinten tájékoztassa a rendszer által használt vagy érintett személyeket a képességeiről és korlátairól.
A következő szakaszok konkrét javaslatokat nyújtanak a különböző rétegekben a kockázatcsökkentések implementálásához. Nem mindegyik megoldás felel meg minden forgatókönyvnek. Ezzel szemben előfordulhat, hogy ezek a kockázatcsökkentések bizonyos forgatókönyvekhez nem elegendőek. Alaposan gondolja át a forgatókönyvet és az azonosított prioritású károkat. A kockázatcsökkentések megvalósítása során dolgozzon ki egy folyamatot a rendszer és a forgatókönyv hatékonyságának mérésére és dokumentálására .
Modellszintű kockázatcsökkentések: Tekintse át és állapítsa meg, hogy melyik Azure OpenAI alapmodell felel meg legjobban az éppen létrehozott rendszernek. Megismerheti képességeit, korlátait és minden olyan intézkedést, amely az ön által azonosított potenciális károk kockázatának csökkentésére vonatkozik. Ha például a GPT-4-et használja, az átláthatósági megjegyzés elolvasása mellett tekintse át az OpenAI GPT-4 rendszerkártyáját , amely ismerteti a modell által bemutatott biztonsági kihívásokat és az OpenAI által a GPT-4 üzembe helyezésre való előkészítéséhez elfogadott biztonsági folyamatokat. Kísérletezzen a modell(ek) különböző verzióival (beleértve a red team tesztelést és a mérést is), hogy megértse, különböző formákban hogyan jelentkezik a káros hatás.
Biztonsági rendszerszintű kockázatcsökkentések: Azonosítsa és értékelje a platformszintű megoldások, például az Azure OpenAI Guardrails (korábban tartalomszűrők) hatékonyságát, hogy segítsen csökkenteni az Ön által azonosított lehetséges károkat.
Alkalmazásszintű kockázatcsökkentések: A gyors tervezés, beleértve a metaprompt hangolást, hatékony megoldás lehet számos különböző típusú kár esetén. Tekintse át és implementálja a metaprompt (más néven "rendszerüzenet" vagy "rendszerüzenet") útmutatását és az itt dokumentált ajánlott eljárásokat.
Implementálja a következő, felhasználóközpontú tervezési és felhasználói felületi (UX) beavatkozásokat, útmutatást és ajánlott eljárásokat annak érdekében, hogy a felhasználók a kívánt módon használják a rendszert, és megakadályozzák a mesterséges intelligenciával kapcsolatos túlzott eltérést:
- Beavatkozások áttekintése és szerkesztése: A felhasználói élmény (UX) megtervezése, hogy a rendszer használói az AI által generált kimenetek áttekintésére és szerkesztésére ösztönözzék őket az elfogadásuk előtt (lásd : HAX G9: A hatékony javítás támogatása).
- Az AI által generált kimenetek lehetséges pontatlanságainak kiemelése (lásd : HAX G2: Egyértelművé teszi, hogy a rendszer milyen jól tudja elvégezni, amit tud), mind akkor, amikor a felhasználók először kezdik használni a rendszert, és a folyamatos használat során megfelelő időpontokban is. Az első futtatási felületen (FRE) értesítse a felhasználókat, hogy az AI által létrehozott kimenetek pontatlanságokat tartalmazhatnak, és hogy ellenőrizniük kell az információkat. A felhasználói élmény során emlékeztetőket is mellékelhet az AI által generált kimenetek lehetséges pontatlanságainak ellenőrzéséhez, mind az általános, mind az adott tartalomtípusokkal kapcsolatban, amelyeket a rendszer helytelenül generálhat. Ha például a mérési folyamat azt állapítja meg, hogy a rendszer kisebb pontosságú számokkal rendelkezik, jelölje meg a számokat a generált kimenetekben, hogy figyelmeztse a felhasználót, és ösztönözze őket a számok ellenőrzésére, vagy keressen külső forrásokat ellenőrzésre.
- Felhasználói felelősség. Emlékeztetheti a felhasználókat, hogy az AI által létrehozott tartalmak áttekintésekor elszámoltathatók a végső tartalomért. Például a kódjavaslatok felajánlásakor emlékeztetheti a fejlesztőt, hogy az elfogadás előtt tekintse át és tesztelje a javaslatokat.
- Az AI szerepének felfedése az interakcióban. Tudatosíthatja az emberekben, hogy egy AI-rendszerrel kommunikálnak (szemben egy másik emberrel). Adott esetben tájékoztassa a tartalomfogyasztót, hogy a tartalmat részben vagy teljesen egy AI-modell hozza létre. Az ilyen értesítéseket jogszabály vagy az alkalmazandó ajánlott eljárások megkövetelhetik. Csökkenthetik az AI által generált kimenetekre való nem megfelelő támaszkodást, és segíthetnek a fogyasztóknak abban, hogy saját megítélésüket használják az ilyen tartalmak értelmezésére és használatára.
- A rendszer antropomorfizálásának megakadályozása. Az AI-modellek olyan tartalmakat adhatnak ki, amelyek véleményeket, hangulatjeleket vagy más olyan megfogalmazásokat tartalmaznak, amelyek emberi jellegűek lehetnek. Az ilyen tartalmak összetéveszthetők egy emberi identitással. Az ilyen tartalmak félrevezethetik az embereket, ha azt gondolják, hogy a rendszer bizonyos képességekkel rendelkezik, ha nem. Olyan mechanizmusok implementálása, amelyek csökkentik az ilyen kimenetek kockázatát, vagy közzétételeket tartalmaznak a kimenetek félreértelmezésének megakadályozása érdekében.
- Idézetek és adatforrások. Ha a rendszer a modellnek küldött hivatkozások alapján hoz létre tartalmakat, az információs forrásokra való hivatkozással a felhasználók könnyebben megérthetik, hogy honnan származik az AI által létrehozott tartalom.
- Szükség esetén korlátozza a bemenetek és kimenetek hosszát. A bemeneti és kimeneti hossz korlátozása csökkentheti a nemkívánatos tartalom, a rendszer rendeltetésen túli helytelen használatának, vagy más káros vagy nem szándékos felhasználásnak a valószínűségét.
- Strukturált bemenetek és/vagy rendszerkimenetek. A nyílt végű válaszok megakadályozása érdekében az alkalmazáson belül gyors mérnöki technikákkal strukturálhatja a rendszer bemeneteit. Azt is korlátozhatja, hogy a kimenetek bizonyos formátumokban vagy mintákban legyenek strukturálva. Ha például a rendszer egy fiktív karakterhez hoz létre párbeszédpanelt a lekérdezésekre válaszul, korlátozza a bemeneteket, hogy a felhasználók csak előre meghatározott fogalmakra kérdezhessenek le.
- Előre meghatározott válaszok előkészítése. Vannak olyan lekérdezések, amelyekre a modell sértő, nem megfelelő vagy egyéb káros válaszokat hozhat létre. Ha kártékony vagy sértő lekérdezéseket vagy válaszokat észlel, úgy tervezheti meg a rendszert, hogy előre meghatározott választ adjon a felhasználónak. Az előre meghatározott válaszokat átgondoltan kell létrehozni. Az alkalmazás például előre megírt válaszokat adhat olyan kérdésekre, mint például a "ki/mi vagy?" kérdésre, hogy a rendszer ne válaszoljon antropomorfizált válaszokkal. Előre meghatározott válaszokat is használhat olyan kérdésekre, mint például a "Mik a használati feltételek?" kérdésre, hogy a megfelelő szabályzathoz irányítsa a felhasználókat.
- Az automatikus közzététel korlátozása a közösségi médiában. Korlátozza, hogy a felhasználók hogyan automatizálhatják a terméket vagy szolgáltatást. Dönthet például úgy, hogy megtiltja az AI által létrehozott tartalmak automatikus közzétételét külső webhelyekre (beleértve a közösségi médiát is), vagy letiltja a létrehozott kód automatikus végrehajtását.
- Robotészlelés. Dolgozzon ki és implementáljon egy mechanizmust, amely megakadályozza, hogy a felhasználók API-t építhessenek a termékére.
Elhelyezési szint csökkentései:
- Legyen megfelelő transzparens. A megfelelő szintű átláthatóság biztosítása a rendszert használó személyek számára, hogy megalapozott döntéseket hozzanak a rendszer használatával kapcsolatban.
- Adja meg a rendszer dokumentációját. Oktatási anyagok készítése és biztosítása a rendszer számára, beleértve a képességeinek és korlátainak magyarázatát. Ez a tartalom lehet például a rendszeren keresztül elérhető "további információ" oldal formájában is.
- Felhasználói irányelvek és ajánlott eljárások közzététele. Az ajánlott eljárások közzétételével segítheti a felhasználókat és az érdekelt feleket a rendszer megfelelő használatában, például a gyors létrehozásban, a generációk áttekintésében, mielőtt elfogadná őket, és így tovább. Az ilyen irányelvek segíthetnek megérteni a rendszer működését. Ha lehetséges, az irányelveket és az ajánlott eljárásokat közvetlenül az UX-be kell beépíteni.
A lehetséges azonosított ártalmak kezelése érdekében a kockázatcsökkentések hatékonyságának folyamatos mérésére szolgáló folyamatot kell kidolgoznia. A mérési eredmények dokumentálása. A rendszer folyamatos fejlesztése érdekében tekintse át ezeket a mérési eredményeket.
Operate
A mérési és kárenyhítési rendszerek üzembe helyezése után határozzon meg és hajtson végre egy üzembe helyezési és üzemeltetési készültségi tervet. Ez a szakasz magában foglalja a rendszer és a kockázatcsökkentési tervek megfelelő felülvizsgálatát az érintett felekkel, a telemetriai adatok és visszajelzések gyűjtésére szolgáló folyamatok létrehozását, valamint egy incidenskezelési és visszaállítási terv kidolgozását.
Vegye figyelembe a következő javaslatokat egy olyan rendszer üzembe helyezéséhez és üzemeltetéséhez, amely az Azure OpenAI szolgáltatást használja a megfelelő, célzott kárenyhítési megoldásokkal:
A szervezet megfelelőségi csapataival együttműködve megtudhatja, hogy milyen típusú felülvizsgálatok szükségesek a rendszerhez, és mikor kell elvégezni őket. A felülvizsgálatok közé tartozhat a jogi felülvizsgálat, az adatvédelmi felülvizsgálat, a biztonsági felülvizsgálat, az akadálymentességi felülvizsgálat és mások.
A következő összetevők fejlesztése és implementálása:
- Szakaszos kézbesítési terv. Az Azure OpenAI szolgáltatást fokozatosan használó rendszereket fokozatos kézbesítési megközelítéssel indíthatja el. Ez a megközelítés korlátozott számú embernek ad lehetőséget arra, hogy kipróbálja a rendszert, visszajelzést adjon, jelentse a problémákat és problémákat, és javasoljon fejlesztéseket a rendszer szélesebb körű kiadása előtt. Emellett segít kezelni a váratlan hibamódok, a váratlan rendszerviselkedések és a váratlan problémák jelentésének kockázatát is.
- Incidenskezelési terv. Incidenskezelési terv kidolgozása és az incidensre való válaszadáshoz szükséges idő kiértékelése.
- Visszaállítási terv. Győződjön meg arról, hogy egy váratlan incidens esetén gyorsan és hatékonyan visszaállíthatja a rendszert.
- Azonnali intézkedés a váratlan károkért. Hozza létre a szükséges funkciókat és folyamatokat a problémás kérések és válaszok felderítéséhez, és a lehető legközelebb a valós idejűhez. Váratlan károk esetén a lehető leggyorsabban tiltsa le a problémás kérdéseket és válaszokat. Megfelelő csökkentő intézkedéseket fejlesszen és helyezzen üzembe. Vizsgálja meg az incidenst, és implementáljon egy hosszú távú megoldást.
- A rendszer használatával visszaélő személyek letiltására szolgáló mechanizmus. Dolgozzon ki egy mechanizmust, amely azonosítja a tartalomszabályzatokat megsértő felhasználókat (például gyűlöletbeszéd generálásával), vagy más módon nem szándékos vagy káros célokra használja a rendszert. Tegyen lépéseket a további visszaélések ellen. Ha például egy felhasználó gyakran használja a rendszerét a tartalombiztonsági rendszerek által letiltott vagy megjelölt tartalmak létrehozására, fontolja meg a rendszer további használatának letiltását. Szükség esetén alkalmazzon egy fellebbezési mechanizmust.
- Hatékony felhasználói visszajelzési csatornák. Olyan visszajelzési csatornák megvalósítása, amelyeken keresztül az érdekelt felek (és adott esetben a nyilvánosság) küldhetnek visszajelzést vagy jelentést a létrehozott tartalommal kapcsolatos vagy a rendszer használata során egyébként felmerülő problémákról. Dokumentálja az ilyen visszajelzések feldolgozását, megfontolását és kezelését. Értékelje ki a visszajelzést, és a felhasználói visszajelzések alapján javítsa a rendszert. Az egyik módszer az lehet, ha olyan gombokat tartalmaz, amelyek generált tartalommal teszik lehetővé a felhasználók számára a tartalom "pontatlan", "káros" vagy "hiányos" azonosítását. Ez a megközelítés szélesebb körben használt, strukturált és visszajelzési jelzést biztosíthat az elemzéshez.
- Telemetriai adatok. Azonosíthatja és rögzítheti (az alkalmazandó adatvédelmi törvényekkel, szabályzatokkal és kötelezettségvállalásokkal összhangban) azokat a jeleket, amelyek jelzik a felhasználói elégedettséget vagy a rendszer kívánt használatára való képességet. Telemetriaadatokkal azonosíthatja a hiányosságokat, és javíthatja a rendszert.
Ez a dokumentum nem jogi tanácsadásnak szánt és nem értelmezhető. A működési joghatóság különböző szabályozási vagy jogi követelményekkel rendelkezhet, amelyek az AI-rendszerre vonatkoznak. Forduljon egy jogi szakemberhez, ha nem biztos abban, hogy a rendszerére alkalmazandó törvények vagy szabályozások vannak-e érvényben, különösen akkor, ha úgy gondolja, hogy ezek hatással lehetnek ezekre a javaslatokra. Vegye figyelembe, hogy nem minden ilyen javaslat és erőforrás felel meg minden forgatókönyvnek, és ezzel szemben előfordulhat, hogy ezek a javaslatok és erőforrások bizonyos forgatókönyvekhez nem elegendőek.
További információk a felelős mesterséges intelligenciáról
- A Microsoft AI alapelvei
- A Microsoft felelős AI-erőforrásai
- Microsoft Azure-tanfolyamok a felelős AI-ről