A lehetséges károk elhárítása

Befejeződött

Miután meghatározta az alaptervet és a megoldás által generált káros kimenet mérésének módját, lépéseket tehet a lehetséges károk mérséklésére, és szükség esetén újra tesztelheti a módosított rendszert, és összehasonlíthatja a kárszinteket az alapkonfigurációval.

A generatív AI-megoldások lehetséges károsodásainak elhárítása rétegzett megközelítéssel jár, amelyben négy rétegben alkalmazhatók a kárenyhítési technikák, ahogy az itt látható:

Diagram showing the model, safety system, application, and positioning layers of a generative AI solution.

  1. Modell
  2. Széf ty System
  3. Metaprompt és földelés
  4. Felhasználó felület

1: A modellréteg

A modellréteg a megoldás középpontjában lévő generatív AI-modell(ek)ből áll. Előfordulhat például, hogy a megoldás egy olyan modell köré épül, mint a GPT-4.

A modellrétegben alkalmazható kockázatcsökkentések a következők:

  • A kívánt megoldáshoz megfelelő modell kiválasztása. Bár például a GPT-4 hatékony és sokoldalú modell lehet, egy olyan megoldásban, amely csak a kis méretű, konkrét szöveges bemenetek besorolásához szükséges, az egyszerűbb modellek a szükséges funkciókat is biztosíthatják, így kisebb a káros tartalomgenerálás kockázata.
  • Egy alapszintű modell finomhangolása saját betanítási adatokkal, hogy az általa generált válaszok nagyobb valószínűséggel relevánsak legyenek, és a megoldásforgatókönyvre terjedjenek ki.

2: A biztonsági rendszer rétege

A biztonsági rendszer rétege platformszintű konfigurációkat és képességeket tartalmaz, amelyek segítenek enyhíteni a károkat. Az Azure OpenAI szolgáltatás például támogatja azokat a tartalomszűrőket, amelyek a tartalom négy súlyossági szintre (biztonságos, alacsony, közepes és magas) történő besorolásán alapuló kérések és válaszok letiltására vonatkozó feltételeket alkalmaznak a lehetséges ártalom négy kategóriájára (gyűlölet, szexuális, erőszak és önsérelem) vonatkozóan.

Egyéb biztonsági rendszerréteg-kockázatcsökkentések tartalmazhatnak visszaélésészlelési algoritmusokat annak megállapítására, hogy a megoldást szisztematikusan használják-e (például nagy mennyiségű automatizált kéréssel egy robottól), valamint riasztási értesítéseket, amelyek gyors választ adnak a rendszer esetleges visszaélésére vagy káros viselkedésére.

3: A metaprompt és a földelő réteg

A metaprompt és a földelő réteg a modellnek küldött kérések felépítésére összpontosít. Az ezen a rétegen alkalmazható kárenyhítési technikák a következők:

  • A modell viselkedési paramétereit meghatározó metapromptok vagy rendszerbemenetek megadása.
  • A parancssori tervezés alkalmazása földelési adatok beviteli kérésekhez való hozzáadásához, maximalizálva a releváns, nemharmális kimenetek valószínűségét.
  • A lekérdezési kiterjesztett generációs (RAG) módszer használatával környezeti adatokat kér le megbízható adatforrásokból, és belefoglalja azokat a kérésekbe.

4: A felhasználói felület rétege

A felhasználói felület rétege tartalmazza azt a szoftveralkalmazást, amelyen keresztül a felhasználók a generatív AI-modellel kommunikálnak, valamint dokumentációt vagy egyéb felhasználói biztosítékot, amely leírja a megoldás használatát a felhasználók és az érdekelt felek számára.

Ha úgy tervezi meg az alkalmazás felhasználói felületét, hogy bizonyos témákra vagy típusokra korlátozza a bemeneteket, vagy a bemeneti és kimeneti ellenőrzés alkalmazása csökkenti a potenciálisan káros válaszok kockázatát.

A generatív AI-megoldások dokumentációjának és egyéb leírásainak megfelelően átláthatónak kell lenniük a rendszer képességeiről és korlátairól, az alapul szolgáló modellekről, valamint azokról a lehetséges károkról, amelyek nem mindig kezelhetők az Ön által alkalmazott kockázatcsökkentő intézkedésekkel.