Kopīgot, izmantojot


Cilvēku veikta pārskatīšana automatizācijai ar uzvedni

Šajā rakstā ir uzsvērta cilvēka veiktas pārskatīšanas kritiskā loma, izvietojot funkciju Izveidot tekstu ar GPT Power Automate. Šis līdzeklis izmanto teksta ģenerēšanas modeli no AI Builder, ko nodrošina Azure OpenAI Service. Lai gan šie modeļi ir ļoti efektīvi, tie dažreiz var radīt maldinošu vai safabricētu informāciju un ir jutīgi pret tūlītējiem injekcijas uzbrukumiem.

Svarīgi

Tūlītējas injekcijas lēkmes

Tūlītējs injekcijas uzbrukums notiek, ja trešā puse izmanto modelim raksturīgo uzticību visiem ievades avotiem. Uzbrucējs ievada uzvedni saturā, ar kuru likumīgs lietotājs lūdz AI risinājumu mijiedarboties, kā rezultātā tiek mainīti AI risinājuma rezultāti un, iespējams, tā darbības.

Piemēram, apsveriet scenāriju, kurā iedzīvotājs izstrādātājs izmanto darbību Izveidot tekstu ar GPT , lai formulētu atbildes uz klientu sūdzībām, kas apkopotas no dažādām platformām, piemēram, e-pastiem, sociālajiem medijiem vai forumiem. Uzbrucējs var ievietot uzvedni saturā no viena no šiem avotiem. Šis scenārijs var maldināt modeli, lai ģenerētu atbilde, kas atšķiras no paredzētās. Atbilde var būt nepiemērots, nepareizs vai kaitīgs. Nepareiza informācija, kas tiek nosūtīta klientiem, var negatīvi ietekmēt uzņēmuma reputāciju un attiecības ar klientiem.

Izgatavošana AI modeļos

Safabricēšana, kas pazīstama arī kā halucinācijas, ir vēl viena problēma, ar ko saskaras AI modeļi, tostarp teksta ģenerēšanas modelis. Izgatavošana notiek, kad AI modelis ģenerē informāciju, kas nav balstīta uz sniegtajiem ievaddatiem vai jau esošiem datiem, būtībā izgudrojot vai halucinējot informāciju.

Piemēram, ja AI modelim tiek lūgts ģenerēt vēsturiska notikuma kopsavilkumu, pamatojoties uz konkrētu tekstu, tajā var būt iekļauta detalizēta informācija vai notikumi, kas nav minēti avota tekstā. Piemēram, plūsma izveido sapulces kopsavilkumu, pamatojoties uz ieraksta atšifrējumu. Ievades dati ietver detalizētu informāciju par dalībniekiem, apspriestajiem rakstiem un pieņemtajiem lēmumiem. Tomēr modelis var ģenerēt kopsavilkumu, kas ietver darbības vienumu vai lēmumu, kas nekad nav ticis apspriests sapulcē. Šī situācija ir safabricēšanas gadījums, kad modelim ir halucinēta informācija, kas nepastāv ievades datos.

Lai mazinātu ražošanas risku, ir ļoti svarīgi īstenot atbildīgu MI praksi. Tas ietver stingru ātras un plūsmas pārbaudi, nodrošinot modelim pēc iespējas vairāk zemējuma informācijas un visbeidzot ieviešot stabilu sistēmu cilvēka uzraudzībai.

Novērst riskus, izmantojot atbildīgu MI praksi

Mēs iestājamies par atbildīgu mākslīgā intelekta praksi kā līdzekli risku mazināšanai. Neskatoties uz to, ka ir ieviestas stratēģijas, lai regulētu modeļa radīto saturu, modeļa tieksmes ģenerēt safabricētas atbildes vai ļauties tūlītējiem injekciju uzbrukumiem pārvaldība joprojām ir sarežģīts izaicinājums. Mēs atzīstam šos riskus un atkārtoti apstiprinām savu apņemšanos nodrošināt cilvēku veiktu pārraudzību un kontroli.

Atzīstot nepieciešamību pēc nevainojamas automatizācijas, mēs proaktīvi uzlabojam savas drošības sistēmas un meklējam dziļāku izpratni par šiem izaicinājumiem. Mūsu mērķis ir vēl vairāk uzlabot teksta ģenerēšanas modeli ar atbilstošiem drošības pasākumiem saskaņā ar mūsu principiem par integrētu atbildīgu mākslīgo intelektu, atgriežot kontroli izstrādātājiem, kad vien tas ir iespējams.

Atbildīgs mākslīgais intelekts – bieži uzdotie jautājumi