Jagamisviis:


Inimülevaatus juhisega automaatika jaoks

See artikkel rõhutab inimese ülevaatuse kriitilist rolli GPT-funktsiooniga teksti loomise juurutamisel Power Automate. See funktsioon kasutab teksti genereerimise mudelit, mille AI Builder toiteallikaks on Azure OpenAI Service. Kuigi need mudelid on väga tõhusad, võivad need mõnikord tekitada eksitavat või fabritseeritud teavet ning on vastuvõtlikud kiiretele süstimisrünnakutele.

Oluline

  • AI Builder viibad töötavad GPT-3.5 Turbo ja GPT-4 (eelversioon) mudelitel, mida toetab Azure OpenAI Service.
  • See võimalus on piiratud mõne piirkonnaga.
  • Selle võimaluse suhtes võivad kehtida kasutuspiirangud või võimsuse ahendamine.

Kiired süstimisrünnakud

Kiire süstimisrünnak toimub siis, kui kolmas osapool kasutab ära mudeli loomupärast usaldust kõigi sisendallikate vastu. Ründaja süstib viipa sisusse, millega seaduslik kasutaja palub AI-lahendusel suhelda, mis viib AI-lahenduse väljundi ja potentsiaalselt ka selle toimingute muutumiseni.

Mõelge näiteks stsenaariumile, kus kodanikust arendaja kasutab toimingut Loo tekst GPT-ga , et sõnastada vastused klientide kaebustele, mis on kogutud erinevatelt platvormidelt, näiteks e-kirjadelt, sotsiaalmeediast või foorumitest. Ründaja võib lisada ühe sellise allika sisusse viiba. See stsenaarium võib petta mudelit, et luua vastus, mis erineb kavandatud. Vastus võib olla sobimatu, vale või kahjulik. Klientidele saadetav vale teave võib negatiivselt mõjutada ettevõtte mainet ja kliendisuhteid.

Tootmine tehisintellekti mudelites

Valmistamine, tuntud ka kui hallutsinatsioon, on veel üks väljakutse, millega tehisintellekti mudelid, sealhulgas teksti genereerimise mudel, silmitsi seisavad. Valmistamine toimub siis, kui tehisintellekti mudel genereerib teavet, mis ei põhine esitatud sisenditel või olemasolevatel andmetel, sisuliselt leiutades või hallutsineerides teavet.

Näiteks kui tehisintellekti mudelil palutakse luua antud teksti põhjal ajaloolise sündmuse kokkuvõte, võib see sisaldada üksikasju või sündmusi, mida lähtetekstis ei mainitud. Näiteks loob voog salvestuse ärakirja põhjal koosoleku kokkuvõtte. Sisendandmed sisaldavad üksikasju osalejate, arutatud artiklite ja tehtud otsuste kohta. Kuid mudel võib luua kokkuvõtte, mis sisaldab tegevusüksust või otsust, mida koosolekul kunagi ei arutatud. Selline olukord on väljamõeldis, kus mudelil on hallutsineeritud teave, mida sisendandmetes pole.

Valmistamise riski leevendamiseks on ülioluline rakendada vastutustundlikke tehisintellekti tavasid. See hõlmab kiire ja voolu ranget testimist, andes mudelile võimalikult palju maandusteavet ja rakendades lõpuks tugevat inimjärelevalve süsteemi.

Maandage riske vastutustundlike tehisintellekti tavade abil

Pooldame vastutustundlikke tehisintellekti tavasid kui vahendit riskide vähendamiseks. Hoolimata sellest, et mudeli toodetud sisu modereerimiseks on olemas strateegiad, on mudeli kalduvuse haldamine fabritseeritud vastuste genereerimiseks või kiiretele süstimisrünnakutele alistumiseks endiselt keeruline väljakutse. Me tunnistame neid riske ja kinnitame veel kord oma pühendumust inimeste järelevalvele ja kontrollile.

Tunnistades sujuva automatiseerimise vajadust, täiustame ennetavalt oma ohutussüsteeme ja otsime nende väljakutsete sügavamat mõistmist. Meie eesmärk on teksti genereerimise mudelit veelgi täiustada asjakohaste ohutusmeetmetega, mis on kooskõlas meie vastutustundliku kavandatud tehisintellekti põhimõtetega, tagastades kontrolli arendajatele, kui see on teostatav.

Vastutustundlik tehisintellekt – KKK