Najčešća pitanja o sigurnosti i privatnosti podataka Copilot za Dynamics 365 i Power Platform
Copilot za Dynamics 365 i Power Platform značajke slijede skup osnovnih praksi sigurnosti i privatnosti te Microsoft standard odgovorne umjetne inteligencije. Podaci iz sustava Dynamics 365 i Power Platform zaštićeni su sveobuhvatnim kontrolama usklađenosti, sigurnosti i privatnosti koje su vodeće u djelatnosti.
Copilot je izgrađen na Microsoft Azure OpenAI usluzi i radi u potpunosti unutar oblaka Azure. Azure OpenAI nudi regionalnu dostupnost te odgovorno filtriranje sadržaja umjetne inteligencije. Copilot koristi OpenAI modele sa svim sigurnosnim mogućnostima Microsoft Azure. OpenAI nezavisna je organizacija. Vaše podatke ne dijelimo s organizacijom OpenAI.
Značajke alata Copilot nisu dostupne u svim geografskim područjima ni na svim jezicima sustava Azure. Ovisno o tome gdje je vaše okruženje smješteno, možda ćete morati dopustiti premještanje podataka između geografskih područja kako biste ih mogli upotrebljavati. Dodatne informacije potražite u člancima navedenim u odjeljku Premještanje podataka među zemljopisnim područjima.
Što se događa s mojim podacima kad se služim alatom Copilot?
Vi kontrolirate svoje podatke. Microsoft ne dijeli vaše podatke s trećom stranom osim ako za to niste dali dopuštenje. Nadalje, vaše ćemo klijentske podatke upotrijebiti za uvježbavanje alata Copilot ni pripadajućih značajki umjetne inteligencije samo ako ste za to dali pristanak. Copilot se pridržava postojećih dopuštenja i pravila, a odgovori koje dobivate temelje se samo na podacima kojima osobno možete pristupiti. Dodatne informacije o tome kako možete kontrolirati svoje podatke i kako se s njima rukuje, potražite u člancima navedenim u odjeljku Copilot u aplikacijama Dynamics 365 i Power Platform.
Copilot nadzire zlonamjernu ili štetnu upotrebu usluge s prolaznom obradom. Ne pohranjujemo ni ne provodimo neposredni pregled ulaznih i izlaznih podataka alata Copilot u svrhu praćenja zlouporabe.
Kako Copilot upotrebljava moje podatke?
Svaka usluga ili značajka upotrebljava Copilot na temelju podataka koje ste dostavili ili za koje ste postavili da ih Copilot obrađuje.
Vaši parametri (unosi) i odgovori alata Copilot (izlazni podaci ili rezultati):
NISU dostupni drugim klijentima.
NE upotrebljavaju se za obuku ili poboljšanje proizvoda ili usluga trećih strana (kao što su OpenAI modeli).
NE koriste se za obuku ili poboljšanje Microsoft modela umjetne inteligencije, osim ako se administrator klijenta ne odluči za dijeljenje podataka s nama. Saznajte više u članku Najčešća pitanja o neobaveznom dijeljenju podataka za značajke Copilot AI u sustavu Dynamics 365 i Power Platform.
Saznajte više o privatnosti i sigurnosti OpenAI podataka usluge Azure. Da biste saznali više o tome kako Microsoft općenito štite i upotrebljavaju vaše podatke, pročitajte našu Izjavu o privatnosti.
Gdje idu moji podaci?
Microsoft radi na povjerenju. Posvećeni smo sigurnosti, privatnosti i usklađenosti u svemu što radimo, a isti pristup imamo i umjetnoj inteligenciji. Podaci o klijentima, uključujući ulaze i izlaze Copilota, pohranjuju se unutar granica pouzdanosti u oblaku Microsoft .
U nekim scenarijima, kao što su značajke koje pokreće Bing i dodaci za kopilota treće strane, podaci o klijentima mogu se prenositi izvan granice pouzdanosti Microsoft u oblaku.
Može li Copilot pristupiti šifriranom sadržaju?
Podaci koji se daju alatu Copilot temelje se na razini pristupa trenutnog korisnika. Ako korisnik ima pristup šifriranim podacima u sustavu Dynamics 365 i Power Platform i korisnik ih dostavi u Copilot, Copilot će im moći pristupiti.
Kako Copilot štiti podatke klijenta?
Microsoft jedinstveno je pozicioniran za isporuku umjetne inteligencije spremne za poduzeća. Copilot pokreće usluga Azure OpenAI Service i u skladu je s našim postojećim obavezama koje prema klijentima imamo vezano uz privatnost, sigurnost i usklađenost.
Izgrađen na Microsoft sveobuhvatnom pristupu sigurnosti, privatnosti i usklađenosti. Copilot je integriran u Microsoft usluge kao što je Dynamics 365 i Power Platform nasljeđuje njihove pravilnike i procese sigurnosti, privatnosti i usklađenosti, kao što su višefaktorska provjera autentičnosti i granice usklađenosti.
Višestruki oblici zaštite štite organizacijske podatke. Tehnologijama na strani usluge šifrira se organizacijski sadržaj u mirovanju i tranzitu radi robusne sigurnosti. Veze su zaštićene protokolom Transport sloj Security (TLS), a prijenosi podataka između sustava Dynamics 365 Power Platform i Azure OpenAI odvijaju se preko Microsoft okosnice mreže, čime se osigurava pouzdanost i sigurnost. Saznajte više o enkripciji u oblaku Microsoft .
Dizajniran za zaštitu vaših podataka na razini klijenta i okoliša. Znamo da curenje podataka zabrinjava klijente. Microsoft Modeli umjetne inteligencije nisu obučeni i ne uče iz podataka klijenta ili upita, osim ako se administrator klijenta nije odlučio za dijeljenje podataka s nama. Unutar svojih okruženja možete kontrolirati pristup dopuštenjima koja sami postavite. Mehanizmi provjere autentičnosti i autorizacije odvajaju zahtjeve za zajednički model između klijenata. Copilot upotrebljava samo podatke kojima možete pristupiti, uz upotrebu iste tehnologije kojom već dugi niz godina osiguravamo klijentske podatke.
Temelje li se odgovori koje daje Copilot uvijek na činjenicama?
Kao i kod svake generativne umjetne inteligencije, odgovori Copilota nisu 100% činjenični. Iako nastavljamo poboljšavati odgovore na upite koji se temelje na činjenicama, svejedno biste sami trebali prosuditi i pregledati izlazne podatke prije no što ih pošaljete drugima. Copilot nudi korisne skice i sažetke koji će vam pomoći da učinite više, a u potpunosti su automatski. Uvijek imate priliku pregledati sadržaj koji je generirala umjetna inteligencija.
Naši timovi rade na proaktivnom rješavanju problema kao što su dezinformacije i dezinformacije, blokiranje sadržaja, sigurnost podataka i promicanje štetnog ili diskriminirajućeg sadržaja, u skladu s našim načelima odgovorne umjetne inteligencije.
Također pružamo smjernice u korisničkom iskustvu kako bismo ojačali odgovornu upotrebu sadržaja koji je generirala umjetna inteligencija i predloženih akcija.
Upute i upiti. Kada upotrebljavate Copilot, parametri i ostali instrukcijski elementi podsjećaju vas da pregledate i uredite sadržaj po potrebi te da ručno provjerite činjenice, podatke i tekst prije no što upotrijebite sadržaj koji je generirala umjetna inteligencija.
Navedeni izvori. Kada je to primjenjivo, Copilot će navesti svoje izvore informacije, javne ili interne, koje sami možete pregledati i tako provjeriti odgovore.
Dodatne informacija potražite u najčešćim pitanjima za odgovorni AI za svoj proizvod na portalu Microsoft Learn.
Kako Copilot blokira štetan sadržaj?
Usluga Azure OpenAI Service uključuje sustav za filtriranje sadržaja koji funkcionira zajedno s osnovnim modelima. Modeli filtriranja sadržaja za kategorije govora mržnje i pravednosti, seksualnog sadržaja, nasilja i samoozljeđivanja uvježbani su i testirani na različitim jezicima. Ovaj sustav funkcionira tako što se i uneseni parametar i odgovor pokreću u klasifikacijskim modelima koji su dizajnirani za identifikaciju i blokiranje izlaznog štetnog sadržaja.
Šteta povezana s govorom mržnje i pravednosti odnosi se na sve vrste sadržaja u kojima se upotrebljava pejorativni ili diskriminirajući jezik na temelju atributa kao što su rasa, etnička pripadnost, nacionalnost, rodni identitet i izričaj, seksualna orijentacija, vjeroispovijest, imigracijski status, sposobnosti, osobni izgled i veličina tijela. Fairness se bavi osiguravanjem da se sustavi umjetne inteligencije odnose prema svim skupinama ljudi na ravnopravan način, a da pritom ne doprinose postojećim društvenim nejednakostima. Seksualni sadržaj uključuje rasprave o ljudskim reproduktivnim organima, romantičnim Odnosi, erotskim ili nježnim radnjama, trudnoći, fizičkim seksualnim radnjama, uključujući one koji su prikazani kao napad ili prisilni čin seksualnog nasilja, prostitucije, pornografije i zlostavljanja. Nasilje opisuje jezik povezan s fizičkim radnjama koje su namijenjene ozljeđivanju ili ubijanju, uključujući radnje, oružje i povezane entitete. Jezik samoozljeđivanja odnosi se na namjerne radnje koje imaju za cilj ozlijediti ili ubiti sebe.
Saznajte više o filtriranju sadržaja na platformi Azure OpenAI .
Blokira li Copilot brze injekcije (jailbreak napade)?
Napadi bijegom iz zatvora su korisnički upiti koji su osmišljeni kako bi isprovocirali generativni model umjetne inteligencije da se ponaša na načine na koje je obučen da se ne ponaša ili da krši pravila koja mu je rečeno da se pridržava. Usluge koje se pružaju putem sustava Dynamics 365 i Power Platform potrebne su za zaštitu od ubacivanja parametara. Saznajte više o napadima jailbreaka i kako koristiti Azure AI Content Safety da biste ih otkrili.
Blokira li Copilot neizravna umetanja parametara (neizravne napade)?
Neizravni napadi, koji se nazivaju i neizravni brzi napadi ili napadi brzim ubrizgavanjem u više domena, potencijalna su ranjivost u kojoj treće strane stavljaju zlonamjerne upute u dokumente kojima generativni sustav umjetne inteligencije može pristupiti i obraditi. Usluge koje se pružaju putem sustava Dynamics 365 i Power Platform potrebne su za zaštitu od neizravnog umetanja parametara. Saznajte više o neizravnim napadima i kako koristiti Azure AI Content Safety da biste ih otkrili.
Kako testira Microsoft i potvrđuje kvalitetu Copilota, uključujući brzu zaštitu od ubrizgavanja i uzemljene odgovore?
Svaki novi Copilot proizvod i iteracija jezičnog modela moraju proći interni pregled odgovorne umjetne inteligencije prije nego što se mogu pokrenuti. Prije izdavanja služimo se procesom koji se naziva „red teaming” (u kojem tim simulira napad te pronalazi i iskorištava slabosti kako bi organizaciji pomogao poboljšati obranu) kako bi se procijenili potencijalni rizici opasnog sadržaja, jailbreak scenarija i utemeljenih odgovora. Nakon izdavanja upotrebljavamo automatizirano testiranje te ručne i automatizirane alate za procjenu kako bismo procijenili kvalitetu odgovora koje daje Copilot.
Kako poboljšati Microsoft temeljni model i mjeriti poboljšanja u utemeljenim odgovorima?
U kontekstu umjetne inteligencije, posebno umjetne inteligencije koja se bavi jezičnim modelima poput onog na kojem se temelji Copilot, uzemljenje pomaže umjetnoj inteligenciji da generira odgovore koji su relevantniji i imaju smisla u stvarnom svijetu. Utemeljenost omogućuje osigurati da se odgovori umjetne inteligencije temelje na pouzdanim informacijama te da su što precizniji i relevantniji. Metrika utemeljenosti odgovora procjenjuje koliko su precizno činjenice navedene u utemeljenom odgovoru koji se daje modelu predstavljene u konačnom odgovoru.
Osnovni modeli kao što su GPT-4 poboljšavaju se RAG tehnikama (Retrieval Augmented Generation). Ove tehnike omogućuju modelima da upotrijebe više informacija od onih koje su upotrebljene pri uvježbavanju za razumijevanje korisnikovog scenarija. RAG radi tako da se najprije prepoznaju podaci koji su relevantni za scenarij, slično kao što tražilica identificira web-stranice koje su relevantne za korisnikov termin za pretraživanje. Upotrebljava različite pristupe kako bi se prepoznalo koji je sadržaj relevantan za korisnikov parametar i koji bi se trebao upotrijebiti za utemeljenost odgovora. Pristupi uključuju pretraživanje prema različitim vrstama indeksa, primjerice obrnuti indeksi u kojima se upotrebljavaju tehnike dohvaćanja kao što je usklađivanje uvjeta ili vektorski indeksi u kojima se upotrebljavaju usporedbe vektorske udaljenosti radi semantičke sličnosti. Nakon što prepozna relevantne dokumente, RAG prosljeđuje podatke modelu zajedno s trenutnim razgovorom, dajući modelu više konteksta kako bi mogao bolje razumjeti informacije koje već posjeduje te generirati odgovor koji je utemeljen u stvarnom svijetu. RAG na kraju provjerava odgovor kako bi osigurao da je podržan izvornim sadržajem koji je pribavljen modelu. RAG je na različite načine uključen u značajke generativne umjetne inteligencije u alatu Copilot. Jedan primjer je čavrljanje s upotrebom podataka u kojem je chatbot utemeljen vlastitim klijentovim izvorima podataka.
Druga metoda za poboljšanje temeljnih modela poznata je kao fino podešavanje. Osnovnom modelu pokazuje se veliki skup podataka s parovima upita i odgovora kao bi se izvorno uvježbavanje uvećalo novim uzorcima koji su namijenjeni određenom scenariju. Model se zatim može primijeniti kao zaseban model – onaj koji je fino prilagođen određenom scenariju. Dok se pri utemeljenosti radi o tome da znanje umjetne inteligencije mora biti relevantno za stvarni svijet, kod fine prilagodbe znanje umjetne inteligencije mora biti više specifično za određeni zadatak ili domenu. Microsoft koristi fino podešavanje na više načina. Upotrebljavamo, na primjer, izradu Power Automate toka iz opisa na prirodnom jeziku koje je pružio korisnik.
Ispunjava li Copilot zahtjeve za usklađenost s propisima?
Microsoft Copilot dio je ekosustava Dynamics 365 i Power Platform te ispunjava iste zahtjeve za usklađenost s propisima. Dodatne informacije o regulatornim certifikatima Microsoft usluga potražite na portalu za pouzdanost usluga. Osim toga, Copilot se pridržava naše predanosti odgovornoj umjetnoj inteligenciji, koja se provodi kroz naš standard odgovorne umjetne inteligencije. Kako se regulacija u području umjetne inteligencije razvija, Microsoft nastavlja se prilagođavati i odgovarati na nove zahtjeve.
Saznajte više
Copilot u aplikacijama sustava Dynamics 365 i Power Platform
Saznajte više u članku Najčešća pitanja o neobaveznom dijeljenju podataka za značajke Copilot AI u sustavu Dynamics 365 i Power Platform.
Regionalna i jezična dostupnost
Međunarodna dostupnost Copilota
Premještanje podataka između geografskih područja
- Kako funkcionira premještanje podataka među regijama
- Konfiguriranje premještanja podataka na geografskim lokacijama za generativne značajke umjetne inteligencije izvan Sjedinjenih Država
- Kretanje podataka Copilot među zemljopisnim područjima u sustavu Dynamics 365 Sales
- Kretanje podataka kopilota među zemljopisnim područjima u Dynamics 365 Business Central
Sigurnost na Microsoft
- Uvod u sigurnost Azurea
- Enkripcija u oblaku Microsoft
- Podaci, privatnost i sigurnost za uslugu Azure OpenAI – Azure AI usluge