Napomena
Za pristup ovoj stranici potrebna je autorizacija. Možete se pokušati prijaviti ili promijeniti direktorije.
Za pristup ovoj stranici potrebna je autorizacija. Možete pokušati promijeniti direktorije.
Copilot za Dynamics 365 i Power Platform značajke slijede skup osnovnih praksi sigurnosti i zaštite privatnosti te Microsoftov standard odgovorne umjetne inteligencije. Podaci iz sustava Dynamics 365 i Power Platform zaštićeni su sveobuhvatnim kontrolama usklađenosti, sigurnosti i privatnosti koje su vodeće u djelatnosti.
Copilot je izgrađen na Microsoft Azure OpenAI usluzi i radi u potpunosti unutar oblaka Azure. Azure OpenAI nudi regionalnu dostupnost te odgovorno filtriranje sadržaja umjetne inteligencije. Copilot koristi OpenAI modele sa svim sigurnosnim mogućnostima Microsoft Azure. OpenAI nezavisna je organizacija. Vaše podatke ne dijelimo s organizacijom OpenAI.
Značajke alata Copilot nisu dostupne u svim geografskim područjima ni na svim jezicima sustava Azure. Ovisno o tome gdje je vaše okruženje smješteno, možda ćete morati dopustiti premještanje podataka između geografskih područja kako biste ih mogli upotrebljavati. Dodatne informacije potražite u člancima navedenim u odjeljku Premještanje podataka među zemljopisnim područjima.
Što se događa s mojim podacima kad se služim alatom Copilot?
Vi kontrolirate svoje podatke. Microsoft vaše podatke s trećim stranama dijeli samo ako ste za to dali dopuštenje. Nadalje, vaše ćemo klijentske podatke upotrijebiti za uvježbavanje alata Copilot ni pripadajućih značajki umjetne inteligencije samo ako ste za to dali pristanak. Copilot se pridržava postojećih dopuštenja i pravila, a odgovori koje dobivate temelje se samo na podacima kojima osobno možete pristupiti. Dodatne informacije o tome kako možete kontrolirati svoje podatke i kako se s njima rukuje, potražite u člancima navedenim u odjeljku Copilot u aplikacijama sustava Dynamics 365 i Power Platform.
Copilot nadzire zlonamjernu ili štetnu upotrebu usluge s prolaznom obradom. Ne pohranjujemo ni ne provodimo neposredni pregled ulaznih i izlaznih podataka alata Copilot u svrhu praćenja zlouporabe.
Kako Copilot upotrebljava moje podatke?
Svaka usluga ili značajka upotrebljava Copilot na temelju podataka koje ste dostavili ili za koje ste postavili da ih Copilot obrađuje.
Vaši parametri (unosi) i odgovori alata Copilot (izlazni podaci ili rezultati):
NISU dostupni drugim klijentima.
NE upotrebljavaju se za obuku ili poboljšanje proizvoda ili usluga trećih strana (kao što su OpenAI modeli).
NE upotrebljavaju se za uvježbavanje ili poboljšanje Microsoftovih modela umjetne inteligencije osim ako administrator vašeg klijenta nije odabrao dijeliti podatke s nama. Saznajte više u članku Najčešća pitanja o neobaveznom dijeljenju podataka za značajke Copilot AI u sustavu Dynamics 365 i Power Platform.
Saznajte više o privatnosti i sigurnosti OpenAI podataka usluge Azure. Da biste saznali više o tome kako Microsoft općenito štiti i koristi vaše podatke, pročitajte našu Izjavu o zaštiti privatnosti.
Gdje idu moji podaci?
Microsoft radi na temelju povjerenja. Posvećeni smo sigurnosti, privatnosti i usklađenosti u svemu što radimo, a isti pristup imamo i umjetnoj inteligenciji. Klijentski podaci, uključujući ulazne i izlazne podatke alata Copilot, pohranjuju se unutar granica povjerenja usluge Microsoft Cloud.
U nekim scenarijima, primjerice za značajke koje pokreće Bing i dodataka za kopilot treće strane, podaci o korisnicima mogu se prenositi izvan granica povjerenja usluge Microsoft Cloud.
Može li Copilot pristupiti šifriranom sadržaju?
Podaci koji se daju alatu Copilot temelje se na razini pristupa trenutnog korisnika. Ako korisnik ima pristup šifriranim podacima u sustavu Dynamics 365 i Power Platform i korisnik ih dostavi u Copilot, Copilot će im moći pristupiti.
Kako Copilot štiti podatke klijenta?
Microsoft je u jedinstvenoj poziciji za isporuku umjetne inteligencije spremne za poduzeća. Copilot pokreće usluga Azure OpenAI Service i u skladu je s našim postojećim obavezama koje prema klijentima imamo vezano uz privatnost, sigurnost i usklađenost.
Izgrađen na Microsoftovom sveobuhvatnom pristupu sigurnosti, zaštiti privatnosti i usklađenosti. Copilot je integriran u Microsoftove usluge kao što su Dynamics 365 i Power Platform te od tih proizvoda nasljeđuje pravila i prrocese o sigurnosti, privatnosti i usklađenosti, primjerice višestruku provjeru autentičnosti i granice usklađenosti.
Višestruki oblici zaštite štite organizacijske podatke. Tehnologijama na strani usluge šifrira se organizacijski sadržaj u mirovanju i tranzitu radi robusne sigurnosti. Veze su zaštićene tehnologijom Transport Layer Security (TLS), a prijenosi podataka između usluga Dynamics 365, Power Platform i Azure OpenAI odvijaju se preko Microsoftove temeljne mreže, osiguravajući i pouzdanost i sigurnost. Saznajte više o šifriranju u Microsoftovu oblaku.
Dizajniran za zaštitu vaših podataka na razini klijenta i okoliša. Znamo da curenje podataka zabrinjava klijente. Microsoftovi modeli umjetne inteligencije ne uvježbavaju se i ne uče iz vaših podataka klijenta ili vaših parametara, osim ako vaš administrator klijenta nije odabrao podijeliti podatke s nama. Unutar svojih okruženja možete kontrolirati pristup dopuštenjima koja sami postavite. Mehanizmi provjere autentičnosti i autorizacije odvajaju zahtjeve za zajednički model između klijenata. Copilot upotrebljava samo podatke kojima možete pristupiti, uz upotrebu iste tehnologije kojom već dugi niz godina osiguravamo klijentske podatke.
Temelje li se odgovori koje daje Copilot uvijek na činjenicama?
Kao i kod svake generativne umjetne inteligencije, odgovori Copilota nisu 100% činjenični. Iako nastavljamo poboljšavati odgovore na upite koji se temelje na činjenicama, svejedno biste sami trebali prosuditi i pregledati izlazne podatke prije no što ih pošaljete drugima. Copilot nudi korisne skice i sažetke koji će vam pomoći da učinite više, a u potpunosti su automatski. Uvijek imate priliku pregledati sadržaj koji je generirala umjetna inteligencija.
Naši timovi rade na proaktivnom rješavanju problema kao što su dezinformacije i dezinformacije, blokiranje sadržaja, sigurnost podataka i promicanje štetnog ili diskriminirajućeg sadržaja, u skladu s našim načelima odgovorne umjetne inteligencije.
Također pružamo smjernice u korisničkom iskustvu kako bismo ojačali odgovornu upotrebu sadržaja koji je generirala umjetna inteligencija i predloženih akcija.
Upute i upiti. Kada upotrebljavate Copilot, parametri i ostali instrukcijski elementi podsjećaju vas da pregledate i uredite sadržaj po potrebi te da ručno provjerite činjenice, podatke i tekst prije no što upotrijebite sadržaj koji je generirala umjetna inteligencija.
Navedeni izvori. Kada je to primjenjivo, Copilot će navesti svoje izvore informacije, javne ili interne, koje sami možete pregledati i tako provjeriti odgovore.
Dodatne informacija potražite u najčešćim pitanjima za odgovorni AI za svoj proizvod na portalu Microsoft Learn.
Kako Copilot blokira štetan sadržaj?
Usluga Azure OpenAI Service uključuje sustav za filtriranje sadržaja koji funkcionira zajedno s osnovnim modelima. Modeli filtriranja sadržaja za kategorije govora mržnje i pravednosti, seksualnog sadržaja, nasilja i samoozljeđivanja uvježbani su i testirani na različitim jezicima. Ovaj sustav funkcionira tako što se i uneseni parametar i odgovor pokreću u klasifikacijskim modelima koji su dizajnirani za identifikaciju i blokiranje izlaznog štetnog sadržaja.
Šteta povezana s govorom mržnje i pravednosti odnosi se na sve vrste sadržaja u kojima se upotrebljava pejorativni ili diskriminirajući jezik na temelju atributa kao što su rasa, etnička pripadnost, nacionalnost, rodni identitet i izričaj, seksualna orijentacija, vjeroispovijest, imigracijski status, sposobnosti, osobni izgled i veličina tijela. Fairness se bavi osiguravanjem da se sustavi umjetne inteligencije odnose prema svim skupinama ljudi na ravnopravan način, a da pritom ne doprinose postojećim društvenim nejednakostima. Seksualni sadržaj uključuje rasprave o ljudskim reproduktivnim organima, romantičnim vezama, erotskim ili nježnim radnjama, trudnoći, fizičkim seksualnim radnjama, uključujući one koje se prikazuju kao napad ili prisilni čin seksualnog nasilja, prostitucije, pornografije i zlostavljanja. Nasilje opisuje jezik povezan s fizičkim radnjama koje su namijenjene ozljeđivanju ili ubijanju, uključujući radnje, oružje i povezane entitete. Jezik samoozljeđivanja odnosi se na namjerne radnje koje imaju za cilj ozlijediti ili ubiti sebe.
Saznajte više o filtriranju OpenAI sadržaja na platformi Azure.
Blokira li Copilot brze injekcije (jailbreak napade)?
Napadi bijegom iz zatvora su korisnički upiti koji su osmišljeni kako bi isprovocirali generativni model umjetne inteligencije da se ponaša na načine na koje je obučen da se ne ponaša ili da krši pravila koja mu je rečeno da se pridržava. Usluge koje se pružaju putem sustava Dynamics 365 i Power Platform potrebne su za zaštitu od ubacivanja parametara. Saznajte više o napadima jailbreaka i kako koristiti Azure AI Content Safety da biste ih otkrili.
Blokira li Copilot neizravna umetanja parametara (neizravne napade)?
Neizravni napadi, koji se nazivaju i neizravni brzi napadi ili napadi brzim ubrizgavanjem u više domena, potencijalna su ranjivost u kojoj treće strane stavljaju zlonamjerne upute u dokumente kojima generativni sustav umjetne inteligencije može pristupiti i obraditi. Usluge koje se pružaju putem sustava Dynamics 365 i Power Platform potrebne su za zaštitu od neizravnog umetanja parametara. Saznajte više o neizravnim napadima i kako koristiti Azure AI Content Safety da biste ih otkrili.
Kako Microsoft testira i potvrđuje kvalitetu alata Copilot, uključujući zaštitu od ubacivanja parametara i utemeljene odgovore?
Svaki novi Copilot proizvod i iteracija jezičnog modela moraju proći interni pregled odgovorne umjetne inteligencije prije nego što se mogu pokrenuti. Prije izdavanja služimo se procesom koji se naziva „red teaming” (u kojem tim simulira napad te pronalazi i iskorištava slabosti kako bi organizaciji pomogao poboljšati obranu) kako bi se procijenili potencijalni rizici opasnog sadržaja, jailbreak scenarija i utemeljenih odgovora. Nakon izdavanja upotrebljavamo automatizirano testiranje te ručne i automatizirane alate za procjenu kako bismo procijenili kvalitetu odgovora koje daje Copilot.
Kako Microsoft poboljšava osnovni model i mjeri poboljšanja u utemeljenim odgovorima?
U kontekstu umjetne inteligencije, posebno umjetne inteligencije koja se bavi jezičnim modelima poput onog na kojem se temelji Copilot, uzemljenje pomaže umjetnoj inteligenciji da generira odgovore koji su relevantniji i imaju smisla u stvarnom svijetu. Utemeljenost omogućuje osigurati da se odgovori umjetne inteligencije temelje na pouzdanim informacijama te da su što precizniji i relevantniji. Metrika utemeljenosti odgovora procjenjuje koliko su precizno činjenice navedene u utemeljenom odgovoru koji se daje modelu predstavljene u konačnom odgovoru.
Modeli temelja kao što GPT-4 su poboljšani tehnikama Retrieval Augmented Generation (RAG). Ove tehnike omogućuju modelima da upotrijebe više informacija od onih koje su upotrebljene pri uvježbavanju za razumijevanje korisnikovog scenarija. RAG radi tako da se najprije prepoznaju podaci koji su relevantni za scenarij, slično kao što tražilica identificira web-stranice koje su relevantne za korisnikov termin za pretraživanje. Upotrebljava različite pristupe kako bi se prepoznalo koji je sadržaj relevantan za korisnikov parametar i koji bi se trebao upotrijebiti za utemeljenost odgovora. Pristupi uključuju pretraživanje prema različitim vrstama indeksa, primjerice obrnuti indeksi u kojima se upotrebljavaju tehnike dohvaćanja kao što je usklađivanje uvjeta ili vektorski indeksi u kojima se upotrebljavaju usporedbe vektorske udaljenosti radi semantičke sličnosti. Nakon što prepozna relevantne dokumente, RAG prosljeđuje podatke modelu zajedno s trenutnim razgovorom, dajući modelu više konteksta kako bi mogao bolje razumjeti informacije koje već posjeduje te generirati odgovor koji je utemeljen u stvarnom svijetu. RAG na kraju provjerava odgovor kako bi osigurao da je podržan izvornim sadržajem koji je pribavljen modelu. RAG je na različite načine uključen u značajke generativne umjetne inteligencije u alatu Copilot. Jedan primjer je čavrljanje s upotrebom podataka u kojem je chatbot utemeljen vlastitim klijentovim izvorima podataka.
Druga metoda za poboljšanje temeljnih modela poznata je kao fino podešavanje. Osnovnom modelu pokazuje se veliki skup podataka s parovima upita i odgovora kao bi se izvorno uvježbavanje uvećalo novim uzorcima koji su namijenjeni određenom scenariju. Model se zatim može primijeniti kao zaseban model – onaj koji je fino prilagođen određenom scenariju. Dok se pri utemeljenosti radi o tome da znanje umjetne inteligencije mora biti relevantno za stvarni svijet, kod fine prilagodbe znanje umjetne inteligencije mora biti više specifično za određeni zadatak ili domenu. Microsoft finu prilagodbu upotrebljava na različite načine. Upotrebljavamo, na primjer, izradu Power Automate toka iz opisa na prirodnom jeziku koje je pružio korisnik.
Ispunjava li Copilot zahtjeve za usklađenost s propisima?
Microsoft Copilot dio je ekosustava Dynamics 365 i Power Platform te ispunjava iste zahtjeve za usklađenost s propisima. Dodatne informacije o regulatornim certifikatima Microsoftovih servisa potražite na portalu za pouzdanost usluga. Osim toga, Copilot se pridržava naše predanosti odgovornoj umjetnoj inteligenciji, koja se provodi kroz naš standard odgovorne umjetne inteligencije. Kako se propisi u području umjetne inteligencije budu razvijali, Microsoft će nastaviti prilagođavati svoje usluge i odgovarati na buduće zahtjeve.
Saznajte više
Copilot u aplikacijama sustava Dynamics 365 i Power Platform
Saznajte više u članku Najčešća pitanja o neobaveznom dijeljenju podataka za značajke Copilot AI u sustavu Dynamics 365 i Power Platform.
Regionalna i jezična dostupnost
Međunarodna dostupnost Copilota
Premještanje podataka između geografskih područja
- Kako funkcionira premještanje podataka među regijama
- Konfiguriranje premještanja podataka na geografskim lokacijama za generativne značajke umjetne inteligencije izvan Sjedinjenih Država
- Premještanje podataka Copilota na različitim geografskim područjima u sustavu Dynamics 365 Sales
- Kretanje podataka kopilota među zemljopisnim područjima u Dynamics 365 Business Central
Sigurnost u Microsoftu
- Uvod u sigurnost Azurea
- Šifriranje u Microsoftovu oblaku
- Podaci, privatnost i sigurnost za uslugu Azure OpenAI – Azure AI usluge
Zaštita privatnosti tvrtke Microsoft
Microsoftova izjava o zaštiti privatnosti