Întrebări frecvente despre securitatea și confidențialitatea datelor Copilot în Dynamics 365 și Power Platform
Caracteristicile Copilot pentru Dynamics 365 și Power Platform respectă un set de practici de bază pentru securitate și confidențialitate și Standardul Microsoft pentru inteligența artificială responsabilă. Datele Dynamics 365 și Power Platform sunt protejate de controale de securitate, conformitate și confidențialitate cuprinzătoare, cele mai bune din sectorul de activitate.
Copilot a fost generat pe baza serviciului Microsoft Azure OpenAI și rulează complet în cloudul Azure. Azure OpenAI oferă disponibilitate regională și filtrarea conținutului de la inteligența artificială responsabilă. Copilot folosește modele OpenAI, cu toate capacitățile de securitate ale Microsoft Azure. OpenAI este o organizație independentă. Nu partajăm datele dvs. cu OpenAI.
Caracteristicile Copilot nu sunt disponibile în toate zonele geografice și limbile Azure. În funcție de locul în care este găzduit mediul dvs., este posibil să fie necesar să permiteți mișcarea datelor între zone geografice pentru a le utiliza. Pentru mai multe informații, consultați articolele enumerate în Mișcarea datelor între zone geografice.
Ce se întâmplă cu datele mele când folosesc Copilot?
Dvs. dețineți controlul asupra propriilor date. Microsoft nu partajează datele dvs. cu o terță parte decât dacă ați acordat permisiunea în acest sens. Mai mult, nu folosim datele clienților dvs. pentru a instrui Copilot sau caracteristicile sale de inteligență artificială, cu excepția cazului în care ne dați consimțământul de a face acest lucru. Copilot respectă permisiunile și politicile existente privind datele, iar răspunsurile furnizate dvs. se bazează numai pe datele pe care puteți accesa la nivel personal. Pentru mai multe informații despre cum vă puteți controla datele și despre cum sunt gestionate datele dvs., consultați articolele enumerate în Copilot în aplicațiile Dynamics 365 și în Power Platform.
Copilot monitorizează utilizările abuzive sau dăunătoare ale serviciului cu procesare tranzitorie. Nu stocăm și nu efectuăm o revizuire vizuală a intrărilor și ieșirilor Copilot în scopul monitorizării abuzurilor.
Cum folosește Copilot datele mele?
Fiecare serviciu sau caracteristică utilizează Copilot pe baza datelor pe care le furnizați sau le configurați pentru a fi procesate de Copilot.
Solicitările dvs. (intrările) și răspunsurile Copilot (ieșirile sau rezultatele):
NU sunt disponibile pentru alți clienți.
NU sunt folosite pentru a instrui sau a îmbunătăți produse sau servicii terțe (cum ar fi modele OpenAI).
NU sunt folosite pentru a instrui sau a îmbunătăți modelele de inteligență artificială Microsoft decât dacă administratorul entității găzduite optează pentru partajarea datelor cu noi. Aflați mai multe de la Întrebări frecvente pentru partajarea opțională a datelor pentru caracteristicile de inteligență artificială Copilot din Dynamics 365 și Power Platform.
Aflați mai multe despre confidențialitatea și securitatea datelor Azure OpenAI Service. Pentru a afla mai multe despre modul în care Microsoft protejează și utilizează datele dvs. în general, citiți Angajamentul nostru de respectare a confidențialității.
Unde se duc datele mele?
Microsoft funcționează pe bază de încredere. Suntem angajați față de securitate, confidențialitate și conformitate în tot ceea ce facem, iar abordarea noastră față de inteligența artificială nu este diferită. Datele clienților, inclusiv intrările și ieșirile Copilot, sunt stocate în limitele de încredere Microsoft Cloud.
În unele scenarii, cum ar fi caracteristicile oferite de Bing și pluginuri pentru copilot de la terțe părți, datele clienților pot fi transmise în afara limitei de încredere Microsoft Cloud.
Poate Copilot să acceseze conținut criptat?
Datele sunt trimise către Copilot pe baza nivelului de acces al utilizatorului actual. Dacă un utilizator are acces la date criptate din Dynamics 365 și Power Platform, iar utilizatorul le transmite către Copilot, atunci Copilot le poate accesa.
Cum protejează Copilot datele clienților?
Microsoft se află într-o poziție unică pentru a oferi inteligență artificială pregătită pentru organizații. Copilot se bazează pe serviciul Azure OpenAI și respectă angajamentele noastre existente față de clienți privind confidențialitatea, securitatea și reglementările.
Construit pe abordarea cuprinzătoare a Microsoft privind securitatea, confidențialitatea și conformitatea. Copilot este integrat în serviciile Microsoft precum Dynamics 365 și Power Platform și moștenește politicile și procesele lor în ce privește securitatea, confidențialitatea și conformitatea, cum ar fi autentificarea multifactor și limitele de conformitate.
Mai multe forme de protecție pentru a proteja datele organizației. Tehnologiile serviciilor criptează conținutul organizațional în repaus și în tranzit, pentru securitate robustă. Conexiunile sunt protejate cu protocol TLS, iar transferurile de date dintre Dynamics 365, Power Platform și Azure OpenAI au loc prin rețeaua principală Microsoft, asigurând atât fiabilitatea, cât și siguranța. Aflați mai multe despre criptarea în Microsoft Cloud.
Proiectat pentru a vă proteja datele atât la nivelul entității găzduite, cât și al mediului. Știm că scurgerea de date este o preocupare pentru clienți. Modelele de inteligență artificială Microsoft nu sunt instruite și nu învață din datele entității dvs. găzduite sau din solicitările dvs., cu excepția cazului în care administratorul entității dvs. găzduite a optat pentru partajarea datelor cu noi. În mediile dvs., puteți controla accesul prin intermediul permisiunilor pe care le-ați configurat. Mecanismele de autentificare și autorizare separă solicitările către modelul partajat între entitățile găzduite. Copilot utilizează date pe care doar dvs. le puteți accesa, folosind aceeași tehnologie pe care o folosim de ani de zile pentru a securiza datele clienților.
Răspunsurile Copilot sunt întotdeauna factuale?
Ca în cazul oricărei inteligențe artificiale generative, răspunsurile Copilot nu sunt 100% factuale. Deși continuăm să îmbunătățim răspunsurile la consultările bazate pe fapte, ar trebui să vă folosiți în continuare logica și să revizuiți rezultatele înainte de a le trimite altor persoane. Copilot oferă schițe și rezumate utile, pentru a vă ajuta să faceți mai multe, dar este complet automat. Aveți întotdeauna ocazia de a revizui conținutul generat de inteligența artificială.
Echipele noastre lucrează la abordarea în mod proactiv a problemelor, cum ar fi informarea greșită și dezinformarea, blocarea conținutului, siguranța datelor și promovarea conținutului dăunător sau discriminatoriu, în conformitate cu principiile noastre pentru inteligența artificială responsabilă.
De asemenea, oferim îndrumări în cadrul experienței utilizatorului pentru a consolida utilizarea responsabilă a conținutului și a acțiunilor sugerate, generate de inteligența artificială.
Instrucțiuni și solicitări. Când utilizați Copilot, solicitări și alte elemente educative vă reamintesc să revizuiți și să editați răspunsurile după cum este necesar și să verificați manual corectitudinea faptelor, datelor și textului înainte de a utiliza conținutul generat de inteligența artificială.
Surse citate. Când este cazul, Copilot citează sursele sale de informații, publice sau interne, astfel încât să le puteți revizui pentru a confirma răspunsurile.
Pentru mai multe informații, consultați întrebările frecvente despre inteligența artificială responsabilă pentru produsul dvs., din Microsoft Learn.
Cum blochează Copilot conținutul dăunător?
Serviciul Azure OpenAI include un sistem de filtrare a conținutului, care funcționează împreună cu modelele de bază. Modelele de filtrare a conținutului pentru categoriile Ură și corectitudine, Conținut sexual, Violență și Autovătămare au fost instruite și testate în mod special în diferite limbi. Acest sistem funcționează prin rularea atât a solicitării de intrare, cât și a răspunsului, prin modele de clasificare care sunt concepute să identifice și să blocheze rezultatele cu conținut dăunător.
Prejudiciile legate de ură și corectitudine se referă la orice conținut care utilizează un limbaj peiorativ sau discriminatoriu, bazat pe atribute precum rasa, etnia, naționalitatea, identitatea și expresia de gen, orientarea sexuală, religia, statutul de imigrare, statutul de abilități, aspectul personal și dimensiunea corporală. Corectitudinea are legătură cu asigurarea faptului că sistemele de inteligență artificială tratează toate grupurile de oameni în mod echitabil, fără a contribui la inechitățile societale existente. Conținutul sexual implică discuții despre organele de reproducere umane, relații romantice, acte descrise în termeni erotici sau afectuoși, sarcină, acte sexuale fizice, inclusiv cele descrise ca atac sau act forțat de violență sexuală, prostituție, pornografie și abuz. Violența descrie limbajul legat de acțiuni fizice care sunt destinate să rănească sau să ucidă, inclusiv acțiuni, arme și entități conexe. Limbajul autovătămării se referă la acțiunile deliberate, menite să rănească sau să provoace moartea propriei persoane.
Aflați mai multe despre filtrarea conținutului Azure OpenAI.
Copilot blochează injecțiile de solicitări (atacurile de tip jailbreak)?
Atacurile de tip jailbreak sunt solicitări ale utilizatorilor, concepute să provoace modelul de inteligență artificială generativă pentru a se comporta în moduri în care nu a fost instruit sau să încalce regulile pe care i s-a spus să le respecte. Serviciile din Dynamics 365 și Power Platform sunt necesare pentru a proteja împotriva injecției de solicitări. Aflați mai multe despre atacurile de tip jailbreak și despre cum să utilizați Azure AI Content Safety pentru a le detecta.
Copilot blochează injecțiile de solicitări indirecte (atacurile indirecte)?
Atacurile indirecte, denumite și atacuri cu solicitări indirecte sau atacuri cu injecție de solicitări pe mai multe domenii, reprezintă o vulnerabilitate potențială, unde terții plasează instrucțiuni rău intenționate în interiorul documentelor, pe care sistemul de inteligență artificială generativă le poate accesa și procesa. Serviciile din Dynamics 365 și Power Platform sunt necesare pentru a proteja împotriva injecțiilor de solicitări indirecte. Aflați mai multe despre atacurile indirecte și despre cum să utilizați Azure AI Content Safety pentru a le detecta.
Cum testează și validează Microsoft calitatea Copilot, inclusiv protecția împotriva injecției de solicitări și răspunsurile fundamentate?
Fiecare iterație nouă a produsului Copilot și a modelului de limbaj trebuie să treacă printr-o evaluare internă a inteligenței artificiale responsabile înainte de a putea fi lansată. Înainte de lansare, folosim un proces numit „echipa roșie” (în care o echipă simulează un atac inamic, găsind și exploatând slăbiciunile pentru a ajuta organizația să-și îmbunătățească apărarea) pentru a evalua riscurile potențiale ale conținutului dăunător, scenariile de atacuri de tip jailbreak și răspunsurile fundamentate. După lansare, folosim testarea automată și instrumente de evaluare manuale și automatizate pentru a evalua calitatea răspunsurilor Copilot.
Cum îmbunătățește Microsoft modelul de bază și cum măsoară îmbunătățirile răspunsurilor fundamentate?
În contextul inteligenței artificiale, în special al inteligenței artificiale care se ocupă de modele de limbaj ca cel pe care se bazează Copilot, fundamentarea ajută inteligența artificială să genereze răspunsuri care să fie mai relevante și să aibă sens în lumea reală. Fundamentarea ajută la asigurarea faptului că răspunsurile inteligenței artificiale se bazează pe informații fiabile și sunt cât mai exacte și mai relevante posibil. Măsurătorile răspunsurilor fundamentate evaluează cât de corect sunt enunțate faptele din conținutul de fundamentare care este trimis către model în răspunsul final.
Modelele de bază precum GPT-4 sunt îmbunătățite prin tehnici de regăsire a generării augmentate (RAG). Aceste tehnici permit modelelor să folosească mai multe informații decât cele pe care au fost instruite pentru a înțelege scenariul unui utilizator. RAG funcționează prin identificarea mai întâi a datelor care sunt relevante pentru scenariu, similar modului în care un motor de căutare identifică paginile web care sunt relevante pentru termenii de căutare ai utilizatorului. Folosește mai multe abordări pentru a identifica ce conținut este relevant pentru solicitarea utilizatorului și care ar trebui folosit pentru a fundamenta răspunsul. Abordările includ căutarea pe diferite tipuri de indecși, cum ar fi indecșii inversați, folosind tehnici de regăsire a informațiilor, precum potrivirea termenilor, sau indecșii vectoriali, folosind comparații de distanță vectorială pentru similaritatea semantică. După ce identifică documentele relevante, RAG transmite datele către model împreună cu conversația curentă, oferind modelului mai mult context pentru a înțelege mai bine informațiile pe care le are deja și pentru a genera un răspuns care să fie bazat pe lumea reală. În cele din urmă, RAG verifică răspunsul pentru a se asigura că este susținut de conținutul sursă pe care l-a transmis către model. Caracteristicile de inteligență artificială generativă ale Copilot încorporează RAG în mai multe moduri. Un exemplu este chatul cu utilizarea de date, în care un robot de chat se bazează pe sursele de date proprii ale clientului.
O altă metodă de îmbunătățire a modelelor de fundamentare este cunoscută drept acord fin. Un set mare de date de perechi interogare-răspuns este prezentat unui model de fundamentare pentru a-i crește calitatea instruirii inițiale cu noi eșantioane care vizează un anumit scenariu. Modelul poate fi apoi implementat ca model separat – unul care are acordul fin pentru scenariul respectiv. În timp ce fundamentarea înseamnă a face cunoștințele inteligenței artificiale relevante pentru lumea reală, acordul fin înseamnă a face cunoștințele inteligenței artificiale mai specifice pentru o anumită activitate sau pentru un anumit domeniu. Microsoft folosește acordul fin în mai multe moduri. De exemplu, folosim crearea fluxurilor Power Automate din descrierile în limbaj natural furnizate de utilizator.
Copilot îndeplinește cerințele privind conformitatea cu reglementările?
Microsoft Copilot face parte din ecosistemul Dynamics 365 și Power Platform și îndeplinește aceleași cerințe pentru conformitatea cu reglementările. Pentru mai multe informații despre certificările de reglementare ale serviciilor Microsoft, accesați Service Trust Portal. În plus, Copilot aderă la angajamentul nostru privind inteligența artificială responsabilă, care este aplicat prin intermediul principiilor noastre privind inteligența artificială responsabilă. Pe măsură ce reglementările din domeniul inteligenței artificiale evoluează, Microsoft continuă să se adapteze și să răspundă la noile cerințe.
Aflați mai multe
Copilot în aplicațiile Dynamics 365 și în Power Platform
Aflați mai multe de la Întrebări frecvente pentru partajarea opțională a datelor pentru caracteristicile de inteligență artificială Copilot din Dynamics 365 și Power Platform.
Disponibilitatea regională și lingvistică
Disponibilitatea Copilot la nivel internațional
Mișcarea datelor între zone geografice
- Cum funcționează mișcarea datelor între regiuni
- Configurarea mișcării datelor între locații geografice pentru caracteristicile de inteligență artificială generativă în afara Statelor Unite
- Mișcarea datelor Copilot între zone geografice în Dynamics 365 Sales
- Mișcarea datelor Copilot între zone geografice în Dynamics 365 Business Central
Securitatea la Microsoft
- Introducere în securitatea Azure
- Criptarea în Microsoft Cloud
- Datele, confidențialitatea și securitatea pentru Azure OpenAI Service – Serviciile de inteligență artificială Azure
Confidențialitatea la Microsoft
Angajamentul Microsoft de respectare a confidențialității
Inteligența artificială responsabilă
- Standardul Microsoft privind inteligența artificială responsabilă
- Întrebări frecvente despre inteligența artificială responsabilă pentru Microsoft Power Platform
- Întrebări frecvente despre inteligența artificială responsabilă pentru Dynamics 365
- Întrebări frecvente despre inteligența artificială responsabilă pentru Microsoft Copilot Studio