Partajați prin


Întrebări frecvente despre securitatea și confidențialitatea datelor Copilot în Dynamics 365 și Power Platform

Caracteristicile Copilot pentru Dynamics 365 și Power Platform respectă un set de practici de bază pentru securitate și confidențialitate și Standardul Microsoft pentru inteligența artificială responsabilă. Datele Dynamics 365 și Power Platform sunt protejate de controale de securitate, conformitate și confidențialitate cuprinzătoare, cele mai bune din sectorul de activitate.

Copilot a fost generat pe baza serviciului Microsoft Azure OpenAI și rulează complet în cloudul Azure. Azure OpenAI oferă disponibilitate regională și filtrarea conținutului de la inteligența artificială responsabilă. Copilot folosește modele OpenAI, cu toate capacitățile de securitate ale Microsoft Azure. OpenAI este o organizație independentă. Nu partajăm datele dvs. cu OpenAI.

Caracteristicile Copilot nu sunt disponibile în toate zonele geografice și limbile Azure. În funcție de locul în care este găzduit mediul dvs., este posibil să fie necesar să permiteți mișcarea datelor între zone geografice pentru a le utiliza. Pentru mai multe informații, consultați articolele enumerate în Mișcarea datelor între zone geografice.

Ce se întâmplă cu datele mele când folosesc Copilot?

Dvs. dețineți controlul asupra propriilor date. Microsoft nu partajează datele dvs. cu o terță parte decât dacă ați acordat permisiunea în acest sens. Mai mult, nu folosim datele clienților dvs. pentru a instrui Copilot sau caracteristicile sale de inteligență artificială, cu excepția cazului în care ne dați consimțământul de a face acest lucru. Copilot respectă permisiunile și politicile existente privind datele, iar răspunsurile furnizate dvs. se bazează numai pe datele pe care puteți accesa la nivel personal. Pentru mai multe informații despre cum vă puteți controla datele și despre cum sunt gestionate datele dvs., consultați articolele enumerate în Copilot în aplicațiile Dynamics 365 și în Power Platform.

Copilot monitorizează utilizările abuzive sau dăunătoare ale serviciului cu procesare tranzitorie. Nu stocăm și nu efectuăm o revizuire vizuală a intrărilor și ieșirilor Copilot în scopul monitorizării abuzurilor.

Cum folosește Copilot datele mele? 

Fiecare serviciu sau caracteristică utilizează Copilot pe baza datelor pe care le furnizați sau le configurați pentru a fi procesate de Copilot.

Solicitările dvs. (intrările) și răspunsurile Copilot (ieșirile sau rezultatele):

  • NU sunt disponibile pentru alți clienți.

  • NU sunt folosite pentru a instrui sau a îmbunătăți produse sau servicii terțe (cum ar fi modele OpenAI).

  • NU sunt folosite pentru a instrui sau a îmbunătăți modelele de inteligență artificială Microsoft decât dacă administratorul entității găzduite optează pentru partajarea datelor cu noi.

Aflați mai multe despre confidențialitatea și securitatea datelor serviciului Azure OpenAI. Pentru a afla mai multe despre modul în care Microsoft protejează și utilizează datele dvs. în general, citiți Angajamentul nostru de respectare a confidențialității.

Unde se duc datele mele?

Microsoft funcționează pe bază de încredere. Suntem angajați față de securitate, confidențialitate și conformitate în tot ceea ce facem, iar abordarea noastră față de inteligența artificială nu este diferită. Datele clienților, inclusiv intrările și ieșirile Copilot, sunt stocate în limitele de încredere Microsoft Cloud.

În unele scenarii, cum ar fi caracteristicile oferite de Bing și pluginuri pentru copilot de la terțe părți, datele clienților pot fi transmise în afara limitei de încredere Microsoft Cloud.

Poate Copilot să acceseze conținut criptat?

Datele sunt trimise către Copilot pe baza nivelului de acces al utilizatorului actual. Dacă un utilizator are acces la date criptate din Dynamics 365 și Power Platform, iar utilizatorul le transmite către Copilot, atunci Copilot le poate accesa.

Cum protejează Copilot datele clienților?

Microsoft se află într-o poziție unică pentru a oferi inteligență artificială pregătită pentru organizații. Copilot se bazează pe serviciul Azure OpenAI și respectă angajamentele noastre existente față de clienți privind confidențialitatea, securitatea și reglementările.

  • Construit pe abordarea cuprinzătoare a Microsoft privind securitatea, confidențialitatea și conformitatea. Copilot este integrat în serviciile Microsoft precum Dynamics 365 și Power Platform și moștenește politicile și procesele lor în ce privește securitatea, confidențialitatea și conformitatea, cum ar fi autentificarea multifactor și limitele de conformitate.

  • Mai multe forme de protecție pentru a proteja datele organizației. Tehnologiile serviciilor criptează conținutul organizațional în repaus și în tranzit, pentru securitate robustă. Conexiunile sunt protejate cu protocol TLS, iar transferurile de date dintre Dynamics 365, Power Platform și Azure OpenAI au loc prin rețeaua principală Microsoft, asigurând atât fiabilitatea, cât și siguranța. Aflați mai multe despre criptarea în Microsoft Cloud.

  • Proiectat pentru a vă proteja datele atât la nivelul entității găzduite, cât și al mediului. Știm că scurgerea de date este o preocupare pentru clienți. Modelele de inteligență artificială Microsoft nu sunt instruite și nu învață din datele entității dvs. găzduite sau din solicitările dvs., cu excepția cazului în care administratorul entității dvs. găzduite a optat pentru partajarea datelor cu noi. În mediile dvs., puteți controla accesul prin intermediul permisiunilor pe care le-ați configurat. Mecanismele de autentificare și autorizare separă solicitările către modelul partajat între entitățile găzduite. Copilot utilizează date pe care doar dvs. le puteți accesa, folosind aceeași tehnologie pe care o folosim de ani de zile pentru a securiza datele clienților.

Răspunsurile Copilot sunt întotdeauna factuale?

Ca în cazul oricărei inteligențe artificiale generative, răspunsurile Copilot nu sunt garantate a fi 100% factuale. Deși continuăm să îmbunătățim răspunsurile la consultările bazate pe fapte, ar trebui să vă folosiți în continuare logica și să revizuiți rezultatele înainte de a le trimite altor persoane. Copilot oferă schițe și rezumate utile, pentru a vă ajuta să faceți mai multe, dar este complet automat. Aveți întotdeauna ocazia de a revizui conținutul generat de inteligența artificială.

Echipele noastre lucrează la abordarea în mod proactiv a problemelor, cum ar fi informarea greșită și dezinformarea, blocarea conținutului, siguranța datelor și promovarea conținutului dăunător sau discriminatoriu, în conformitate cu principiile noastre pentru inteligența artificială responsabilă.

De asemenea, oferim îndrumări în cadrul experienței utilizatorului pentru a consolida utilizarea responsabilă a conținutului și a acțiunilor sugerate, generate de inteligența artificială.

  • Instrucțiuni și solicitări. Când utilizați Copilot, solicitări și alte elemente educative vă reamintesc să revizuiți și să editați răspunsurile după cum este necesar și să verificați manual corectitudinea faptelor, datelor și textului înainte de a utiliza conținutul generat de inteligența artificială.

  • Surse citate. Când este cazul, Copilot citează sursele sale de informații, publice sau interne, astfel încât să le puteți revizui pentru a confirma răspunsurile.

Pentru mai multe informații, consultați întrebările frecvente despre inteligența artificială responsabilă pentru produsul dvs., din Microsoft Learn.

Cum blochează Copilot conținutul dăunător?

Serviciul Azure OpenAI include un sistem de filtrare a conținutului, care funcționează împreună cu modelele de bază. Modelele de filtrare a conținutului pentru categoriile Ură și corectitudine, Conținut sexual, Violență și Autovătămare au fost instruite și testate în mod special în diferite limbi. Acest sistem funcționează prin rularea atât a solicitării de intrare, cât și a răspunsului, prin modele de clasificare care sunt concepute să identifice și să blocheze rezultatele cu conținut dăunător.

Prejudiciile legate de ură și corectitudine se referă la orice conținut care utilizează un limbaj peiorativ sau discriminatoriu, bazat pe atribute precum rasa, etnia, naționalitatea, identitatea și expresia de gen, orientarea sexuală, religia, statutul de imigrare, statutul de abilități, aspectul personal și dimensiunea corporală. Corectitudinea are legătură cu asigurarea faptului că sistemele de inteligență artificială tratează toate grupurile de oameni în mod echitabil, fără a contribui la inechitățile societale existente. Conținutul sexual implică discuții despre organele de reproducere umane, relații romantice, acte descrise în termeni erotici sau afectuoși, sarcină, acte sexuale fizice, inclusiv cele descrise ca atac sau act forțat de violență sexuală, prostituție, pornografie și abuz. Violența descrie limbajul legat de acțiuni fizice care sunt destinate să rănească sau să ucidă, inclusiv acțiuni, arme și entități conexe. Limbajul autovătămării se referă la acțiunile deliberate, menite să rănească sau să provoace moartea propriei persoane.

Aflați mai multe despre filtrarea conținutului Azure OpenAI.

Copilot blochează injecțiile de solicitări (atacurile de tip jailbreak)?

Atacurile de tip jailbreak sunt solicitări pentru utilizatori, concepute să provoace modelul de inteligență artificială generativă pentru a se comporta în moduri în care nu a fost instruit sau să încalce regulile pe care i s-a spus să le respecte. Serviciile din Dynamics 365 și Power Platform sunt necesare pentru a proteja împotriva injecției de solicitări. Aflați mai multe despre atacurile de tip jailbreak și despre cum să utilizați Azure AI Content Safety pentru a le detecta.

Copilot blochează injecțiile de solicitări indirecte (atacurile indirecte)?

Atacurile indirecte, denumite și atacuri cu solicitări indirecte sau atacuri cu injecție de solicitări pe mai multe domenii, reprezintă o vulnerabilitate potențială, unde terții plasează instrucțiuni rău intenționate în interiorul documentelor, pe care sistemul de inteligență artificială generativă le poate accesa și procesa. Serviciile din Dynamics 365 și Power Platform sunt necesare pentru a proteja împotriva injecțiilor de solicitări indirecte. Aflați mai multe despre atacurile indirecte și despre cum să utilizați Azure AI Content Safety pentru a le detecta.

Cum testează și validează Microsoft calitatea Copilot, inclusiv protecția împotriva injecției de solicitări și răspunsurile fundamentate?

Fiecare iterație nouă a produsului Copilot și a modelului de limbaj trebuie să treacă printr-o evaluare internă a inteligenței artificiale responsabile înainte de a putea fi lansată. Înainte de lansare, folosim un proces numit „echipa roșie” (în care o echipă simulează un atac inamic, găsind și exploatând slăbiciunile pentru a ajuta organizația să-și îmbunătățească apărarea) pentru a evalua riscurile potențiale ale conținutului dăunător, scenariile de atacuri de tip jailbreak și răspunsurile fundamentate. După lansare, folosim testarea automată și instrumente de evaluare manuale și automatizate pentru a evalua calitatea răspunsurilor Copilot.

Cum îmbunătățește Microsoft modelul de bază și cum măsoară îmbunătățirile răspunsurilor fundamentate?

În contextul inteligenței artificiale, în special al inteligenței artificiale care se ocupă de modele de limbaj ca cel pe care se bazează Copilot, fundamentarea ajută inteligența artificială să genereze răspunsuri care să fie mai relevante și să aibă sens în lumea reală. Fundamentarea ajută la asigurarea faptului că răspunsurile inteligenței artificiale se bazează pe informații fiabile și sunt cât mai exacte și mai relevante posibil. Măsurătorile răspunsurilor fundamentate evaluează cât de corect sunt enunțate faptele din conținutul de fundamentare care este trimis către model în răspunsul final.

Modelele de bază precum GPT-4 sunt îmbunătățite prin tehnici de regăsire a generării augmentate (RAG). Aceste tehnici permit modelelor să folosească mai multe informații decât cele pe care au fost instruite pentru a înțelege scenariul unui utilizator. RAG funcționează prin identificarea mai întâi a datelor care sunt relevante pentru scenariu, similar modului în care un motor de căutare identifică paginile web care sunt relevante pentru termenii de căutare ai utilizatorului. Folosește mai multe abordări pentru a identifica ce conținut este relevant pentru solicitarea utilizatorului și care ar trebui folosit pentru a fundamenta răspunsul. Abordările includ căutarea pe diferite tipuri de indecși, cum ar fi indecșii inversați, folosind tehnici de regăsire a informațiilor, precum potrivirea termenilor, sau indecșii vectoriali, folosind comparații de distanță vectorială pentru similaritatea semantică. După ce identifică documentele relevante, RAG transmite datele către model împreună cu conversația curentă, oferind modelului mai mult context pentru a înțelege mai bine informațiile pe care le are deja și pentru a genera un răspuns care să fie bazat pe lumea reală. În cele din urmă, RAG verifică răspunsul pentru a se asigura că este susținut de conținutul sursă pe care l-a transmis către model. Caracteristicile de inteligență artificială generativă ale Copilot încorporează RAG în mai multe moduri. Un exemplu este chatul cu utilizarea de date, în care un robot de chat se bazează pe sursele de date proprii ale clientului.

O altă metodă de îmbunătățire a modelelor de fundamentare este cunoscută drept acord fin. Un set mare de date de perechi interogare-răspuns este prezentat unui model de fundamentare pentru a-i crește calitatea instruirii inițiale cu noi eșantioane care vizează un anumit scenariu. Modelul poate fi apoi implementat ca model separat – unul care are acordul fin pentru scenariul respectiv. În timp ce fundamentarea înseamnă a face cunoștințele inteligenței artificiale relevante pentru lumea reală, acordul fin înseamnă a face cunoștințele inteligenței artificiale mai specifice pentru o anumită activitate sau pentru un anumit domeniu. Microsoft folosește acordul fin în mai multe moduri. De exemplu, folosim crearea fluxurilor Power Automate din descrierile în limbaj natural furnizate de utilizator.

Copilot îndeplinește cerințele privind conformitatea cu reglementările?

Microsoft Copilot face parte din ecosistemul Dynamics 365 și Power Platform și îndeplinește aceleași cerințe pentru conformitatea cu reglementările. Pentru mai multe informații despre certificările de reglementare ale serviciilor Microsoft, accesați Service Trust Portal. În plus, Copilot aderă la angajamentul nostru privind inteligența artificială responsabilă, care este aplicat prin intermediul principiilor noastre privind inteligența artificială responsabilă. Pe măsură ce reglementările din domeniul inteligenței artificiale evoluează, Microsoft continuă să se adapteze și să răspundă la noile cerințe.

Aflați mai multe despre disponibilitatea Dynamics 365, Power Platform și Copilot, locațiile datelor clienților și conformitatea cu cerințele globale, regionale și specifice sectorului de activitate, pentru gestionarea datelor.

Aflați mai multe

Copilot în aplicațiile Dynamics 365 și în Power Platform

Produs Caracteristică Medii gestionate necesare? Cum se dezactivează caracteristica
AI Builder Scenarii în versiune preliminară Nu Scenarii în versiune preliminară
Dynamics 365 Business Central Toate (consultați lista completă la aka.ms/bcAI.) Nu Activarea caracteristicilor
Dynamics 365 Customer Insights - Data Crearea segmentelor cu Copilot în Customer Insights - Data (versiune preliminară) Nu Customer Insights - Data are propria semnalizare pentru toate caracteristicile sale Copilot de la Azure OpenAI.

Aflați mai multe: Acordarea consimțământului pentru utilizarea Copilot în Customer Insights - Data
Dynamics 365 Customer Insights - Data Prezentare generală a raportului de pregătire a datelor (versiune preliminară) Nu Customer Insights - Data are propria semnalizare pentru toate caracteristicile sale Copilot de la Azure OpenAI.

Aflați mai multe: Acordarea consimțământului pentru utilizarea Copilot în Customer Insights - Data
Dynamics 365 Customer Insights - Data Obținerea de răspunsuri la întrebări despre capacități de la Copilot (versiune preliminară) Nu Customer Insights - Data are propria semnalizare pentru toate caracteristicile sale Copilot de la Azure OpenAI.

Aflați mai multe: Acordarea consimțământului pentru utilizarea Copilot în Customer Insights - Data
Dynamics 365 Customer Insights (date) Purtarea unui dialog cu date folosind Copilot în Customer Insights Nu Customer Insights - Data are propria semnalizare pentru toate caracteristicile sale Copilot de la Azure OpenAI.

Aflați mai multe: Acordarea consimțământului pentru utilizarea Copilot în Customer Insights - Data
Dynamics 365 Customer Insights - Data Vizualizarea configurației sistemului Nu Customer Insights - Data are propria semnalizare pentru toate caracteristicile sale Copilot de la Azure OpenAI.

Aflați mai multe: Acordarea consimțământului pentru utilizarea Copilot în Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot vă ajută să învățați și să realizați mai multe (recenzie) Nu Dacă acest copilot este disponibil în mediul dvs. este determinat de setările administratorului Power Platform. Aflați cum să adăugați Copilot pentru aplicații proiectate pe bază de model.


Această capacitate este „copilotul aplicației în Customer Insights - Journeys” și de aceea este activat în centrul de administrare Power Platform. Aflați mai multe: Întrebări frecvente despre inteligența artificială responsabilă
Dynamics 365 Customer Insights - Journeys Crearea călătoriilor utilizând asistența inteligenței artificiale Nu Customer Insights - Journeys are propriile semnalizări pentru caracteristicile Copilot.

Aflați mai multe: Acordarea consimțământului pentru utilizarea Copilot în Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Reîmprospătarea și perfecționarea propriului mesaj Nu Customer Insights - Journeys are propriile semnalizări pentru caracteristicile Copilot.

Aflați mai multe: Acordarea consimțământului pentru utilizarea Copilot în Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Adăugarea de stiluri în e-mailuri cu teme, cu asistența inteligenței artificiale Nu Customer Insights - Journeys are propriile semnalizări pentru caracteristicile Copilot.

Aflați mai multe: Acordarea consimțământului pentru utilizarea Copilot în Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Țintirea clienților potriviți folosind asistența la interogare

Nu Customer Insights - Journeys are propriile semnalizări pentru caracteristicile Copilot.

Aflați mai multe: Acordarea consimțământului pentru utilizarea Copilot în Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Utilizarea inteligenței artificiale pentru a începe crearea de e-mailuri Nu Customer Insights - Journeys are propriile semnalizări pentru caracteristicile Copilot.

Aflați mai multe: Acordarea consimțământului pentru utilizarea Copilot în Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Utilizarea imaginilor în propriul conținut Nu Customer Insights - Journeys are propriile semnalizări pentru caracteristicile Copilot.

Aflați mai multe: Acordarea consimțământului pentru utilizarea Copilot în Customer Insights - Journeys
Power Apps Dezvoltarea aplicațiilor prin intermediul conversației Nu Gestionarea setărilor caracteristicilor
Power Apps Asistența Copilot pentru completarea formularelor în aplicațiile proiectate pe bază de model Nu Gestionarea setărilor caracteristicilor
Power Apps Crearea de schițe cu text introdus bine scris, cu Copilot Nu, licență de utilizator premium Crearea de schițe cu text introdus bine scris, cu Copilot
Power Apps Din Excel în tabel Nu Gestionarea setărilor caracteristicilor
Power Apps Utilizarea limbajului natural pentru a edita o aplicație folosind panoul Copilot Nu Gestionarea setărilor caracteristicilor
Power Automate Copilot în fluxurile pentru cloud pe pagina de pornire și în designer (pentru detalii, consultați Începeți cu Copilot în fluxurile pentru cloud.) Nu Contactați asistența pentru a rula un script PowerShell.
Power Pages Toate (pentru detalii, consultați Prezentare generală a Copilot în Power Pages.) Nu Dezactivarea Copilot în Power Pages

Disponibilitatea regională și lingvistică

Disponibilitatea internațională a Copilot

Mișcarea datelor între zone geografice

Securitatea la Microsoft

Confidențialitatea la Microsoft

Angajamentul Microsoft de respectare a confidențialității

Inteligența artificială responsabilă