Partajați prin


Întrebări frecvente pentru securitatea și confidențialitatea datelor Copilot pentru Dynamics 365 și Power Platform

Copilot for Dynamics 365 și Power Platform funcțiile urmează un set de practici de bază de securitate și confidențialitate și standardul Microsoft Responsible AI. Datele Dynamics 365 și Power Platform sunt protejate de controale de securitate, conformitate și confidențialitate cuprinzătoare, cele mai bune din sectorul de activitate.

Copilot este construit pe Microsoft Azure OpenAI Service și rulează complet în cloudul Azure. Azure OpenAI oferă disponibilitate regională și filtrarea conținutului de la inteligența artificială responsabilă. Copilot utilizează OpenAI modele cu toate capacitățile de securitate ale Microsoft Azure. OpenAI este o organizație independentă. Nu partajăm datele dvs. cu OpenAI.

Caracteristicile Copilot nu sunt disponibile în toate zonele geografice și limbile Azure. În funcție de locul în care este găzduit mediul dvs., este posibil să fie necesar să permiteți mișcarea datelor între zone geografice pentru a le utiliza. Pentru mai multe informații, consultați articolele enumerate sub Mișcarea datelor între zone geografice.

Ce se întâmplă cu datele mele când folosesc Copilot?

Dvs. dețineți controlul asupra propriilor date. Microsoft nu partajează datele dvs. cu o terță parte decât dacă ați acordat permisiunea în acest sens. Mai mult, nu folosim datele clienților dvs. pentru a instrui Copilot sau caracteristicile sale de inteligență artificială, cu excepția cazului în care ne dați consimțământul de a face acest lucru. Copilot respectă permisiunile și politicile existente privind datele, iar răspunsurile furnizate dvs. se bazează numai pe datele pe care puteți accesa la nivel personal. Pentru mai multe informații despre cum vă puteți controla datele și despre cum sunt gestionate datele dvs., consultați articolele enumerate sub Copilot în aplicațiile Dynamics 365 și Power Platform.

Copilot monitorizează utilizările abuzive sau dăunătoare ale serviciului cu procesare tranzitorie. Nu stocăm și nu efectuăm o revizuire vizuală a intrărilor și ieșirilor Copilot în scopul monitorizării abuzurilor.

Cum folosește Copilot datele mele? 

Fiecare serviciu sau caracteristică utilizează Copilot pe baza datelor pe care le furnizați sau le configurați pentru a fi procesate de Copilot.

Solicitările dvs. (intrările) și răspunsurile Copilot (ieșirile sau rezultatele):

  • NU sunt disponibile pentru alți clienți.

  • NU sunt folosite pentru a instrui sau a îmbunătăți produse sau servicii terțe (cum ar fi modele OpenAI).

  • NU sunt folosite pentru a instrui sau a îmbunătăți modelele de inteligență artificială Microsoft decât dacă administratorul entității găzduite optează pentru partajarea datelor cu noi.

Aflați mai multe despre Azure OpenAI Serviciul de confidențialitate și securitate a datelor. Pentru a afla mai multe despre modul în care Microsoft vă protejează și utilizează datele în general, citiți Declarația noastră de confidențialitate.

Unde se duc datele mele?

Microsoft funcționează pe bază de încredere. Suntem angajați față de securitate, confidențialitate și conformitate în tot ceea ce facem, iar abordarea noastră față de inteligența artificială nu este diferită. Datele clienților, inclusiv intrările și ieșirile Copilot, sunt stocate în limitele de încredere Microsoft Cloud.

În unele scenarii, cum ar fi caracteristicile oferite de Bing și pluginuri pentru copilot de la terțe părți, datele clienților pot fi transmise în afara limitei de încredere Microsoft Cloud.

Poate Copilot să acceseze conținut criptat?

Datele sunt trimise către Copilot pe baza nivelului de acces al utilizatorului actual. Dacă un utilizator are acces la date criptate din Dynamics 365 și Power Platform, iar utilizatorul le transmite către Copilot, atunci Copilot le poate accesa.

Cum protejează Copilot datele clienților?

Microsoft se află într-o poziție unică pentru a oferi inteligență artificială pregătită pentru organizații. Copilot se bazează pe serviciul Azure OpenAI și respectă angajamentele noastre existente față de clienți privind confidențialitatea, securitatea și reglementările.

  • Construit pe abordarea cuprinzătoare a Microsoft privind securitatea, confidențialitatea și conformitatea. Copilot este integrat în serviciile Microsoft precum Dynamics 365 și Power Platform și moștenește politicile și procesele lor în ce privește securitatea, confidențialitatea și conformitatea, cum ar fi autentificarea multifactor și limitele de conformitate.

  • Formele multiple de protecție protejează datele organizaționale. Tehnologiile serviciilor criptează conținutul organizațional în repaus și în tranzit, pentru securitate robustă. Conexiunile sunt protejate cu protocol TLS, iar transferurile de date dintre Dynamics 365, Power Platform și Azure OpenAI au loc prin rețeaua principală Microsoft, asigurând atât fiabilitatea, cât și siguranța. Aflați mai multe despre criptare în Microsoft Cloud.

  • Proiectat pentru a vă proteja datele atât la nivelul chiriașului, cât și al mediului. Știm că scurgerea de date este o preocupare pentru clienți. Modelele de inteligență artificială Microsoft nu sunt instruite și nu învață din datele entității dvs. găzduite sau din solicitările dvs., cu excepția cazului în care administratorul entității dvs. găzduite a optat pentru partajarea datelor cu noi. În mediile dvs., puteți controla accesul prin intermediul permisiunilor pe care le-ați configurat. Mecanismele de autentificare și autorizare separă solicitările către modelul partajat între entitățile găzduite. Copilot utilizează date pe care doar dvs. le puteți accesa, folosind aceeași tehnologie pe care o folosim de ani de zile pentru a securiza datele clienților.

Răspunsurile Copilot sunt întotdeauna factuale?

Ca în cazul oricărei inteligențe artificiale generative, răspunsurile Copilot nu sunt garantate a fi 100% factuale. Deși continuăm să îmbunătățim răspunsurile la consultările bazate pe fapte, ar trebui să vă folosiți în continuare logica și să revizuiți rezultatele înainte de a le trimite altor persoane. Copilot oferă schițe și rezumate utile, pentru a vă ajuta să faceți mai multe, dar este complet automat. Aveți întotdeauna ocazia de a revizui conținutul generat de inteligența artificială.

Echipele noastre lucrează pentru a aborda în mod proactiv probleme precum informarea greșită și dezinformarea, blocarea conținutului, siguranța datelor și promovarea conținutului dăunător sau discriminatoriu, în conformitate cu principiile noastre responsabile AI.

De asemenea, oferim îndrumări în cadrul experienței utilizatorului pentru a consolida utilizarea responsabilă a conținutului și a acțiunilor sugerate, generate de inteligența artificială.

  • Instrucțiuni și recomandări. Când utilizați Copilot, solicitări și alte elemente educative vă reamintesc să revizuiți și să editați răspunsurile după cum este necesar și să verificați manual corectitudinea faptelor, datelor și textului înainte de a utiliza conținutul generat de inteligența artificială.

  • Surse citate. Când este cazul, Copilot citează sursele sale de informații, publice sau interne, astfel încât să le puteți revizui pentru a confirma răspunsurile.

Pentru mai multe informații, consultați întrebările frecvente despre inteligența artificială responsabilă pentru produsul dvs., din Microsoft Learn.

Copilot blochează injecțiile de solicitări (atacurile de tip jailbreak)?

Atacurile de jailbreak sunt solicitări ale utilizatorului care sunt concepute pentru a provoca modelul AI generativ să se comporte în moduri în care a fost antrenat să nu le respecte sau să încalce regulile pe care i s-a spus să le urmeze. Serviciile din Dynamics 365 și Power Platform sunt necesare pentru a proteja împotriva injecției de solicitări. Aflați mai multe despre atacurile de jailbreak și despre cum să utilizați Azure AI Content Safety pentru a le detecta.

Cum testează și validează Microsoft calitatea Copilot, inclusiv protecția împotriva injecției de solicitări și răspunsurile fundamentate?

Fiecare iterație nouă a produsului Copilot și a modelului de limbaj trebuie să treacă printr-o evaluare internă a inteligenței artificiale responsabile înainte de a putea fi lansată. Înainte de lansare, folosim un proces numit „echipa roșie” (în care o echipă simulează un atac inamic, găsind și exploatând slăbiciunile pentru a ajuta organizația să-și îmbunătățească apărarea) pentru a evalua riscurile potențiale ale conținutului dăunător, scenariile de atacuri de tip jailbreak și răspunsurile fundamentate. După lansare, folosim testarea automată și instrumente de evaluare manuale și automatizate pentru a evalua calitatea răspunsurilor Copilot.

Cum îmbunătățește Microsoft modelul de bază și cum măsoară îmbunătățirile răspunsurilor fundamentate?

În contextul AI, în special AI care se ocupă de modele de limbaj precum cel pe care se bazează Copilot, grounding ajută AI să genereze răspunsuri care sunt mai relevante și au sens în lumea reală. Fundamentarea ajută la asigurarea faptului că răspunsurile inteligenței artificiale se bazează pe informații fiabile și sunt cât mai exacte și mai relevante posibil. Măsurătorile răspunsurilor fundamentate evaluează cât de corect sunt enunțate faptele din conținutul de fundamentare care este trimis către model în răspunsul final.

Modelele de bază precum GPT-4 sunt îmbunătățite prin tehnici de regăsire a generării augmentate (RAG). Aceste tehnici permit modelelor să folosească mai multe informații decât cele pe care au fost instruite pentru a înțelege scenariul unui utilizator. RAG funcționează prin identificarea mai întâi a datelor care sunt relevante pentru scenariu, similar modului în care un motor de căutare identifică paginile web care sunt relevante pentru termenii de căutare ai utilizatorului. Folosește mai multe abordări pentru a identifica ce conținut este relevant pentru solicitarea utilizatorului și care ar trebui folosit pentru a fundamenta răspunsul. Abordările includ căutarea pe diferite tipuri de indecși, cum ar fi indecșii inversați, folosind tehnici de regăsire a informațiilor, precum potrivirea termenilor, sau indecșii vectoriali, folosind comparații de distanță vectorială pentru similaritatea semantică. După ce identifică documentele relevante, RAG transmite datele către model împreună cu conversația curentă, oferind modelului mai mult context pentru a înțelege mai bine informațiile pe care le are deja și pentru a genera un răspuns care să fie bazat pe lumea reală. În cele din urmă, RAG verifică răspunsul pentru a se asigura că este susținut de conținutul sursă pe care l-a transmis către model. Caracteristicile de inteligență artificială generativă ale Copilot încorporează RAG în mai multe moduri. Un exemplu este chatul cu utilizarea de date, în care un robot de chat se bazează pe sursele de date proprii ale clientului.

O altă metodă de îmbunătățire a modelelor de bază este cunoscută ca ajustare fină. Un set mare de date de perechi interogare-răspuns este prezentat unui model de fundamentare pentru a-i crește calitatea instruirii inițiale cu noi eșantioane care vizează un anumit scenariu. Modelul poate fi apoi implementat ca model separat – unul care are acordul fin pentru scenariul respectiv. În timp ce fundamentarea înseamnă a face cunoștințele inteligenței artificiale relevante pentru lumea reală, acordul fin înseamnă a face cunoștințele inteligenței artificiale mai specifice pentru o anumită activitate sau pentru un anumit domeniu. Microsoft folosește acordul fin în mai multe moduri. De exemplu, folosim crearea fluxurilor Power Automate din descrierile în limbaj natural furnizate de utilizator.

Cum blochează Copilot conținutul dăunător?

Serviciul Azure OpenAI include un sistem de filtrare a conținutului, care funcționează împreună cu modelele de bază. Modelele de filtrare a conținutului pentru categoriile Ură și corectitudine, Conținut sexual, Violență și Autovătămare au fost instruite și testate în mod special în diferite limbi. Acest sistem funcționează prin rularea atât a solicitării de intrare, cât și a răspunsului, prin modele de clasificare care sunt concepute să identifice și să blocheze rezultatele cu conținut dăunător.

Prejudiciile legate de ură și corectitudine se referă la orice conținut care utilizează un limbaj peiorativ sau discriminatoriu, bazat pe atribute precum rasa, etnia, naționalitatea, identitatea și expresia de gen, orientarea sexuală, religia, statutul de imigrare, statutul de abilități, aspectul personal și dimensiunea corporală. Corectitudinea este preocupată de a se asigura că sistemele AI tratează toate grupurile de oameni în mod echitabil, fără a contribui la inechitățile societale existente. Conținutul sexual implică discuții despre organele de reproducere umane, relații romantice, acte descrise în termeni erotici sau afectuosi, sarcină, acte sexuale fizice, inclusiv cele descrise ca un atac sau un act forțat de violență sexuală, prostituție, pornografie și abuz. Violența descrie limbajul legat de acțiuni fizice care sunt destinate să rănească sau să ucidă, inclusiv acțiuni, arme și entități conexe. Limbajul auto-vătămare se referă la acțiunile deliberate care sunt menite să rănească sau să se omoare.

Aflați mai multe despre Azure OpenAI filtrarea conținutului.

Copilot îndeplinește cerințele privind conformitatea cu reglementările?

Microsoft Copilot face parte din ecosistemul Dynamics 365 și Power Platform și îndeplinește aceleași cerințe pentru conformitatea cu reglementările. Pentru mai multe informații despre certificările de reglementare ale serviciilor Microsoft, accesați Portalul de încredere în servicii. În plus, Copilot aderă la angajamentul nostru față de AI responsabilă, care este pus în aplicare prin Standardul nostru de AI responsabil. Pe măsură ce reglementările din domeniul inteligenței artificiale evoluează, Microsoft continuă să se adapteze și să răspundă la noile cerințe.

Aflați mai multe despre disponibilitatea Dynamics 365, Power Platform și Copilot, locațiile datelor clienților și conformitatea cu cerințele globale, regionale și specifice industriei pentru gestionarea datelor.

Aflați mai multe

Copilot în aplicațiile Dynamics 365 și în Power Platform

Produs Caracteristică Medii gestionate necesare? Cum se dezactivează caracteristica
AI Builder Scenarii în previzualizare Nu Scenarii în previzualizare
Dynamics 365 Customer Insights - Data Creați segmente cu Copilot pentru Customer Insights - Data (previzualizare) Nu Customer Insights - Data are propria semnalizare pentru toate caracteristicile sale Copilot de la Azure OpenAI.

Aflați mai multe: Dați consimțământul pentru a utiliza Copilot în Customer Insights - Data
Dynamics 365 Customer Insights - Data Prezentare generală a raportului de pregătire a datelor (previzualizare) Nu Customer Insights - Data are propria semnalizare pentru toate caracteristicile sale Copilot de la Azure OpenAI.

Aflați mai multe: Dați consimțământul pentru a utiliza Copilot în Customer Insights - Data
Dynamics 365 Customer Insights - Data Obțineți răspunsuri la întrebări despre capabilități de la Copilot (previzualizare) Nu Customer Insights - Data are propria semnalizare pentru toate caracteristicile sale Copilot de la Azure OpenAI.

Aflați mai multe: Dați consimțământul pentru a utiliza Copilot în Customer Insights - Data
Dynamics 365 Customer Insights (date) Aveți un dialog cu date folosind Copilot în Customer Insights Nu Customer Insights - Data are propria semnalizare pentru toate caracteristicile sale Copilot de la Azure OpenAI.

Aflați mai multe: Dați consimțământul pentru a utiliza Copilot în Customer Insights - Data
Dynamics 365 Customer Insights - Data Vedeți configurația sistemului Nu Customer Insights - Data are propria semnalizare pentru toate caracteristicile sale Copilot de la Azure OpenAI.

Aflați mai multe: Dați consimțământul pentru a utiliza Copilot în Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot te ajută să înveți și să faci mai multe (recenzie) Nu Dacă acest copilot este disponibil în mediul dvs. este determinat de setările administratorului Power Platform. Aflați cum să adăugați Copilot pentru aplicații bazate pe model.


Această capacitate este „copilotul aplicației în Customer Insights - Journeys” și ​​de aceea este activată în Power Platform centrul de administrare. Aflați mai multe: Întrebări frecvente despre AI responsabil
Dynamics 365 Customer Insights - Journeys Creați călătorii folosind asistența AI Nu Customer Insights - Journeys are propriile semnalizări pentru caracteristicile Copilot.

Aflați mai multe: Dați consimțământul pentru a utiliza Copilot în Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Reîmprospătați și perfecționați-vă mesajul Nu Customer Insights - Journeys are propriile semnalizări pentru caracteristicile Copilot.

Aflați mai multe: Dați consimțământul pentru a utiliza Copilot în Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Modelați-vă e-mailurile cu teme asistate de AI Nu Customer Insights - Journeys are propriile semnalizări pentru caracteristicile Copilot.

Aflați mai multe: Dați consimțământul pentru a utiliza Copilot în Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Vizați clienții potriviți folosind asistență la interogare

Nu Customer Insights - Journeys are propriile semnalizări pentru caracteristicile Copilot.

Aflați mai multe: Dați consimțământul pentru a utiliza Copilot în Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Folosiți inteligența artificială pentru a începe crearea de e-mailuri Nu Customer Insights - Journeys are propriile semnalizări pentru caracteristicile Copilot.

Aflați mai multe: Dați consimțământul pentru a utiliza Copilot în Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Utilizați imagini în conținutul dvs Nu Customer Insights - Journeys are propriile semnalizări pentru caracteristicile Copilot.

Aflați mai multe: Dați consimțământul pentru a utiliza Copilot în Customer Insights - Journeys
Power Apps Creați aplicații prin conversație Nu Gestionați setările caracteristicilor
Power Apps Asistență pentru copii pentru completarea formularelor în aplicațiile bazate pe model Nu Gestionați setările caracteristicilor
Power Apps Ciornă bine scrisă, introduceți text cu Copilot Nu, licență de utilizator premium Ciornă bine scrisă, introduceți text cu Copilot
Power Apps Excel la tabel Nu Gestionați setările caracteristicilor
Power Apps Utilizați limbajul natural pentru a edita o aplicație folosind panoul Copilot No Gestionați setările caracteristicilor
Power Automate Copilot in cloud flows pe pagina de pornire și în designer (consultați Începeți cu Copilot in cloud flows pentru detalii.) No Contactați asistența pentru a rula un script PowerShell.
Power Pages Toate (Consultați Prezentarea generală a Copilot în Power Pages pentru detalii.) No Opriți Copilot în Power Pages

Disponibilitatea regională și lingvistică

Disponibilitate internațională de copiloți

Mișcarea datelor între zone geografice

Securitatea la Microsoft

Confidențialitatea la Microsoft

Declarație de confidențialitate Microsoft

Inteligența artificială responsabilă