Notă
Accesul la această pagină necesită autorizare. Puteți încerca să vă conectați sau să modificați directoarele.
Accesul la această pagină necesită autorizare. Puteți încerca să modificați directoarele.
Copilot pentru Dynamics 365 și funcțiile sale respectă un set de practici de bază de securitate și confidențialitate, precum și standardul Microsoft pentru inteligență artificială responsabilă Power Platform . ... Datele Dynamics 365 și Power Platform sunt protejate de controale de securitate, conformitate și confidențialitate cuprinzătoare, cele mai bune din sectorul de activitate.
Copilot este construit pe Microsoft Azure OpenAI Service și rulează complet în cloud-ul Azure. Azure OpenAI oferă disponibilitate regională și filtrarea conținutului de la inteligența artificială responsabilă. Copilot folosește modele cu toate capacitățile de securitate ale sistemului. OpenAI Microsoft Azure OpenAI este o organizație independentă. Nu partajăm datele dvs. cu OpenAI.
Caracteristicile Copilot nu sunt disponibile în toate zonele geografice și limbile Azure. În funcție de locul în care este găzduit mediul dvs., este posibil să fie necesar să permiteți mișcarea datelor între zone geografice pentru a le utiliza. Pentru mai multe informații, consultați articolele enumerate la Migrarea datelor între zone geografice.
Ce se întâmplă cu datele mele când folosesc Copilot?
Dvs. dețineți controlul asupra propriilor date. Microsoft nu partajează datele dvs. cu o terță parte decât dacă ați acordat permisiunea în acest sens. Mai mult, nu folosim datele clienților dvs. pentru a instrui Copilot sau caracteristicile sale de inteligență artificială, cu excepția cazului în care ne dați consimțământul de a face acest lucru. Copilot respectă permisiunile și politicile existente privind datele, iar răspunsurile furnizate dvs. se bazează numai pe datele pe care puteți accesa la nivel personal. Pentru mai multe informații despre cum vă puteți controla datele și cum sunt gestionate acestea, consultați articolele listate în Copilot în aplicațiile Dynamics 365 și Power Platform.
Copilot monitorizează utilizările abuzive sau dăunătoare ale serviciului cu procesare tranzitorie. Nu stocăm și nu efectuăm o revizuire vizuală a intrărilor și ieșirilor Copilot în scopul monitorizării abuzurilor.
Cum folosește Copilot datele mele?
Fiecare serviciu sau caracteristică utilizează Copilot pe baza datelor pe care le furnizați sau le configurați pentru a fi procesate de Copilot.
Solicitările dvs. (intrările) și răspunsurile Copilot (ieșirile sau rezultatele):
NU sunt disponibile pentru alți clienți.
NU sunt folosite pentru a instrui sau a îmbunătăți produse sau servicii terțe (cum ar fi modele OpenAI).
NU sunt folosite pentru a instrui sau a îmbunătăți modelele de inteligență artificială Microsoft decât dacă administratorul entității găzduite optează pentru partajarea datelor cu noi. Aflați mai multe la Întrebări frecvente despre partajarea opțională a datelor pentru funcțiile Copilot AI din Dynamics 365 și Power Platform.
Aflați mai multe despre confidențialitatea și securitatea datelor serviciului Azure OpenAI . Pentru a afla mai multe despre modul în care Microsoft vă protejează și utilizează datele în general, citiți *Declarația noastră de confidențialitate*. ...
Unde se duc datele mele?
Microsoft funcționează pe bază de încredere. Suntem angajați față de securitate, confidențialitate și conformitate în tot ceea ce facem, iar abordarea noastră față de inteligența artificială nu este diferită. Datele clienților, inclusiv intrările și ieșirile Copilot, sunt stocate în limitele de încredere Microsoft Cloud.
În unele scenarii, cum ar fi caracteristicile oferite de Bing și pluginuri pentru copilot de la terțe părți, datele clienților pot fi transmise în afara limitei de încredere Microsoft Cloud.
Poate Copilot să acceseze conținut criptat?
Datele sunt trimise către Copilot pe baza nivelului de acces al utilizatorului actual. Dacă un utilizator are acces la date criptate din Dynamics 365 și Power Platform, iar utilizatorul le transmite către Copilot, atunci Copilot le poate accesa.
Cum protejează Copilot datele clienților?
Microsoft se află într-o poziție unică pentru a oferi inteligență artificială pregătită pentru organizații. Copilot se bazează pe serviciul Azure OpenAI și respectă angajamentele noastre existente față de clienți privind confidențialitatea, securitatea și reglementările.
Construit pe abordarea cuprinzătoare a Microsoft în ceea ce privește securitatea, confidențialitatea și conformitatea. Copilot este integrat în serviciile Microsoft precum Dynamics 365 și Power Platform și moștenește politicile și procesele lor în ce privește securitatea, confidențialitatea și conformitatea, cum ar fi autentificarea multifactor și limitele de conformitate.
Mai multe forme de protecție protejează datele organizaționale. Tehnologiile serviciilor criptează conținutul organizațional în repaus și în tranzit, pentru securitate robustă. Conexiunile sunt protejate cu protocol TLS, iar transferurile de date dintre Dynamics 365, Power Platform și Azure OpenAI au loc prin rețeaua principală Microsoft, asigurând atât fiabilitatea, cât și siguranța. Aflați mai multe despre criptarea în Microsoft Cloud.
Conceput pentru a vă proteja datele atât la nivel de chiriaș, cât și la nivel de mediu. Știm că scurgerea de date este o preocupare pentru clienți. Modelele de inteligență artificială Microsoft nu sunt instruite și nu învață din datele entității dvs. găzduite sau din solicitările dvs., cu excepția cazului în care administratorul entității dvs. găzduite a optat pentru partajarea datelor cu noi. În mediile dvs., puteți controla accesul prin intermediul permisiunilor pe care le-ați configurat. Mecanismele de autentificare și autorizare separă solicitările către modelul partajat între entitățile găzduite. Copilot utilizează date pe care doar dvs. le puteți accesa, folosind aceeași tehnologie pe care o folosim de ani de zile pentru a securiza datele clienților.
Răspunsurile Copilot sunt întotdeauna factuale?
Ca în cazul oricărei inteligențe artificiale generative, răspunsurile Copilot nu sunt 100% corecte. Deși continuăm să îmbunătățim răspunsurile la consultările bazate pe fapte, ar trebui să vă folosiți în continuare logica și să revizuiți rezultatele înainte de a le trimite altor persoane. Copilot oferă schițe și rezumate utile, pentru a vă ajuta să faceți mai multe, dar este complet automat. Aveți întotdeauna ocazia de a revizui conținutul generat de inteligența artificială.
Echipele noastre lucrează pentru a aborda proactiv probleme precum dezinformarea și dezinformarea, blocarea conținutului, siguranța datelor și promovarea conținutului dăunător sau discriminatoriu, în conformitate cu *principiile* noastre privind inteligența artificială responsabilă*. ...
De asemenea, oferim îndrumări în cadrul experienței utilizatorului pentru a consolida utilizarea responsabilă a conținutului și a acțiunilor sugerate, generate de inteligența artificială.
Instrucțiuni și solicitări. Când utilizați Copilot, solicitări și alte elemente educative vă reamintesc să revizuiți și să editați răspunsurile după cum este necesar și să verificați manual corectitudinea faptelor, datelor și textului înainte de a utiliza conținutul generat de inteligența artificială.
Surse citate. Când este cazul, Copilot citează sursele sale de informații, publice sau interne, astfel încât să le puteți revizui pentru a confirma răspunsurile.
Pentru mai multe informații, consultați întrebările frecvente despre inteligența artificială responsabilă pentru produsul dvs., din Microsoft Learn.
Cum blochează Copilot conținutul dăunător?
Serviciul Azure OpenAI include un sistem de filtrare a conținutului, care funcționează împreună cu modelele de bază. Modelele de filtrare a conținutului pentru categoriile Ură și corectitudine, Conținut sexual, Violență și Autovătămare au fost instruite și testate în mod special în diferite limbi. Acest sistem funcționează prin rularea atât a solicitării de intrare, cât și a răspunsului, prin modele de clasificare care sunt concepute să identifice și să blocheze rezultatele cu conținut dăunător.
Prejudiciile legate de ură și corectitudine se referă la orice conținut care utilizează un limbaj peiorativ sau discriminatoriu, bazat pe atribute precum rasa, etnia, naționalitatea, identitatea și expresia de gen, orientarea sexuală, religia, statutul de imigrare, statutul de abilități, aspectul personal și dimensiunea corporală. Echitatea se preocupă de asigurarea faptului că sistemele de inteligență artificială tratează toate grupurile de persoane în mod echitabil, fără a contribui la inegalitățile societale existente. Conținutul sexual include discuții despre organele reproducătoare umane, relații romantice, acte portretizate în termeni erotici sau afectuoși, sarcină, acte sexuale fizice, inclusiv cele portretizate ca agresiune sau act de violență sexuală forțată, prostituție, pornografie și abuz. Violența descrie limbajul legat de acțiuni fizice care au ca scop rănirea sau uciderea, inclusiv acțiuni, arme și entități conexe. Limbajul autovătămării se referă la acțiuni deliberate care au ca scop rănirea sau sinuciderea unei persoane.
Aflați mai multe despre Azure OpenAI filtrarea conținutului.
Copilot blochează injecțiile de solicitări (atacurile de tip jailbreak)?
Atacurile de jailbreak sunt solicitări ale utilizatorilor concepute pentru a provoca modelul generativ de inteligență artificială să se comporte în moduri în care a fost antrenat să nu se comporte sau să încalce regulile care i s-au spus să le urmeze. Serviciile din Dynamics 365 și Power Platform sunt necesare pentru a proteja împotriva injecției de solicitări. Aflați mai multe despre atacurile de jailbreak și cum să utilizați Azure AI Content Safety pentru a le detecta.
Copilot blochează injecțiile de solicitări indirecte (atacurile indirecte)?
Atacurile indirecte, denumite și *atacuri indirecte de tip prompt* sau *atacuri de tip *cross-domain prompt injection*, reprezintă o vulnerabilitate potențială în care terțe părți plasează instrucțiuni rău intenționate în documente pe care sistemul de inteligență artificială generativă le poate accesa și procesa. Serviciile din Dynamics 365 și Power Platform sunt necesare pentru a proteja împotriva injecțiilor de solicitări indirecte. Aflați mai multe despre atacurile indirecte și cum să utilizați Azure AI Content Safety pentru a le detecta.
Cum testează și validează Microsoft calitatea Copilot, inclusiv protecția împotriva injecției de solicitări și răspunsurile fundamentate?
Fiecare iterație nouă a produsului Copilot și a modelului de limbaj trebuie să treacă printr-o evaluare internă a inteligenței artificiale responsabile înainte de a putea fi lansată. Înainte de lansare, folosim un proces numit „echipa roșie” (în care o echipă simulează un atac inamic, găsind și exploatând slăbiciunile pentru a ajuta organizația să-și îmbunătățească apărarea) pentru a evalua riscurile potențiale ale conținutului dăunător, scenariile de atacuri de tip jailbreak și răspunsurile fundamentate. După lansare, folosim testarea automată și instrumente de evaluare manuale și automatizate pentru a evalua calitatea răspunsurilor Copilot.
Cum îmbunătățește Microsoft modelul de bază și cum măsoară îmbunătățirile răspunsurilor fundamentate?
În contextul IA, în special al IA care se ocupă de modele lingvistice precum cel pe care se bazează Copilot, *grounding* ajută IA să genereze răspunsuri mai relevante și mai sens în lumea reală. Fundamentarea ajută la asigurarea faptului că răspunsurile inteligenței artificiale se bazează pe informații fiabile și sunt cât mai exacte și mai relevante posibil. Măsurătorile răspunsurilor fundamentate evaluează cât de corect sunt enunțate faptele din conținutul de fundamentare care este trimis către model în răspunsul final.
Modelele de fundație precum GPT-4 sunt îmbunătățite prin tehnici de generare augmentată de recuperare (RAG). Aceste tehnici permit modelelor să folosească mai multe informații decât cele pe care au fost instruite pentru a înțelege scenariul unui utilizator. RAG funcționează prin identificarea mai întâi a datelor care sunt relevante pentru scenariu, similar modului în care un motor de căutare identifică paginile web care sunt relevante pentru termenii de căutare ai utilizatorului. Folosește mai multe abordări pentru a identifica ce conținut este relevant pentru solicitarea utilizatorului și care ar trebui folosit pentru a fundamenta răspunsul. Abordările includ căutarea pe diferite tipuri de indecși, cum ar fi indecșii inversați, folosind tehnici de regăsire a informațiilor, precum potrivirea termenilor, sau indecșii vectoriali, folosind comparații de distanță vectorială pentru similaritatea semantică. După ce identifică documentele relevante, RAG transmite datele către model împreună cu conversația curentă, oferind modelului mai mult context pentru a înțelege mai bine informațiile pe care le are deja și pentru a genera un răspuns care să fie bazat pe lumea reală. În cele din urmă, RAG verifică răspunsul pentru a se asigura că este susținut de conținutul sursă pe care l-a transmis către model. Caracteristicile de inteligență artificială generativă ale Copilot încorporează RAG în mai multe moduri. Un exemplu este chatul cu utilizarea de date, în care un robot de chat se bazează pe sursele de date proprii ale clientului.
O altă metodă de îmbunătățire a modelelor fundamentale este cunoscută sub numele de reglaj fin. Un set mare de date de perechi interogare-răspuns este prezentat unui model de fundamentare pentru a-i crește calitatea instruirii inițiale cu noi eșantioane care vizează un anumit scenariu. Modelul poate fi apoi implementat ca model separat – unul care are acordul fin pentru scenariul respectiv. În timp ce fundamentarea înseamnă a face cunoștințele inteligenței artificiale relevante pentru lumea reală, acordul fin înseamnă a face cunoștințele inteligenței artificiale mai specifice pentru o anumită activitate sau pentru un anumit domeniu. Microsoft folosește acordul fin în mai multe moduri. De exemplu, folosim crearea fluxurilor Power Automate din descrierile în limbaj natural furnizate de utilizator.
Copilot îndeplinește cerințele privind conformitatea cu reglementările?
Microsoft Copilot face parte din ecosistemul Dynamics 365 și Power Platform și îndeplinește aceleași cerințe pentru conformitatea cu reglementările. Pentru mai multe informații despre certificările de reglementare ale serviciilor Microsoft, accesați Portalul de încredere pentru servicii. În plus, Copilot își respectă angajamentul față de o inteligență artificială responsabilă, pus în practică prin intermediul Standardului nostru pentru Inteligență Artificială Responsabilă . Pe măsură ce reglementările din domeniul inteligenței artificiale evoluează, Microsoft continuă să se adapteze și să răspundă la noile cerințe.
Aflați mai multe
Copilot în aplicațiile Dynamics 365 și în Power Platform
Aflați mai multe la Întrebări frecvente despre partajarea opțională a datelor pentru funcțiile Copilot AI din Dynamics 365 și Power Platform.
Disponibilitatea regională și lingvistică
Disponibilitate internațională Copilot
Mișcarea datelor între zone geografice
- Cum funcționează transferul de date între regiuni
- Configurați mutarea datelor între locații geografice pentru funcții de inteligență artificială generativă în afara Statelor Unite
- Mișcarea datelor Copilot între zone geografice în Dynamics 365 Sales
- Mișcarea datelor copilotului între zone geografice Dynamics 365 Business Central
Securitatea la Microsoft
- Introducere în securitatea Azure
- Criptarea în Microsoft Cloud
- Date, confidențialitate și securitate pentru Azure OpenAI Serviciu – Servicii Azure AI
Confidențialitatea la Microsoft
Declarația de confidențialitate Microsoft
Inteligența artificială responsabilă
- Standardul Microsoft pentru inteligența artificială responsabilă
- Întrebări frecvente despre inteligența artificială responsabilă pentru Microsoft Power Platform
- Întrebări frecvente despre inteligența artificială responsabilă pentru Dynamics 365
- Întrebări frecvente despre inteligența artificială responsabilă pentru Microsoft Copilot Studio