Copilotin tietosuojaa ja yksityisyyttä koskeva UKK Dynamics 365:lle ja Power Platformille
Dynamics 365:n ja Power Platformin Copilotin ominaisuudet noudattavat keskeisiä tietoturva- ja yksityisyyskäytäntöjä sekä Microsoftin vastuullisen tekoälyn standardia. Dynamics 365:n ja Power Platformin tiedot on suojattu kattavilla, alan johtavilla vaatimustenmukaisuus-, tietoturva- ja yksityisyysominaisuuksilla.
Copilot on rakennettu Microsoft Azure OpenAI -palvelun pohjalle ja sitä käytetään täysin Azure-pilven sisällä. Azure OpenAI -palvelu alueellisen saatavuuden ja vastuullisen tekoälyn sisältösuodatuksen. Copilot käyttää OpenAI -malleja ja kaikkia Microsoft Azuren tietoturvaominaisuuksia. OpenAI on riippumaton organisaatio. Tietojasi ei jaeta OpenAI:n kanssa.
Copilot-ominaisuudet eivät ole kaikkien Azuren maantieteellisten alueiden ja kielien käytettävissä. Riippuen siitä, missä ympäristöäsi isännöidään, saatat joutua sallimaan tiedonsiirron maantieteellisten alueiden välillä käyttääksesi niitä. Lisätietoja on Tietojen siirtyminen maantieteellisten alueiden välillä -kohdan artikkeleissa.
Mitä tiedoilleni tapahtuu, kun käytän Copilotia?
Sinä hallitset tietojasi. Microsoft ei jaa tietojasi kolmannen osapuolen kanssa, ellet ole antanut siihen lupaa. Asiakastietojasi ei myöskään käytetä Copilotin tai sen tekoälyominaisuuksien kouluttamiseen, ellet ole antanut suostumusta tehdä niin. Copilot noudattaa aiemmin määritettyjä tietoihin liittyviä käyttöoikeuksia ja käytäntöjä, ja vastaukset nähdään vain niiden tietojen perusteella, joihin heillä on henkilökohtainen käyttöoikeus. Lisätietoja siitä, miten tietoja hallitaan ja miten niitä käsitellään, on Copilot Dynamics 365 -sovelluksissa ja Power Platformissa -kohdan artikkeleissa.
Copilot valvoo palvelun loukkaavaa tai haitallista käyttämistä väliaikaisen käsittelyn avulla. Copilotin syötteitä ja tuloksia ei tallenneta eikä niitä tarkisteta loukkaavan käytön valvontaa varten.
Miten Copilot käyttää tietojani?
Jokainen palvelu ja ominaisuus käyttää Copilotia annettujen tietojen tai Copilotin käsittelyä määritettyjen tietojen perusteella.
Tietoja kehotteista (syötteistä) ja Copilotin vastauksista (tuloksista):
EIVÄT ole muiden asiakkaiden käytettävissä.
EI käytetä minkään kolmannen osapuolen tuotteiden tai palveluiden (kuten OpenAI-mallien) kouluttamiseen tai parantamiseen.
Niitä EI käytetä tekoälymallien kouluttamiseen tai parantamiseen Microsoft , ellei vuokraajan järjestelmänvalvoja hyväksy tietojen jakamista kanssamme. Lue lisää Copilotin tekoälyominaisuuksien valinnaisesta tietojen jakamisesta Dynamics 365 ja Power Platform.
Lue lisää Azure-palvelun OpenAI tietosuojasta ja tietoturvasta. Jos haluat lisätietoja siitä, miten Microsoft tietojasi suojataan ja käytetään yleisemmin, lue tietosuojalausuntomme.
Minne tiedot päätyvät?
Microsoft toimii luottamuksella. Olemme sitoutuneet tietosuojaan, tietoturvaan ja yhteensopivuuteen kaikessa, mitä teemme. Tekoäly ei tuo tähän poikkeusta. Asiakastiedot, mukaan lukien Copilotin tulot ja lähdöt, tallennetaan pilven Microsoft luottamusrajan sisällä.
Joissakin tilanteissa, kuten Bingin tarjoamissa ominaisuuksissa ja kolmannen osapuolen copilot-laajennuksissa, asiakastietoja saatetaan siirtää pilven Microsoft luottamusrajan ulkopuolelle.
Voiko Copilot käyttää salattua sisältöä?
Copilotille toimitetaan tietoja vain nykyisen käyttäjän käyttöoikeustason perusteella. Jos käyttäjällä on pääsy salattuihin tietoihin Dynamics 365:ssä ja Power Platformissa ja käyttäjä toimittaa tiedot Copilotille, Copilot käyttää niitä.
Miten Copilot suojaa asiakastietoja?
Microsoft on ainutlaatuisessa asemassa yritysvalmiin tekoälyn toimittamiseen. Azure OpenAI -palvelun Copilot noudattaa nykyisiä tietosuojaa, tietoturvaa ja säädöstenmukaisuutta koskevia asiakassitoumuksiamme.
Perustuu Microsoft kattavaan lähestymistapaan tietoturvaan, tietosuojaan ja vaatimustenmukaisuuteen. Copilot on integroitu Dynamics 365 kaltaisiin Microsoft palveluihin ja Power Platform perii niiden tietoturva-, tietosuoja- ja vaatimustenmukaisuuskäytännöt ja -prosessit, kuten monimenetelmäisen todennuksen ja vaatimustenmukaisuusrajat.
Organisaatiotietojen suojaamista varten on useita suojausmuotoja. Palvelupuolen tekniikat salaavat organisaation sisällön levossa ja siirrossa vakaalla tietoturvalla. Yhteydet on suojattu Transport kerros Security (TLS) -salauksella, ja tiedonsiirto Dynamics 365, Power Platform:n ja Azuren OpenAI välillä tapahtuu runkoverkon kautta, mikä takaa sekä luotettavuuden Microsoft että turvallisuuden. Lue lisää salauksesta Microsoft pilvipalvelussa.
Tiedot on suunniteltu suojattavaksi sekä vuokraajan että ympäristön tasolla. Tiedämme, että tietovuodot ovat huolenaiheena asiakkaille. Microsoft Tekoälymalleja ei ole koulutettu vuokraajatietoihin tai kehotteisiin, eivätkä ne opi niistä, ellei vuokraajan järjestelmänvalvoja ole valinnut tietojen jakamista kanssamme. Voit hallita ympäristöissä käyttöoikeuksia määritettyjen oikeuksien avulla. Todennus- ja valtuutusmekanismit erottelevat pyynnöt jaettuun malliin vuokraajien kesken. Copilot käyttää tietoja, joihin vain sinulla on käyttöoikeus, hyödyntämällä samaa tekniikkaa, jota olemme käyttäneet vuosien ajan asiakastietojen suojaamiseen.
Ovatko Copilotin vastaukset aina todenmukaisia?
Kuten minkä tahansa generatiivisen tekoälyn kohdalla, Copilotin vastaukset eivät ole 100% tosiasioita. Vaikka parannammekin jatkuvasti vastauksia faktapohjaisiin kyselyihin, käyttäjän tulisi silti käyttää omaa harkintaansa tarkastellessaan tuloksia ennen niiden lähettämistä muille. Copilot tuottaa hyödyllisiä luonnoksia ja yhteenvetoja työskentelyn tehostamiseksi, mutta se ei ole täysin automaattinen ominaisuus. Voit aina tarkastella tekoälyn luomaa sisältöä.
Tiimimme työskentelevät jatkuvasti algoritmien parissa ehkäistäkseen ennalta ongelmia, kuten väärään tai valheelliseen informaatioon, sisällönestoon tai tietoturvaan liittyviä ongelmia, ja estääkseen haitallisen tai syrjivän sisällön levittämisen vastuullisen tekoälyn periaatteidemme mukaisesti.
Käyttökokemuksen osana tarjoamme myös opastusta edistääksemme tekoälyn luoman sisällön ja ehdotettujen toimintojen vastuullista käyttöä.
Ohjeet ja kehotteet. Copilotia käytettäessä kehotteet ja muut opastavat elementit muistuttavat vastausten tarkastamisesta ja muokkaamisesta sekä faktojen, tietojen ja tekstin paikkansapitävyyden manuaalisesta tarkastamisesta ennen tekoälyn luoman sisällön käyttämistä.
Lainatut lähteet. Mahdollisuuksien mukaan Copilot kertoo tietolähteet, niin julkiset kuin sisäiset, jotta käyttäjä voi tarkistaa tiedot ja vahvistaa annetut vastaukset.
Lisätietoja on tuotteesi vastuullisen tekoälyn usein kysytyissä kysymyksissä Microsoft Learnissa.
Miten Copilot estää haitallista sisältöä?
Azure OpenAI -palvelu sisältää sisältösuodatusjärjestelmän, joka toimii ydinmallien kanssa. Sisällön suodatusmalleja on koulutettu erikseen vihapuheen ja oikeudenmukaisuuden, seksuaalisen sisällön, väkivallan ja itsensä vahingoittamisen luokkia varten, ja niitä on testattu useilla eri kielillä. Tämä järjestelmä toimii suorittamalla sekä syöttökehotteen että vastauksen haitallisen sisällön tuloksen tunnistavien ja estävien luokitusmallien avulla.
Vihapuheeseen ja oikeudenmukaisuuteen liittyvät haitat mihin tahansa sisältöön, jossa käytetään halventavaa tai syrjivää kieltä esimerkiksi rotuun, etnisyyteen, kansallisuuteen, sukupuoli-identiteettiin ja -ilmaisuun, seksuaaliseen suuntautumiseen, uskontoon, maahanmuuttaja-asemaan, kyvykkyyteen, henkilökohtaiseen ulkonäköön tai kehon kokoon liittyen. Oikeudenmukaisuuteen otetaan kantaa varmistamalla, että tekoälyjärjestelmät kohtelevat kaikkia ihmisryhmiä tasapuolisesti ilman olemassa olevaa sosiaalista epäoikeudenmukaisuutta. Seksuaalinen sisältö käsittää ihmisten sukupuolielimiä, romanttisia suhteita, eroottisten ja ihailevien termien avulla kuvattuja tekoja, raskautta, fyysisiä seksuaalisia tekoja, myös seksuaalisen väkivallan hyökkäyksinä ja pakotettuina tekoina esitettyjä tekoja, prostituutiota, pornografiaa ja hyväksikäyttöä koskevat keskustelut. Väkivalta koskee kieltä, joka liittyy sellaisiin fyysisiin toimintoihin, joiden tarkoitus on tehdä vahinkoa tai tappaa esimerkiksi toiminnalla, aseilla ja muilla tavoilla. Itsensä vahingoittamisella viitataan toimiin, joilla on tarkoituksena vahingoittaa itseä tai tehdä itsemurha.
Lue lisää Azuren OpenAI sisällön suodatuksesta.
Estääkö Copilot kehotteiden injektiot (jailbreak-hyökkäykset)?
Jailbreak-hyökkäykset ovat käyttäjän kehotteita, jotka on suunniteltu provosoimaan generatiivinen tekoälymalli käyttäytymään tavoilla, joihin se on koulutettu, tai rikkomaan sääntöjä, joita sen on käsketty noudattaa. Dynamics 365:n ja Power Platformin palveluita tarvitaan kehotteiden injektioita vastaan tehdyn suojauksen toteuttamiseen. Lue lisää jailbreak-hyökkäyksistä ja niiden tunnistamisesta Azure AI:n sisältöturvallisuuden avulla.
Estääkö Copilot epäsuorat kehotteiden injektiot (epäsuorat hyökkäykset)?
Epäsuoria hyökkäyksiä, joita kutsutaan myös epäsuoriksi kehotehyökkäyksiksi tai toimialueiden välisiksi injektiohyökkäyksiksi, ovat mahdollisia haavoittuvuuksia, joissa ulkopuoliset tahot sijoittavat haitallisia ohjeita niiden asiakirjojen sisälle, joita generatiivisen tekoälyn järjestelmä voi käyttää ja käsitellä. Dynamics 365:n ja Power Platformin palveluita tarvitaan suojaamiseen epäsuorilta kehotteiden injektiohyökkäyksiltä. Lue lisää epäsuorista hyökkäyksistä ja niiden tunnistamisesta Azure AI:n sisältöturvallisuuden avulla.
Miten Copilotin laatua testataan Microsoft ja validoidaan, mukaan lukien nopea ruiskutussuojaus ja maadoitetut vasteet?
Jokaisen uuden Copilot-tuotteen ja kielimallin iteroinnin on läpäistävä sisäinen vastuullisen tekoälyn tarkistus ennen sen julkaisemista. Ennen julkaisemista käytetään red teaming -nimistä prosessia, jossa tiimi simuloi vihollisen hyökkäyksen, löytää ja hyödyntää heikkouksia ja auttaa organisaatiota parantamaan puolustusta. Näin voidaan arvioida haitallisen sisällön, jailbreak-skenaarioiden ja perusteltujen vastausten mahdollisia riskejä. Julkaisemisen jälkeen Copilotin vastausten laatu arvioidaan automaattisen testauksen sekä manuaalisten ja automaattisten arviointityökalujen avulla.
Microsoft Miten parannetaan perusmallia ja mitataan maadoitettujen vasteiden parannuksia?
Tekoälyyn liittyen, erityisesti silloin kun tekoäly käyttää kielimalleja, kuten sitä johon Copilot perustuu, perusteleminen auttaa tekoälyä luomaan osuvia, reaalimaailmassa käyttökelpoisia vastauksia. Perusteleminen auttaa varmistamaan, että tekoälyn vastaukset perustuvat luotettaviin tietoihin ja ovat mahdollisimman tarkkoja ja asianmukaisia. Perusteltujen vastausten mittarit arvioivat, miten tarkasti mallille annetun perustellun sisällön sisältämiä faktoja on käytetty lopullisessa vastauksessa.
Perusmalleja, kuten GPT-4, on parannettu RAG (Retrieval Augmented Generation) -tekniikoiden avulla. Näiden tekniikoiden avulla mallit voivat käyttää enemmän tietoja kuin mitä niiden käyttäjän skenaarion ymmärtämiseksi annettu koulutus mahdollistaa. RAG tunnistaa ensin skenaariota vastaavat tiedot samalla tavalla kuin hakukone tunnistaa käyttäjän hakuehtoja vastaavat verkkosivut. Käyttäjän kehotteen mukainen sisältö tunnistetaan useiden menetelmien avulla, ja sitä tulee käyttää vastauksen perustelemisessa. Menetelmiä ovat haut eri tyyppisistä indekseistä, kuten vastakkaisista indekseistä käyttämällä tiedonhakutekniikkoina esimerkiksi hakuehdon vastaavuutta tai vektori-indeksejä käyttämällä vektorin etäisyyden vertailuja sementtista vastaavuutta varten. Kun RAG on tunnistanut asianmukaiset asiakirjat, se välittää tiedot ja nykyisen keskustelun mallille. Näin malli saa lisätietoja, joiden avulla se voi luoda reaalimaailmaan perustuvan vastauksen. Lopuksi RAG tarkistaa vastauksen, jotta varmistetaan, että sen mallille antama lähdesisältö tukee sitä. Copilotin generatiiviset tekoälyominaisuudet käyttävät RAG:ia useilla eri tavoilla. Yksi esimerkki on keskustelu ja tiedot, joissa keskustelubotti käyttää asiakkaan omien tietolähteiden perusteluita.
Toinen perusmallien parannusmenetelmä on hienosäätö. Suuri kysely- ja vastausparien tietojoukko näytetään perusmallille, jotta sen alkuperäistä koulutusta voidaan parantaa tiettyä skenaariota koskevien uusien esimerkkien avulla. Tämän jälkeen malli voidaan ottaa käyttöön erillisenä mallina, joka on hienosäädetty skenaariota varten. Perusteleminen tarkoittaa tekoälyn tietojen määrittämistä olennaiseksi reaalimaailmassa. Hienosäätö tarkoittaa tekoälyn tietojen määrittämistä tarkemmin tiettyä tehtävää tai toimialuetta varten. Microsoft Käyttää hienosäätöä monin tavoin. Käytämme esimerkiksi käyttäjän antamia luonnollisen kielen kuvauksia Power Automate -työnkulkujen luonnissa.
Täyttääkö Copilot lakisääteiset vaatimukset?
Microsoft Copilot on Dynamics 365:n ja Power Platformin ekosysteemin osa, ja se täyttää samat lakisääteiset vaatimukset kuin muu ekosysteemi. Lisätietoja palveluiden Microsoft lakisääteisistä sertifioinneista on Service Trust -portaalissa. Lisäksi Copilot noudattaa vastuullisen tekoälyn sitoumustamme, joka on toteutettu vastuullisen tekoälyn standardeissamme. Tekoälyä koskevan sääntelyn kehittyessä Microsoft se mukautuu edelleen uusiin vaatimuksiin ja vastaa niihin.
Lue lisätietoja malliin perustuvien sovellusten rakentamisesta
Copilot Dynamics 365 -sovelluksissa ja Power Platformissa
Lue lisää Copilotin tekoälyominaisuuksien valinnaisesta tietojen jakamisesta Dynamics 365 ja Power Platform.
Alueellinen saatavuus ja kielen saatavuus
Copilotin kansainvälinen saatavuus
Tietojen siirtyminen maantieteellisten alueiden välillä
- Miten tietojen siirtäminen alueiden välillä toimii?
- Määritä tietojen siirto maantieteellisten sijaintien välillä generatiivisille tekoälyominaisuuksille Yhdysvaltojen ulkopuolella
- Copilot-datan liikkuminen maantieteellisten alueiden välillä Dynamics 365 Salesissa
- Copilot-datan liikkuminen maantieteellisten alueiden välillä Dynamics 365 Business Central
Turvallisuus osoitteessa Microsoft
- Johdanto Azuren suojaukseen
- Salaus pilvessä Microsoft
- Azure-palvelun OpenAI tiedot, tietosuoja ja tietoturva – Azure AI -palvelut