Usein kysytyt kysymykset Copilotin tietosuojasta ja yksityisyydestä Dynamics 365:ssä ja Power Platformissa
Dynamics 365:n ja Power Platformin Copilotin ominaisuudet noudattavat keskeisiä tietoturva- ja yksityisyyskäytäntöjä sekä Microsoftin vastuullisen tekoälyn standardia. Dynamics 365:n ja Power Platformin tiedot on suojattu kattavilla, alan johtavilla vaatimustenmukaisuus-, tietoturva- ja suojausmenetelmillä.
Copilot on rakennettu Microsoft Azure OpenAI ‑palvelun pohjalle, ja se suoritetaan kokonaan Azure-pilvipalvelussa. Azure OpenAI tarjoaa alueellisen saatavuuden sekä vastuullisen tekoälysisällön suodatuksen. Copilot käyttää OpenAI-malleja, joilla on kaikki Microsoft Azuren suojausominaisuudet. OpenAI on riippumaton organisaatio. Microsoft ei jaa tietojasi OpenAI:n kanssa.
Copilot-ominaisuudet eivät ole käytettävissä kaikilla Azuren maantieteellisillä alueilla ja kielillä. Sen mukaan, missä ympäristöäsi isännöidään, sinun on voidaksesi käyttää tietoja ehkä sallittava niiden siirto eri maantieteellisten alueiden välillä. Lisätietoja on artikkeleissa, jotka on lueteltu kohdassa Tietojen siirtäminen maantieteellisten alueiden välillä.
Mitä tiedoilleni tapahtuu, kun käytän Copilotia?
Sinä hallitset tietojasi. Microsoft ei jaa tietojasi kolmannelle osapuolelle, ellet ole antanut siihen lupaa. Microsoft ei myöskään käytä tietojasi Copilotin tai sen tekoälyominaisuuksien kouluttamiseen, ellet ole antanut Microsoftille suostumusta siihen. Copilot noudattaa olemassa olevia tietojen käyttöoikeuksia ja käytäntöjä, ja sen vastaukset sinulle perustuvat vain sellaisiin tietoihin, joihin sinulla on henkilökohtaisesti pääsy. Lisätietoja siitä, miten voit hallita tietojasi ja niiden käsittelyä, on artikkeleissa, jotka on lueteltu kohdassa Copilot Dynamics 365 ‑sovelluksissa ja Power Platformissa.
Copilot valvoo palvelua loukkaavan tai vahingollisen käytön varalta tilapäisen käsittelyn avulla. Microsoft ei tallenna eikä ihmistoimin tarkastele Copilotin syötteitä ja tuloksia väärinkäytön valvonnan tarkoituksissa.
Miten Copilot käyttää tietojani?
Kukin palvelu tai ominaisuus käyttää Copilotia niiden tietojen perusteella, jotka olet antanut tai jotka olet määrittänyt Copilotin käsittelemään.
Kehotteet (syötteet) ja Copilotin vastaukset (tulokset):
EIVÄT ole muiden asiakkaiden käytettävissä.
Niitä EI käytetä minkään kolmannen osapuolen tuotteiden tai palveluiden (kuten OpenAI:n mallien) kouluttamiseen tai parantamiseen.
EI käytetä Microsoftin tekoälymallien kouluttamiseen tai parantamiseen, ellei vuokraajan järjestelmänvalvoja ole suostunut jakamaan tietoja meille. Lisätietoja: Dynamics 365:n ja Power Platformin Copilot-tekoälyominaisuuksien valinnaista tietojen jakamista koskevat usein kysytyt kysymykset.
Tietoja Azure OpenAI ‑palvelun tietosuojasta ja tietoturvasta. Lisätietoja siitä, miten Microsoft suojaa ja käyttää tietojasi yleisemmin, on Microsoftin tietosuojalausekkeessa.
Mihin tietoni kulkevat?
Luottamus on Microsoftille tärkeää. Microsoft on sitoutunut turvaamaan tietojen suojauksen, yksityisyyden ja vaatimustenmukaisuuden kaikessa toiminnassaan, ja tämä pätee myös Microsoftin suhtautumiseen tekoälyyn. Asiakastiedot, mukaan lukien Copilotin syötteet ja tulokset, tallennetaan Microsoft Cloud ‑luottamusalueelle.
Joissakin tilanteissa, kuten Bingiä hyödyntävien ominaisuuksien ja kolmannen osapuolen avustajalaajennusten tapauksessa, asiakastietoja voidaan lähettää Microsoft Cloud ‑luottamusalueen ulkopuolelle.
Voiko Copilot käyttää salattua sisältöä?
Copilotille toimitetut tiedot toimitetaan nykyisen käyttäjän käyttöoikeustason perusteella. Jos käyttäjällä on pääsy salattuihin tietoihin Dynamics 365:ssä ja Power Platformissa ja käyttäjä toimittaa ne Copilotille, Copilot voi käyttää niitä.
Miten Copilot suojaa asiakastietoja?
Microsoft on ainutlaatuisessa asemassa tarjoamaan yrityskäyttöön valmiita tekoälypalveluja. Copilot pohjautuu Azure OpenAI ‑palveluun, ja se noudattaa nykyisiä yksityisyyttä, tietosuojaa ja vaatimustenmukaisuutta koskevia sitoumuksiamme asiakkaillemme.
Perustuu Microsoftin kattaviin tietosuoja-, yksityisyys- ja vaatimustenmukaisuuskäytäntöihin. Copilot on integroituna Microsoftin palveluihin, kuten Dynamics 365:een ja Power Platformiin, ja se perii näiden tuotteiden tietosuojan, yksityisyyden ja vaatimustenmukaisuuden käytännöt ja prosessit, kuten monimenetelmäisen todentamisen ja vaatimustenmukaisuusrajat.
Organisaatiotietojen suojaamista varten on useita suojausmuotoja. Palvelupuolen tekniikoilla salataan organisaation sekä tallennettuna että siirrettävänä oleva sisältö tietoturvan vahvistamiseksi. Yhteyksiä suojataan TLS (Transport Layer Security) ‑salauksella, ja tietojen siirrot Dynamics 365:n, Power Platformin ja Azure OpenAI:n välillä tapahtuvat Microsoftin runkoverkon kautta, mikä varmistaa sekä luotettavuuden että turvallisuuden. Lisätietoja salauksesta Microsoft Cloudissa.
Suunniteltu suojaamaan tietojasi sekä vuokraajan että ympäristön tasolla. Tiedämme, että tietovuodot ovat huolenaiheena asiakkaille. Ellei vuokraajan järjestelmänvalvoja ottanut käyttöön valinnaista tietojen jakamista Microsoftille, Microsoftin tekoälymalleja ei kouluteta vuokraajan tietojen tai kehotteidesi perusteella, eivätkä mallit opi niistä. Ympäristöissäsi voit hallita pääsyä tietoihin itse määrittämiesi käyttöoikeuksien avulla. Todennus- ja varmennusmekanismit erottelevat pyynnöt jaettuun malliin vuokraajien kesken. Copilot käyttää tietoja, joihin vain sinulla on käyttöoikeus, hyödyntämällä samaa tekniikkaa, jota olemme käyttäneet vuosien ajan asiakastietojen suojaamiseen.
Ovatko Copilotin vastaukset aina todenmukaisia?
Copilotin, kuten minkään muunkaan generatiivisen tekoälyn, tuottamat vastaukset eivät 100-prosenttisen todenmukaisia. Vaikka parannammekin jatkuvasti vastauksia faktapohjaisiin kyselyihin, käyttäjien tulisi silti käyttää omaa harkintaansa ja tarkistaa tulokset ennen niiden lähettämistä muille. Copilot auttaa parantamaan tuottavuuttasi tarjoamalla hyödyllisiä luonnoksia ja yhteenvetoja, mutta se on täysin automaattinen. Voit aina tarkistaa tekoälyn luoman sisällön.
Tiimimme työskentelevät jatkuvasti ehkäistäkseen ennalta ongelmia, kuten väärään tai valheelliseen informaatioon, sisällönestoon tai tietoturvaan liittyviä ongelmia, ja estääkseen haitallisen tai syrjivän sisällön levittämisen vastuullisen tekoälyn periaatteidemme mukaisesti.
Tarjoamme myös opastusta osana käyttökokemusta edistääksemme tekoälyn luoman sisällön ja ehdotettujen toimintojen vastuullista käyttöä.
Ohjeet ja kehotteet. Copilotia käytettäessä kehotteet ja muut opastavat elementit muistuttavat sinua arvioimaan vastaukset ja muokkaamaan niitä tarvittaessa sekä tarkistamaan manuaalisesti faktojen, tietojen ja tekstin paikkansapitävyyden, ennen kuin käytät tekoälyn luomaa sisältöä.
Lainatut lähteet. Sovellettavissa kohdin Copilot siteeraa tiedonlähteitään, olivat ne julkisia tai sisäisiä, jotta voit arvioida ne itse ja vahvistaa vastausten asianmukaisuuden.
Lisätietoja on tuotteesi vastuullisen tekoälyn usein kysytyissä kysymyksissä Microsoft Learnissa.
Miten Copilot estää haitallista sisältöä?
Azure OpenAI ‑palvelu sisältää sisältösuodatusjärjestelmän, joka toimii ydinmallien kanssa. Vihapuheen ja reiluuden, seksuaalisen sisällön, väkivallan sekä itsensä vahingoittamisen sisältöluokkien sisällönsuodatusmallit on koulutettu ja testattu erikseen useilla kielillä. Tämä järjestelmä toimii suorittamalla sekä syötekehotteelle että vastaukselle luokitusmalleja, jotka on suunniteltu tunnistamaan ja estämään haitallinen sisältö.
Vihapuheeseen ja reiluuteen liittyvällä haitallisella sisällöllä tarkoitetaan sisältöä, jossa käytetään halveksivaa tai syrjivää kieltä liittyen sellaisiin ominaisuuksiin kuin rotu, etnisyys, kansallisuus, sukupuoli-indentiteetti tai sukupuolen ilmaiseminen, seksuaalinen suuntautuminen, uskonto, maahanmuuttajatausta, vammaisuus, ulkonäkö tai ruumiinrakenne. Reiluudella tarkoitetaan sen varmistamista, että tekoälyjärjestelmät kohtelevat kaikkia ihmisryhmiä tasapuolisesti ja vahvistamatta olemassa olevia yhteiskunnallisia epätasa-arvoisuuksia. Seksuaaliseen sisältöön liittyvät keskustelut sukuelimistä, romanttisista suhteista, eroottisista tai kiintymystä osoittavista toimista, raskaudesta, fyysisistä seksuaalisista teoista mukaan lukien sellaiset, joihin liittyy seksuaalista väkivaltaa, sekä prostituutiosta, pornosta ja hyväksikäytöstä. Väkivalta kuvaa sellaisiin fyysisiin toimiin liittyvää kieltä, joiden on tarkoitus vahingoittaa tai tappaa, mukaan lukien toiminta, aseet sekä niihin liittyvät asiat. Itsensä vahingoittamisella viitataan toimiin, joilla on tarkoituksena vahingoittaa itseä tai tehdä itsemurha.
Lisätietoja Azure OpenAI:n sisältösuodatuksesta.
Estääkö Copilot kehotteiden injektiot (jailbreak-hyökkäykset)?
Jailbreak-hyökkäykset ovat käyttäjän kehotteita, jotka on suunniteltu provosoimaan generatiivinen tekoälymalli toimimaan tavoilla, joita se on koulutettu välttämään, tai rikkomaan sille määritettyjä sääntöjä. Dynamics 365:n ja Power Platformin palveluita tarvitaan kehoteinjektioilta suojautumiseen. Lisätietoja jailbreak-hyökkäyksistä ja niiden tunnistamisesta Azuren tekoälysisällön suojausominaisuuden avulla.
Estääkö Copilot epäsuorat kehotteiden injektiot (epäsuorat hyökkäykset)?
Epäsuorat hyökkäykset, joita kutsutaan myös epäsuoriksi kehotehyökkäyksiksi tai toimialueiden välisiksi kehoteinjektiohyökkäyksiksi, ovat mahdollinen haavoittuvuus, jossa kolmannet osapuolet asettavat haitallisia ohjeita asiakirjoihin, joita generatiivisen tekoälyn järjestelmä voi käyttää ja käsitellä. Dynamics 365:n ja Power Platformin palveluita tarvitaan epäsuorilta kehoteinjektioilta suojautumiseen. Lue lisätietoja epäsuorista hyökkäyksistä sekä siitä, miten voit tunnistaa ne Azuren tekoälysisällön suojausominaisuuden avulla.
Miten Microsoft testaa ja tarkistaa Copilotin tuottaman sisällön laadun käyttäen muun muassa kehoteinjektoilta suojausta ja juurrutettuja vastauksia?
Jokaisen uuden Copilot-tuote- ja kielimalliversion on läpäistävä sisäinen vastuullisen tekoälyn tarkistus, ennen kuin se voidaan julkaista. Ennen julkaisua käytetään niin kutsuttua "punaisen tiimin" prosessia (jossa tiimi simuloi pahantahtoista hyökkäystä pyrkien löytämään ja hyväksikäyttämään heikkouksia ja auttamaan näin organisaatiota parantamaan suojaustaan) mahdollisten haitalliseen sisältöön, jailbreak-hyökkäyksiin ja juurrutettuihin vastauksiin liittyvien riskien arvioimiseksi. Julkaisun jälkeen käytetään automaattista testausta sekä manuaalisia ja automaattisia arviointityökaluja Copilot-vastausten laadun arvioimiseen.
Miten Microsoft parantaa perustamallia ja mittaa juurrutettujen vastausten parannuksia?
Tekoälyn kontekstissa – erityisesti kielimalleja hyödyntävän tekoälyn, jollaiseen Copilotkin perustuu – juurrutus auttaa tekoälyä luomaan vastauksia, jotka liittyvät paremmin asiaan ja käyvät järkeen todellisessa maailmassa. Juurrutus auttaa varmistamaan, että tekoälyn vastaukset perustuvat luotettaviin tietoihin ja ovat mahdollisimman tarkkoja ja relevantteja. Juurrutettujen vastausten mittarit arvioivat, miten tarkasti mallille toimitettavassa juurrutussisällössä ilmoitetut faktatiedot esitetään lopullisessa vastauksessa.
Perustamalleja, kuten GPT-4, tehostetaan noudon lisäävän generoinnin (RAG) tekniikoilla. Näiden tekniikoiden avulla mallit voivat käyttäjän tilanteen ymmärtämiseksi käyttää enemmän tietoja kuin millä ne on koulutettu. RAG toimii siten, että se tunnistaa ensin tilanteen kannalta olennaiset tiedot samalla tavoin kuin hakukone tunnistaa käyttäjän hakuehtojen kannalta olennaiset verkkosivut. Se selvittää käyttämällä useita lähestymistapoja, mikä sisältö on olennaista käyttäjän kehotteen kannalta. Tätä sisältöä käytetään sitten vastauksen juurruttamiseen. Lähestymistapoihin kuuluu haku erilaisiin indekseihin verraten, esimerkiksi käänteisiin indekseihin käyttäen hakuehtovastaavuuksien kaltaisia tiedonhakutekniikoita tai vektori-indekseihin käyttäen vektorietäisyysvertailuja semanttisen samankaltaisuuden selvittämiseksi. Kun RAG on tunnistanut olennaiset asiakirjat, se välittää tiedot malliin yhdessä nykyisen keskustelun kanssa ja antaa mallille lisäkontekstia, jotta se voi ymmärtää sillä jo olevat tiedot paremmin ja luoda vastauksen, joka on juurrutettu todelliseen maailmaan. Lopuksi RAG-toiminto tarkistaa vastauksen varmistaakseen, että toiminnon mallille tarjoama lähdesisältö tukee vastausta. Copilotin generatiiviset tekoälyominaisuudet hyödyntävät RAG-tekniikkaa monilla tavoilla. Yksi esimerkki on keskustelu käyttäen tietoja siten, että keskustelubotti on juurrutettu asiakkaan omiin tietolähteisiin.
Toista perustamallien tehostustapaa kutsutaan hienosäädöksi. Perustamallille esitetään suuri kysely-vastausparien tietojoukko, jonka avulla se voi täydentää alkuperäistä koulutustaan uusilla, tiettyyn skenaarioon kohdistetuilla näytteillä. Tämän jälkeen malli voidaan ottaa käyttöön erillisenä mallina – sellaisena, joka on hienosäädetty juuri kyseistä skenaariota varten. Kun juurrutuksessa on kyse siitä, että varmistetaan tekoälyn tietämyksen asianmukaisuus todellisen maailman kannalta, hienosäätö on sitä, että tehdään tekoälyn tietämyksestä paremmin tiettyyn tehtävään tai alaan liittyvää. Microsoft käyttää hienosäätöä useilla eri tavoilla. Käytämme esimerkiksi käyttäjän antamia luonnollisen kielen kuvauksia Power Automate ‑työnkulkujen luonnissa.
Täyttääkö Copilot lakisääteiset vaatimukset?
Microsoft Copilot on osa Dynamics 365- ja Power Platform ‑ekosysteemiä ja täyttää samat lakisääteiset vaatimukset. Lisätietoja Microsoft-palvelun lakisääteisten määräysten täyttämisen sertifikaateista on Service Trust Portalissa. Lisäksi Copilot noudattaa vastuullisen tekoälyn sitoumustamme, joka toteutetaan vastuullisen tekoälyn standardimme kautta. Tekoälyn sääntelyn kehittyessä Microsoft reagoi ja mukautuu uusiin lakisääteisiin vaatimuksiin.
Lisätietoja
Copilot Dynamics 365 -sovelluksissa ja Power Platformissa
Alueellinen saatavuus ja kielen saatavuus
Copilotin kansainvälinen saatavuus
Tietojen siirtäminen maantieteellisten alueiden välillä
- Tietojen siirto alueiden välillä
- Yhdysvaltojen ulkopuolisten generatiivisten tekoälyominaisuuksien tietojen siirron määrittäminen maantieteellisten sijaintien välillä
- Copilot‑tietojen siirto maantieteellisten alueiden välillä Dynamics 365 Salesissa
- Copilot-tietojen siirtäminen maantieteellisten alueiden välillä Dynamics 365 Business Centralissa
Microsoftin tietoturva
- Johdanto Azuren tietoturvaan
- Salaus Microsoft Cloudissa
- Azure OpenAI ‑palvelun tiedot, tietosuoja ja tietoturva – Azure AI -palvelut