Delen via


Veelgestelde vragen over gegevensbeveiliging en privacy in Copilot voor Dynamics 365 en Power Platform

De functies van Copilot for Dynamics 365 en Power Platform volgen een reeks kernbeveiligingsen privacyprocedures en de normen voor verantwoorde AI van Microsoft. Dynamics 365- en Power Platform-gegevens worden beschermd door uitgebreide, toonaangevende compliance-, beveiligings- en privacycontroles.

Copilot is gebouwd op de Microsoft Azure OpenAI Service en wordt volledig uitgevoerd binnen de Azure-cloud. Azure OpenAI biedt regionale beschikbaarheid en verantwoorde AI-inhoudsfiltering. Copilot gebruikt OpenAI-modellen met alle beveiligingsmogelijkheden van Microsoft Azure. OpenAI is een onafhankelijke organisatie. Wij delen uw gegevens niet met OpenAI.

Copilot-functies zijn niet beschikbaar in alle Azure-geografieën en -talen. Afhankelijk van waar uw omgeving wordt gehost, moet u mogelijk gegevensverplaatsing tussen geografieën toestaan om deze te kunnen gebruiken. Zie de artikelen onder Gegevensverplaatsing tussen geografieën voor meer informatie.

Wat gebeurt er met mijn gegevens als ik Copilot gebruik?

U hebt de volledige controle over uw gegevens. Microsoft deelt uw gegevens niet met een derde partij, tenzij u daarvoor toestemming hebt gegeven. Verder gebruiken we uw klantgegevens niet om Copilot of de AI-functies ervan te trainen of te verbeteren, tenzij u ons toestemming hebt gegeven om dit te doen. Copilot houdt zich aan bestaande gegevensmachtigingen en -beleid en zijn responsen voor u zijn alleen gebaseerd op gegevens waartoe u persoonlijk toegang hebt. Voor meer informatie over hoe u uw gegevens kunt beheren en hoe er met uw gegevens wordt omgegaan, kunt u de artikelen onder Copilot in Dynamics 365-apps en Power Platform raadplegen.

Copilot controleert met verwerking van tijdelijke gegevens op misbruik of schadelijk gebruik van de service. We slaan de in- en uitvoer van Copilot niet op en voeren er geen continue controle op uit om toezicht te houden op misbruik.

Hoe gebruikt Copilot mijn gegevens? 

Elke service of functie maakt gebruik van Copilot op basis van de gegevens die u verstrekt of configureert om door Copilot te worden verwerkt.

Uw prompts (invoer) en de responsen van Copilot (uitvoer of resultaten):

  • Zijn NIET beschikbaar voor andere klanten.

  • Worden NIET gebruikt om producten of services van derden te trainen of te verbeteren (zoals OpenAI-modellen).

  • Worden NIET gebruikt om Microsoft AI-modellen te trainen of te verbeteren, tenzij uw tenantbeheerder zich heeft aangemeld voor het delen van gegevens.

Meer informatie over gegevens, privacy en beveiliging voor Azure OpenAI Service Voor meer informatie over hoe Microsoft uw gegevens in het algemeen beschermt en gebruikt, leest u onze Privacyverklaring.

Waar gaan mijn gegevens naartoe?

Microsoft werkt op vertrouwen. We streven naar beveiliging, privacy en compliance bij alles wat we doen en onze houding tegenover AI is niet anders. Klantgegevens, inclusief Copilot-invoer en -uitvoer, worden opgeslagen binnen de Microsoft Cloud-vertrouwensgrens.

In sommige scenario's, zoals functies die mogelijk worden gemaakt door Bing en copilot-invoegtoepassingen van derden, kunnen klantgegevens buiten de Microsoft Cloud-vertrouwensgrens worden verzonden.

Heeft Copilot toegang tot gecodeerde inhoud?

Gegevens worden aan Copilot verstrekt op basis van het toegangsniveau van de huidige gebruiker. Als een gebruiker toegang heeft tot versleutelde gegevens in Dynamics 365 en Power Platform en deze aan Copilot verstrekt, heeft Copilot er toegang toe.

Hoe beschermt Copilot klantgegevens?

Microsoft verkeert in een unieke positie voor de levering van AI voor ondernemingen. Copilot wordt mogelijk gemaakt door Azure OpenAI Service en voldoet aan onze bestaande verplichtingen op het gebied van privacy, beveiliging en regelgeving met betrekking tot onze klanten.

  • Gebouwd op de alomvattende aanpak van Microsoft op het gebied van beveiliging, privacy en compliance. Copilot is geïntegreerd in Microsoft-services zoals Dynamics 365 en Power Platform en neemt het waardevolle beveiligings-, privacy- en compliancebeleid en de processen van deze producten over, zoals meervoudige verificatie en nalevingsgrenzen.

  • Meerdere vormen van bescherming behoeden organisatiegegevens. Technologieën aan de servicezijde versleutelen organisatorische inhoud in rust en in transit voor robuuste beveiliging. Verbindingen worden beveiligd met Transport Layer Security (TLS) en gegevensoverdracht tussen Dynamics 365, Power Platform en Azure OpenAI vinden plaats via het Microsoft-backbonenetwerk, waardoor zowel betrouwbaarheid als veiligheid worden gegarandeerd. Meer informatie over versleuteling in de Microsoft Cloud.

  • Ontworpen om uw gegevens te beschermen op zowel tenant- als omgevingsniveau. We weten dat datalekken een zorg vormen voor klanten. Microsoft AI-modellen worden niet getraind op en leren niet van uw tenantgegevens of uw prompts, tenzij uw tenantbeheerder zich heeft aangemeld voor het delen van gegevens met ons. Binnen uw omgevingen kunt u de toegang beheren via machtigingen die u instelt. Verificatie- en autorisatiemechanismen scheiden aanvragen voor het gedeelde model tussen tenants. Op individueel niveau gebruikt Copilot gegevens waartoe alleen u toegang hebt, met behulp van dezelfde technologie die we al jaren gebruiken om klantgegevens te beveiligen.

Zijn de responsen van Copilot altijd feitelijk correct?

Zoals voor alle generatieve AI geldt, zijn de responsen van Copilot niet gegarandeerd 100% feitelijk correct. Hoewel we de responsen op informatieaanvragen op basis van feiten voortdurend verbeteren, blijft uw oordeelsvermogen noodzakelijk om de uitvoer te evalueren voordat u deze naar andere personen doorstuurt. Copilot biedt handige concepten en samenvattingen waarmee u meer kunt doen, maar het werkt volledig automatisch. U bent altijd in de gelegenheid om de door AI gegenereerde inhoud te evalueren.

Onze teams werken eraan om problemen proactief aan te pakken, zoals onjuiste informatie en desinformatie, het blokkeren van inhoud, gegevensbeveiliging en voorkomen dat schadelijke of discriminerende inhoud wordt gepromoot in overeenstemming met onze principes voor verantwoorde AI.

We bieden ook begeleiding in de gebruikerservaring om het verantwoorde gebruik van door AI gegenereerde inhoud en voorgestelde acties te versterken.

  • Beschrijving en prompts. Wanneer u met Copilot werkt, wordt u er met prompts en andere instructies aan herinnerd om responsen indien nodig te beoordelen en te bewerken en om feiten, gegevens en tekst handmatig te controleren op nauwkeurigheid, voordat u de door AI gegenereerde inhoud gebruikt.

  • Geciteerde bronnen. Waar van toepassing citeert Copilot de informatiebronnen, zowel openbaar als intern, die het gebruikt, zodat u deze zelf kunt beoordelen om de responsen van Copilot te bevestigen.

Raadpleeg de veelgestelde vragen over verantwoorde AI voor uw product op Microsoft Learn voor meer informatie.

Hoe blokkeert Copilot schadelijke inhoud?

Azure OpenAI Service omvat een systeem voor het filteren van inhoud dat naast basismodellen werkt. De inhoudfiltermodellen voor de categorieën Haat en Eerlijkheid, Seksueel, Geweld en Zelfbeschadiging zijn specifiek getraind en getest in verschillende talen. Dit systeem werkt door zowel de invoerprompt als de respons uit te voeren via classificatiemodellen die zijn ontworpen om de uitvoer van schadelijke inhoud te identificeren en te blokkeren.

Aan haat en eerlijkheid gerelateerde schadelijkheid heeft betrekking op alle inhoud waarin pejoratieve of discriminerende taal wordt gebruikt op basis van kenmerken als ras, etniciteit, nationaliteit, genderidentiteit en -expressie, seksuele geaardheid, religie, immigratiestatus, lichamelijke en geestelijke capaciteiten, uiterlijk en lichaamsvorm. Bij eerlijkheid gaat het erom ervoor te zorgen dat AI-systemen alle groepen mensen rechtvaardig behandelen, zonder bij te dragen aan bestaande maatschappelijke ongelijkheid. Seksuele inhoud omvat discussies over menselijke voortplantingsorganen, romantische relaties, handelingen die in erotische of aanhankelijke termen worden afgeschilderd, zwangerschap, lichamelijke seksuele handelingen, waaronder handelingen die worden afgeschilderd als een aanval of een gedwongen daad van seksueel geweld, prostitutie, pornografie en misbruik. Geweld beschrijft taal die verband houdt met fysieke handelingen die bedoeld zijn om schade toe te brengen of te doden, waaronder gedragingen, wapens en aanverwante objecten. Taal over zelfbeschadiging verwijst naar opzettelijke handelingen die bedoeld zijn voor zelfverwonding of -doding.

Meer informatie over Azure OpenAI-inhoudsfilters.

Blokkeert Copilot promptinjecties (jailbreak-aanvallen)?

Jailbreakaanvallen zijn gebruikersprompts die zijn ontworpen om het generatieve AI-model ertoe aan te zetten gedrag te vertonen waarvoor het is getraind om het te vermijden of om de regels te overtreden waaraan het zich moet houden. Services in Dynamics 365 en Power Platform zijn vereist om bescherming tegen promptinjecties te bieden. Meer informatie over jailbreakaanvallen en hoe u Azure AI Content Safety kunt gebruiken om deze te detecteren.

Hoe test en valideert Microsoft de kwaliteit van Copilot, zoals promptinjectiebescherming en onderbouwde responsen?

Elke nieuwe Copilot-product- en taalmodel-iteratie moet een interne beoordeling van verantwoorde AI doorstaan ​​voordat deze kan worden gelanceerd. Voordat de release wordt uitgebracht, gebruiken we een proces dat 'red teaming' wordt genoemd (waarbij een team een vijandelijke aanval simuleert en zwakke punten vindt en deze uitbuit om de organisatie te helpen haar verdediging te verbeteren) om potentiële risico's in schadelijke inhoud, jailbreakscenario's en onderbouwde responsen te beoordelen. Na de release gebruiken we geautomatiseerde tests en handmatige en geautomatiseerde evaluatietools om de kwaliteit van de Copilot-responsen te beoordelen.

Hoe verbetert Microsoft het basismodel en worden verbeteringen in onderbouwde responsen gemeten?

In de context van AI, vooral AI die zich bezighoudt met taalmodellen zoals die waarop Copilot is gebaseerd, helpt onderbouwing (grounding) de AI responsen te genereren die relevanter en zinvoller zijn in de echte wereld. Onderbouwing helpt ervoor te zorgen dat de responsen van de AI gebaseerd zijn op betrouwbare informatie en zo nauwkeurig en relevant mogelijk zijn. Met behulp van statistieken voor onderbouwde responsen wordt beoordeeld hoe nauwkeurig de feiten die staan in de basisinhoud die aan het model wordt geleverd, zijn weergegeven in de uiteindelijke respons.

Basismodellen zoals GPT-4 worden verbeterd door RAG-technieken (Retrieval Augmented Generation). Met deze technieken kunnen de modellen meer informatie gebruiken dan waarop ze zijn getraind om het scenario van een gebruiker te begrijpen. RAG werkt door eerst gegevens te identificeren die relevant zijn voor het scenario, vergelijkbaar met de manier waarop een zoekmachine webpagina's identificeert die relevant zijn voor de zoektermen van de gebruiker. Er worden meerdere benaderingen gebruikt om te identificeren welke inhoud relevant is voor de gebruikersprompt en moet worden gebruikt om de respons te onderbouwen. Benaderingen omvatten het zoeken in verschillende soorten indexen, zoals omgekeerde indexen met behulp van technieken voor het ophalen van informatie, zoals termmatching of vectorindexen die vectorafstandsvergelijkingen gebruiken voor semantische gelijkenis. Nadat RAG de relevante documenten heeft geïdentificeerd, geeft RAG de gegevens samen met het huidige gesprek door aan het model, waardoor het model meer context krijgt om de informatie die het al heeft beter te begrijpen en een respons te genereren die onderbouwing heeft in de echte wereld. Ten slotte controleert RAG de respons om er zeker van te zijn deze wordt ondersteund door de broninhoud die het aan het model heeft geleverd. De generatieve AI-functies van Copilot integreren RAG op meerdere manieren. Een voorbeeld is chatten met gegevensgebruik, waarbij een chatbot is onderbouwd met de eigen gegevensbronnen van de klant.

Een andere methode om basismodellen te verbeteren wordt wel verfijning (finetuning) genoemd. Een grote gegevensset van vraag-respons-paren wordt getoond aan een basismodel om de oorspronkelijke training te verbeteren met nieuwe voorbeelden die zijn gericht op een specifiek scenario. Het model kan vervolgens worden geïmplementeerd als een afzonderlijk model, een model dat is verfijnd voor dat scenario. Waar onderbouwen gaat over het relevant maken van de kennis van de AI voor de echte wereld, gaat het bij verfijning over het specifieker maken van de kennis van de AI voor een bepaalde taak of bepaald domein. Microsoft maakt op meerdere manieren gebruik van verfijning. In Power Automate worden stromen bijvoorbeeld samengesteld op basis van natuurlijke taalbeschrijvingen die door de gebruiker zijn verstrekt.

Voldoet Copilot aan de vereisten voor wettelijke naleving?

Microsoft Copilot is onderdeel van Dynamics 365- en Power Platform-ecosysteem en voldoet aan dezelfde eisen voor naleving van de regelgeving. Ga voor meer informatie over de wettelijke certificeringen voor Microsoft-services naar de Service Trust Portal. Bovendien valt ook Copilot binnen ons streven naar verantwoorde AI, dat wordt geactiveerd via onze principes voor verantwoorde AI. Naarmate de regelgeving op AI-gebied evolueert, blijft Microsoft zich aanpassen en gehoor geven aan nieuwe vereisten.

Meer informatie over beschikbaarheid van Dynamics 365, Power Platform en Copilot, over de locaties van klantgegevens en de naleving van mondiale, regionale en branchespecifieke vereisten voor het beheren van gegevens.

Meer informatie

Copilot in Dynamics 365-apps en Power Platform

Product Functie Beheerde omgevingen vereist? Hoe u de functie kunt uitschakelen
AI Builder Scenario's in preview No Scenario's in preview
Dynamics 365 Business Central Alle (zie de volledige lijst op aka.ms/bcAI ) No Functies activeren
Dynamics 365 Customer Insights - Data Segmenten maken met Copilot voor Customer Insights - Data (preview) No Customer Insights - Data heeft zijn eigen markering voor alle Copilot-functies van Azure OpenAI.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Data Overzicht gegevensvoorbereidingsrapport (preview) No Customer Insights - Data heeft zijn eigen markering voor alle Copilot-functies van Azure OpenAI.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Data Antwoorden krijgen op veelgestelde vragen over mogelijkheden van Copilot (preview) No Customer Insights - Data heeft zijn eigen markering voor alle Copilot-functies van Azure OpenAI.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Data
Dynamics 365 Customer Insights (Gegevens) Een dialoog met gegevens voeren met behulp van Copilot in Customer Insights No Customer Insights - Data heeft zijn eigen markering voor alle Copilot-functies van Azure OpenAI.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Data Systeemconfiguratie weergeven No Customer Insights - Data heeft zijn eigen markering voor alle Copilot-functies van Azure OpenAI.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot helpt u meer te leren en te doen (review) No Of deze copilot beschikbaar is in jouw omgeving wordt bepaald door de Power Platform-beheerinstellingen. Meer informatie over hoe u Copilot voor modelgestuurde apps kunt toevoegen.


Deze mogelijkheid is 'app copilot in Customer Insights - Journeys' en daarom ingeschakeld in het Power Platform-beheercentrum. Meer informatie: Veelgestelde vragen over verantwoordelijke AI
Dynamics 365 Customer Insights - Journeys Trajecten maken met AI-ondersteuning No Customer Insights - Journeys heeft zijn eigen markeringen voor Copilot-functies.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Uw bericht vernieuwen en perfectioneren No Customer Insights - Journeys heeft zijn eigen markeringen voor Copilot-functies.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys De stijl van uw e-mails bepalen met AI-ondersteunde thema's No Customer Insights - Journeys heeft zijn eigen markeringen voor Copilot-functies.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys De juiste klanten targeten met behulp van de queryassistent

No Customer Insights - Journeys heeft zijn eigen markeringen voor Copilot-functies.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys AI gebruiken om te starten met het maken van e-mails No Customer Insights - Journeys heeft zijn eigen markeringen voor Copilot-functies.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Afbeeldingen gebruiken in uw inhoud No Customer Insights - Journeys heeft zijn eigen markeringen voor Copilot-functies.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Journeys
Power Apps Apps bouwen door middel van gesprekken No Functie-instellingen beheren
Power Apps Hulp van Copilot bij het invullen van formulieren in modelgestuurde apps No Functie-instellingen beheren
Power Apps Goed geschreven tekst opstellen, tekst invoeren met Copilot Nee, geen premiumgebruikerslicentie Goed geschreven tekst opstellen, tekst invoeren met Copilot
Power Apps Excel naar tabel No Functie-instellingen beheren
Power Apps Natuurlijke taal gebruiken om een ​​app te bewerken met behulp van het Copilot-paneel No Functie-instellingen beheren
Power Automate Copilot in cloudstromen op de startpagina en in de ontwerper (zie Aan de slag met Copilot in cloudstromen voor details.) No Neem contact op met ondersteuning om een ​​PowerShell-script uit te voeren.
Power Pages Alle (zie Copilot-overzicht in Power Pages voor meer informatie.) No Copilot uit te schakelen in Power Pages

Regionale beschikbaarheid en beschikbaarheid van talen

Internationale beschikbaarheid van Copilot

Gegevensverplaatsing tussen regio's

Beveiliging bij Microsoft

Privacy bij Microsoft

Privacyverklaring van Microsoft

Verantwoordelijke AI