Delen via


Veelgestelde vragen over gegevensbeveiliging en privacy in Copilot voor Dynamics 365 en Power Platform

Copilot voor Dynamics 365 en Power Platform bevatten volgen een reeks kernbeveiligings- en privacypraktijken en de Microsoft Responsible AI Standard. Dynamics 365- en Power Platform-gegevens worden beschermd door uitgebreide, toonaangevende compliance-, beveiligings- en privacycontroles.

Copilot is gebouwd op de Microsoft Azure OpenAI Service en wordt volledig uitgevoerd binnen de Azure-cloud. Azure OpenAI biedt regionale beschikbaarheid en verantwoorde AI-inhoudsfiltering. Copilot gebruikt OpenAI-modellen met alle beveiligingsmogelijkheden van Microsoft Azure. OpenAI is een onafhankelijke organisatie. Wij delen uw gegevens niet met OpenAI.

Copilot-functies zijn niet beschikbaar in alle Azure-geografieën en -talen. Afhankelijk van waar uw omgeving wordt gehost, moet u mogelijk gegevensverplaatsing tussen geografieën toestaan om deze te kunnen gebruiken. Zie de artikelen onder Gegevensverplaatsing tussen geografieën voor meer informatie.

Wat gebeurt er met mijn gegevens als ik Copilot gebruik?

U hebt de volledige controle over uw gegevens. Microsoft Delen uw gegevens niet aan derden, tenzij u daarvoor toestemming hebt gegeven. Verder gebruiken we uw klantgegevens niet om Copilot of de AI-functies ervan te trainen of te verbeteren, tenzij u ons toestemming hebt gegeven om dit te doen. Copilot houdt zich aan bestaande gegevensmachtigingen en -beleid en zijn responsen voor u zijn alleen gebaseerd op gegevens waartoe u persoonlijk toegang hebt. Voor meer informatie over hoe u uw gegevens kunt beheren en hoe er met uw gegevens wordt omgegaan, kunt u de artikelen onder Copilot in Dynamics 365-apps en Power Platform raadplegen.

Copilot controleert met verwerking van tijdelijke gegevens op misbruik of schadelijk gebruik van de service. We slaan de in- en uitvoer van Copilot niet op en voeren er geen continue controle op uit om toezicht te houden op misbruik.

Hoe gebruikt Copilot mijn gegevens?

Elke service of functie maakt gebruik van Copilot op basis van de gegevens die u verstrekt of configureert om door Copilot te worden verwerkt.

Uw prompts (invoer) en de responsen van Copilot (uitvoer of resultaten):

Meer informatie over Azure OpenAI Service-gegevensprivacy en -beveiliging. Voor meer informatie over hoe Microsoft uw gegevens in het algemeen beschermt en gebruikt, kunt u onze Privacyverklaring lezen.

Waar gaan mijn gegevens naartoe?

Microsoft draait op vertrouwen. We streven naar beveiliging, privacy en compliance bij alles wat we doen en onze houding tegenover AI is niet anders. Klantgegevens, inclusief Copilot-invoer en -uitvoer, worden opgeslagen in de Microsoft Cloud trust grens.

In sommige scenario's, zoals functies die worden aangestuurd door Bing en plug-ins van derden voor copilot, kunnen klantgegevens buiten de Cloud-vertrouwensrelatie grens worden verzonden. Microsoft

Heeft Copilot toegang tot gecodeerde inhoud?

Gegevens worden aan Copilot verstrekt op basis van het toegangsniveau van de huidige gebruiker. Als een gebruiker toegang heeft tot versleutelde gegevens in Dynamics 365 en Power Platform en deze aan Copilot verstrekt, heeft Copilot er toegang toe.

Hoe beschermt Copilot klantgegevens?

Microsoft is bij uitstek geschikt om AI te leveren die geschikt is voor ondernemingen. Copilot wordt mogelijk gemaakt door Azure OpenAI Service en voldoet aan onze bestaande verplichtingen op het gebied van privacy, beveiliging en regelgeving met betrekking tot onze klanten.

  • Gebouwd op Microsoft's uitgebreide aanpak van beveiliging, privacy en naleving. Copilot is geïntegreerd in Microsoft services zoals Dynamics 365 en Power Platform en neemt de beveiligings-, privacy- en nalevingsbeleidsregels en -processen van deze services over, zoals multifactorauthenticatie en nalevingsgrenzen.

  • Meerdere vormen van bescherming behoeden organisatiegegevens. Technologieën aan de servicezijde versleutelen organisatorische inhoud in rust en in transit voor robuuste beveiliging. Verbindingen worden beveiligd met Transport laag Security (TLS) en gegevensoverdrachten tussen Dynamics 365 Power Platform en Azure OpenAI vinden plaats via het Microsoft backbonenetwerk, waardoor zowel betrouwbaarheid als veiligheid worden gegarandeerd. Meer informatie over encryptie in de Microsoft Cloud.

  • Ontworpen om uw gegevens te beschermen op zowel tenant- als omgevingsniveau. We weten dat datalekken een zorg vormen voor klanten. Microsoft AI-modellen worden niet getraind en leren niet van uw tenantgegevens of uw prompts, tenzij uw tenantbeheerder heeft aangegeven dat hij/zij gegevens met ons wil delen. Binnen uw omgevingen kunt u de toegang beheren via machtigingen die u instelt. Verificatie- en autorisatiemechanismen scheiden aanvragen voor het gedeelde model tussen tenants. Op individueel niveau gebruikt Copilot gegevens waartoe alleen u toegang hebt, met behulp van dezelfde technologie die we al jaren gebruiken om klantgegevens te beveiligen.

Zijn de responsen van Copilot altijd feitelijk correct?

Zoals bij elke generatieve AI zijn de antwoorden van Copilot niet 100% feitelijk. Hoewel we de responsen op informatieaanvragen op basis van feiten voortdurend verbeteren, blijft uw oordeelsvermogen noodzakelijk om de uitvoer te evalueren voordat u deze naar andere personen doorstuurt. Copilot biedt handige concepten en samenvattingen waarmee u meer kunt doen, maar het werkt volledig automatisch. U bent altijd in de gelegenheid om de door AI gegenereerde inhoud te evalueren.

Onze teams werken eraan om problemen proactief aan te pakken, zoals onjuiste informatie en desinformatie, het blokkeren van inhoud, gegevensbeveiliging en voorkomen dat schadelijke of discriminerende inhoud wordt gepromoot in overeenstemming met onze principes voor verantwoorde AI.

We bieden ook begeleiding in de gebruikerservaring om het verantwoorde gebruik van door AI gegenereerde inhoud en voorgestelde acties te versterken.

  • Beschrijving en prompts. Wanneer u met Copilot werkt, wordt u er met prompts en andere instructies aan herinnerd om responsen indien nodig te beoordelen en te bewerken en om feiten, gegevens en tekst handmatig te controleren op nauwkeurigheid, voordat u de door AI gegenereerde inhoud gebruikt.

  • Geciteerde bronnen. Waar van toepassing citeert Copilot de informatiebronnen, zowel openbaar als intern, die het gebruikt, zodat u deze zelf kunt beoordelen om de responsen van Copilot te bevestigen.

Raadpleeg de veelgestelde vragen over verantwoorde AI voor uw product op Microsoft Learn voor meer informatie.

Hoe blokkeert Copilot schadelijke inhoud?

Azure OpenAI Service omvat een systeem voor het filteren van inhoud dat naast basismodellen werkt. De inhoudfiltermodellen voor de categorieën Haat en Eerlijkheid, Seksueel, Geweld en Zelfbeschadiging zijn specifiek getraind en getest in verschillende talen. Dit systeem werkt door zowel de invoerprompt als de respons uit te voeren via classificatiemodellen die zijn ontworpen om de uitvoer van schadelijke inhoud te identificeren en te blokkeren.

Aan haat en eerlijkheid gerelateerde schadelijkheid heeft betrekking op alle inhoud waarin pejoratieve of discriminerende taal wordt gebruikt op basis van kenmerken als ras, etniciteit, nationaliteit, genderidentiteit en -expressie, seksuele geaardheid, religie, immigratiestatus, lichamelijke en geestelijke capaciteiten, uiterlijk en lichaamsvorm. Bij eerlijkheid gaat het erom ervoor te zorgen dat AI-systemen alle groepen mensen rechtvaardig behandelen, zonder bij te dragen aan bestaande maatschappelijke ongelijkheid. Seksuele inhoud omvat discussies over menselijke voortplantingsorganen, romantische relaties, handelingen die in erotische of aanhankelijke termen worden afgeschilderd, zwangerschap, lichamelijke seksuele handelingen, waaronder handelingen die worden afgeschilderd als een aanval of een gedwongen daad van seksueel geweld, prostitutie, pornografie en misbruik. Geweld beschrijft taal die verband houdt met fysieke handelingen die bedoeld zijn om schade toe te brengen of te doden, waaronder gedragingen, wapens en aanverwante objecten. Taal over zelfbeschadiging verwijst naar opzettelijke handelingen die bedoeld zijn voor zelfverwonding of -doding.

Meer informatie over Azure OpenAI inhoudsfiltering.

Blokkeert Copilot promptinjecties (jailbreak-aanvallen)?

Jailbreak-aanvallen zijn gebruikersprompts die zijn ontworpen om het generatieve AI-model te provoceren om zich op een manier te gedragen waarvoor het is getraind om dit niet te doen of om de regels te overtreden die het model is geleerd volgen. Services in Dynamics 365 en Power Platform zijn vereist om bescherming tegen promptinjecties te bieden. Lees meer over jailbreakaanvallen en hoe u Azure AI Content Safety kunt gebruiken om deze te detecteren.

Blokkeert Copilot indirecte promptinjecties (indirecte aanvallen)?

Indirecte aanvallen, ook wel indirecte promptaanvallen of cross-domein prompt injection-aanvallen genoemd, vormen een potentiële kwetsbaarheid waarbij derden kwaadaardige instructies in documenten plaatsen waartoe het generatieve AI-systeem toegang heeft en deze kan verwerken. Services in Dynamics 365 en Power Platform zijn vereist om bescherming tegen indirecte promptinjecties te bieden. Meer informatie over indirecte aanvallen en hoe u Azure AI Content Safety kunt gebruiken om deze te detecteren.

Hoe wordt de kwaliteit van Copilot getest en gevalideerd, inclusief snelle injectiebescherming en geaarde reacties? Microsoft

Elke nieuwe Copilot-product- en taalmodel-iteratie moet een interne beoordeling van verantwoorde AI doorstaan ​​voordat deze kan worden gelanceerd. Voordat de release wordt uitgebracht, gebruiken we een proces dat 'red teaming' wordt genoemd (waarbij een team een vijandelijke aanval simuleert en zwakke punten vindt en deze uitbuit om de organisatie te helpen haar verdediging te verbeteren) om potentiële risico's in schadelijke inhoud, jailbreakscenario's en onderbouwde responsen te beoordelen. Na de release gebruiken we geautomatiseerde tests en handmatige en geautomatiseerde evaluatietools om de kwaliteit van de Copilot-responsen te beoordelen.

Hoe kan het fundamentele model worden verbeterd en kunnen verbeteringen in gegronde reacties worden gemeten? Microsoft

In de context van AI, vooral AI die zich bezighoudt met taalmodellen zoals die waarop Copilot is gebaseerd, helpt onderbouwing (grounding) de AI responsen te genereren die relevanter en zinvoller zijn in de echte wereld. Onderbouwing helpt ervoor te zorgen dat de responsen van de AI gebaseerd zijn op betrouwbare informatie en zo nauwkeurig en relevant mogelijk zijn. Met behulp van statistieken voor onderbouwde responsen wordt beoordeeld hoe nauwkeurig de feiten die staan in de basisinhoud die aan het model wordt geleverd, zijn weergegeven in de uiteindelijke respons.

Basismodellen zoals GPT-4 worden verbeterd door RAG-technieken (Retrieval Augmented Generation). Met deze technieken kunnen de modellen meer informatie gebruiken dan waarop ze zijn getraind om het scenario van een gebruiker te begrijpen. RAG werkt door eerst gegevens te identificeren die relevant zijn voor het scenario, vergelijkbaar met de manier waarop een zoekmachine webpagina's identificeert die relevant zijn voor de zoektermen van de gebruiker. Er worden meerdere benaderingen gebruikt om te identificeren welke inhoud relevant is voor de gebruikersprompt en moet worden gebruikt om de respons te onderbouwen. Benaderingen omvatten het zoeken in verschillende soorten indexen, zoals omgekeerde indexen met behulp van technieken voor het ophalen van informatie, zoals termmatching of vectorindexen die vectorafstandsvergelijkingen gebruiken voor semantische gelijkenis. Nadat RAG de relevante documenten heeft geïdentificeerd, geeft RAG de gegevens samen met het huidige gesprek door aan het model, waardoor het model meer context krijgt om de informatie die het al heeft beter te begrijpen en een respons te genereren die onderbouwing heeft in de echte wereld. Ten slotte controleert RAG de respons om er zeker van te zijn deze wordt ondersteund door de broninhoud die het aan het model heeft geleverd. De generatieve AI-functies van Copilot integreren RAG op meerdere manieren. Een voorbeeld is chatten met gegevensgebruik, waarbij een chatbot is onderbouwd met de eigen gegevensbronnen van de klant.

Een andere methode om basismodellen te verbeteren wordt wel verfijning (finetuning) genoemd. Een grote gegevensset van vraag-respons-paren wordt getoond aan een basismodel om de oorspronkelijke training te verbeteren met nieuwe voorbeelden die zijn gericht op een specifiek scenario. Het model kan vervolgens worden geïmplementeerd als een afzonderlijk model, een model dat is verfijnd voor dat scenario. Waar onderbouwen gaat over het relevant maken van de kennis van de AI voor de echte wereld, gaat het bij verfijning over het specifieker maken van de kennis van de AI voor een bepaalde taak of bepaald domein. Microsoft maakt op meerdere manieren gebruik van fine-tuning. In Power Automate worden stromen bijvoorbeeld samengesteld op basis van natuurlijke taalbeschrijvingen die door de gebruiker zijn verstrekt.

Voldoet Copilot aan de vereisten voor wettelijke naleving?

Microsoft Copilot is onderdeel van Dynamics 365- en Power Platform-ecosysteem en voldoet aan dezelfde eisen voor naleving van de regelgeving. Ga naar de Microsoft Service Trust Portal voor meer informatie over de wettelijke certificeringen vandiensten. Bovendien valt ook Copilot binnen ons streven naar verantwoorde AI, dat wordt geactiveerd via onze principes voor verantwoorde AI. Naarmate de regelgeving op het gebied van AI evolueert, blijft deze zich aanpassen en reageren op nieuwe vereisten. Microsoft

Lees meer over de beschikbaarheid van Dynamics 365, Power Platform en Copilot, de locaties van klantgegevens en naleving van wereldwijde, regionale en branchespecifieke vereisten voor gegevensbeheer.

Meer informatie

Copilot in Dynamics 365-apps en Power Platform

Product Functie Beheerde omgevingen vereist? Hoe u de functie kunt uitschakelen
AI Builder Scenario's in preview No Scenario's in preview
Copilot Studio Algemene kennis van AI No Copilot Studio Veiligheid en bestuur
Copilot Studio Onderwerpen maken en bewerken met Copilot No Copilot Studio Veiligheid en bestuur
Copilot Studio Generatieve acties No Copilot Studio Veiligheid en bestuur
Copilot Studio Generatieve antwoorden No Copilot Studio Veiligheid en bestuur
Dynamics 365 Business Central Alle (bekijk de volledige lijst op aka.ms/bcAI.) No Functies activeren
Dynamics 365 Customer Insights - Data Segmenten maken met Copilot voor Customer Insights - Data (preview) Nee Customer Insights - Data heeft zijn eigen markering voor alle Copilot-functies van Azure OpenAI.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Data Overzicht van het gegevensvoorbereidingsrapport (preview) Nee Customer Insights - Data heeft zijn eigen markering voor alle Copilot-functies van Azure OpenAI.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Data Krijg antwoorden op vragen over de mogelijkheden van Copilot (preview) Nee Customer Insights - Data heeft zijn eigen markering voor alle Copilot-functies van Azure OpenAI.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Data
Dynamics 365 Customer Insights (Gegevens) Voer een dialoog met data met behulp van Copilot in Customer Insights Nee Customer Insights - Data heeft zijn eigen markering voor alle Copilot-functies van Azure OpenAI.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Data Systeemconfiguratie bekijken Nee Customer Insights - Data heeft zijn eigen markering voor alle Copilot-functies van Azure OpenAI.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot helpt je meer te leren en te doen (recensie) Nee Of deze copilot beschikbaar is in jouw omgeving wordt bepaald door de Power Platform-beheerinstellingen. Leer hoe u Copilot toevoegt voor modelgestuurde apps.


Deze mogelijkheid heet "app copilot in Customer Insights - Journeys" en is daarom ingeschakeld in Power Platform Beheercentrum. Meer informatie: Veelgestelde vragen over verantwoordelijke AI
Dynamics 365 Customer Insights - Journeys Creëer reizen met behulp van AI-assistentie Nee Customer Insights - Journeys heeft zijn eigen markeringen voor Copilot-functies.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Vernieuw en perfectioneer uw boodschap Nee Customer Insights - Journeys heeft zijn eigen markeringen voor Copilot-functies.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys stijl uw e-mails met door AI ondersteunde thema's Nee Customer Insights - Journeys heeft zijn eigen markeringen voor Copilot-functies.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Bereik de juiste klanten met behulp van query-assistentie

Nee Customer Insights - Journeys heeft zijn eigen markeringen voor Copilot-functies.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys gebruik AI om het maken van e-mails een boost te geven Nee Customer Insights - Journeys heeft zijn eigen markeringen voor Copilot-functies.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys gebruik afbeeldingen in uw inhoud Nee Customer Insights - Journeys heeft zijn eigen markeringen voor Copilot-functies.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Journeys
Dynamics 365 Customer Service Een e-mail opstellen No Copilot-functies beheren in klantenservice
Dynamics 365 Customer Service Maak een chat respons No Copilot-functies beheren in klantenservice
Dynamics 365 Customer Service Reageer op vragen No Copilot-functies beheren in klantenservice
Dynamics 365 Customer Service Vat een casus en gesprek samen No Copilot-functies beheren in klantenservice
Power Apps Apps bouwen via conversatie No Functie-instellingen beheren
Power Apps Copilootassistentie bij het invullen van formulieren in modelgestuurde apps Nee Functie-instellingen beheren
Power Apps Maak een goed geschreven concept, voer de tekst in met Copilot Nee, geen premiumgebruikerslicentie Maak een goed geschreven concept, voer de tekst in met Copilot
Power Apps Excel naar tabel Nee Functie-instellingen beheren
Power Apps gebruik natuurlijke taal om een app te bewerken met behulp van het Copilot-paneel Nee Functie-instellingen beheren
Power Automate Copilot in cloudstromen op de startpagina en in de ontwerper (zie Aan de slag met Copilot in cloudstromen voor details.) Nee Neem contact op met ondersteuning om een ​​PowerShell-script uit te voeren.
Power Pages Alle (zie Copilot-overzicht in Power Pages voor meer informatie.) Nee Schakel Copilot uit in Power Pages

Meer informatie vindt u in de FAQ voor optionele gegevensdeling voor Copilot AI-functies in Dynamics 365 en Power Platform.

Regionale beschikbaarheid en beschikbaarheid van talen

Copilot internationale beschikbaarheid

Gegevensverplaatsing tussen regio's

Beveiliging bij Microsoft

Privacy bij Microsoft

Microsoft Privacyverklaring

Verantwoorde AI