Delen via


Veelgestelde vragen over de beveiliging en privacy van Copilot-gegevens voor Dynamics 365 en Power Platform

De functies van Copilot voor Dynamics 365 en Power Platform volgen een reeks kernpraktijken voor beveiliging en privacy, en de principes voor verantwoorde AI van Microsoft. Dynamics 365- en Power Platform-gegevens worden beschermd door uitgebreide, toonaangevende nalevings-, beveiligings- en privacyopties.

Copilot is gebouwd op Microsoft Azure OpenAI Service en wordt volledig in de Azure-cloud uitgevoerd. Azure OpenAI biedt regionale beschikbaarheid en inhoudsfilters voor verantwoorde AI. Copilot gebruikt OpenAI-modellen met alle beveiligingsmogelijkheden van Microsoft Azure. OpenAI is een onafhankelijke organisatie. We delen uw gegevens niet met OpenAI.

Copilot-functies zijn niet beschikbaar in alle geografische regio's en talen van Azure. Afhankelijk van waar uw omgeving wordt gehost, moet u mogelijk gegevensverplaatsing tussen geografische regio's toestaan om deze te gebruiken. Zie de artikelen onder Gegevensverplaatsing tussen regio's voor meer informatie.

Wat gebeurt er met mijn gegevens als ik Copilot gebruik?

U hebt de controle over uw gegevens. Uw gegevens worden door Microsoft niet gedeeld met een derde partij, tenzij u daarvoor toestemming hebt gegeven. Verder gebruiken we uw klantgegevens niet om Copilot of de AI-functies ervan te trainen, tenzij u ons toestemming hebt gegeven om dit te doen. Copilot houdt zich aan bestaande gegevensmachtigingen en -beleid. De reacties van Copilot zijn alleen gebaseerd op gegevens waartoe u persoonlijk toegang hebt. Zie de artikelen onder Copilot in Dynamics 365-apps en Power Platform voor meer informatie over hoe u uw gegevens kunt beheren en hoe uw gegevens worden verwerkt.

Copilot controleert door middel van kortstondige verwerking op misbruik of schadelijk gebruik van de service. We slaan geen Copilot-invoer en -uitvoer op en voeren ook geen controle uit om misbruik te monitoren.

Hoe gebruikt Copilot mijn gegevens?

Elke service of functie maakt gebruik van Copilot op basis van de gegevens die u hebt verstrekt of ingesteld om door Copilot te worden verwerkt.

Uw prompts (invoer) en de antwoorden (uitvoer of resultaten) van Copilot:

Meer informatie over de privacy en beveiliging van gegevens voor Azure OpenAI Service. Lees onze privacyverklaring voor meer informatie over hoe Microsoft uw gegevens in het algemeen beschermt en gebruikt.

Waar gaan mijn gegevens heen?

Microsoft draait op vertrouwen. We hechten bij alles wat we doen veel waarde aan beveiliging, privacy en compliance, en onze benadering van AI is daarin niet anders. Klantgegevens, waaronder Copilot-invoer en -uitvoer, worden opgeslagen binnen de grenzen van de Microsoft Cloud-vertrouwensrelatie.

In sommige scenario's, zoals functies van Bing en copilot-invoegtoepassingen van derden, worden klantgegevens mogelijk verzonden buiten de grenzen van de Microsoft Cloud-vertrouwensrelatie.

Heeft Copilot toegang tot versleutelde inhoud?

Gegevens worden aan Copilot verstrekt op basis van het toegangsniveau van de huidige gebruiker. Als een gebruiker toegang heeft tot versleutelde gegevens in Dynamics 365 en Power Platform, en de gebruiker deze toegang aan Copilot verstrekt, heeft Copilot er toegang toe.

Hoe beschermt Copilot klantgegevens?

Microsoft bevindt zich in een unieke positie om bedrijfsklare AI te leveren. Copilot wordt mogelijk gemaakt door Azure OpenAI Service en voldoet aan onze bestaande verplichtingen op het gebied van privacy, beveiliging en regelgeving aan onze klanten.

  • Het is gebaseerd op de uitgebreide benadering van beveiliging, privacy en naleving van Microsoft. Copilot is geïntegreerd in Microsoft-services zoals Dynamics 365 en Power Platform, en neemt de beleidsregels en -processen op het gebied van beveiliging, privacy en conformiteit van deze producten over, bijvoorbeeld ten aanzien van meervoudige verificatie en conformiteitsgrenzen.

  • Meerdere vormen van bescherming om organisatiegegevens te beschermen. Service-side technologieën worden gebruikt om organisatie-inhoud zowel in rust als onderweg te versleutelen voor een robuuste beveiliging. Verbindingen worden beveiligd met Transport Layer Security (TLS) en gegevensoverdrachten tussen Dynamics 365, Power Platform en Azure OpenAI vinden plaats via het Microsoft-backbonenetwerk om zowel de betrouwbaarheid als de veiligheid te waarborgen. Meer informatie over versleuteling in Microsoft Cloud.

  • Ontworpen om uw gegevens te beveiligen op het tenant- en omgevingsniveau. We weten dat klanten zich zorgen maken om gegevenslekken. Microsoft ERP-modellen worden niet getraind in en leren niet van uw tenantgegevens of uw prompts, tenzij uw tenantbeheerder ervoor heeft gekozen om gegevens met ons te delen. In uw omgevingen kunt u de toegang beheren via machtigingen die u instelt. Verificatie- en autorisatiemechanismen scheiden aanvragen voor het gedeelde model tussen tenants. Copilot gebruikt gegevens waartoe alleen u toegang hebt, met behulp van dezelfde technologie die we al jaren gebruiken om klantgegevens te beveiligen.

Zijn de antwoorden van Copilot altijd feitelijk correct?

Net als bij alle generatieve AI zijn Copilot-antwoorden niet altijd 100% correct. Hoewel we de antwoorden op vragen die op feiten zijn gebaseerd blijven verbeteren, moet u nog steeds uw gezonde verstand gebruiken en de uitvoer controleren voordat u deze naar anderen verzendt. Copilot biedt nuttige concepten en samenvattingen waarmee u meer kunt doen, maar het is volledig automatisch. U hebt altijd de mogelijkheid om de door AI gegenereerde inhoud te controleren.

Onze teams blijven werken om problemen proactief op te lossen, zoals onjuiste en misleidende informatie, inhoudsblokkering, gegevensveiligheid en het voorkomen van de verspreiding van schadelijke of discriminerende inhoud in overeenstemming met onze principes voor verantwoorde AI.

Daarnaast bieden we richtlijnen binnen de gebruikerservaring om het verantwoorde gebruik van door AI gegenereerde inhoud en voorgestelde acties te versterken.

  • Instructies en prompts. Wanneer u Copilot gebruikt, herinneren prompts en andere instructie-elementen u om antwoorden zo nodig te controleren en te bewerken en om handmatig feiten, gegevens en tekst op nauwkeurigheid te controleren voordat u de door AI gegenereerde inhoud gebruikt.

  • Geciteerde bronnen. Waar van toepassing worden informatiebronnen, openbaar of intern, vermeldt in Copilot, zodat u deze zelf kunt bekijken om de antwoorden te bevestigen.

Raadpleeg de veelgestelde vragen over verantwoorde AI voor uw product op Microsoft Learn voor meer informatie.

Hoe blokkeert Copilot schadelijke inhoud?

Azure OpenAI Service omvat een systeem voor het filteren van inhoud dat naast basismodellen werkt. De modellen voor het filteren van inhoud voor de categorieën Haat en eerlijkheid, Seksueel, Geweld en Zelfbeschadiging zijn specifiek getraind en getest in verschillende talen. Bij dit systeem wordt zowel de invoerprompt als het antwoord door classificatiemodellen gehaald die zijn ontworpen om de uitvoer van schadelijke inhoud te identificeren en te blokkeren.

Aan haat en eerlijkheid gerelateerde schade verwijst naar elke inhoud waarin denigrerende of discriminerende taal wordt gebruikt op basis van kenmerken zoals ras, etniciteit, nationaliteit, genderidentiteit en -expressie, seksuele geaardheid, religie, immigratiestatus, status van bekwaamheid, persoonlijk uiterlijk en lichaamsgrootte. Bij eerlijkheid gaat het erom ervoor te zorgen dat AI-systemen alle groepen mensen gelijk behandelen zonder bij te dragen aan bestaande maatschappelijke ongelijkheden. Seksuele inhoud omvat discussies over menselijke voortplantingsorganen, romantische relaties, handelingen die in erotische of liefdevolle bewoordingen worden uitgedrukt, zwangerschap, fysieke seksuele handelingen, inclusief handelingen die worden afgebeeld als een aanval of een gedwongen daad van seksueel geweld, prostitutie, pornografie en misbruik. Geweld beschrijft taal gerelateerd aan fysieke acties die bedoeld zijn om schade aan te richten of te doden, inclusief acties, wapens en gerelateerde entiteiten. Taal over zelfbeschadiging verwijst naar opzettelijke handelingen die bedoeld zijn voor zelfverwonding of -doding.

Meer informatie over Azure OpenAI-inhoudsfilters.

Blokkeert Copilot promptinjecties (jailbreak-aanvallen)?

Jailbreak-aanvallen zijn gebruikersprompts die zijn ontworpen om het generatieve AI-model aan te zetten tot gedrag dat juist moet worden vermeden of om de regels te overtreden die juist moeten worden gevolgd. Services in Dynamics 365 en Power Platform zijn vereist om bescherming tegen promptinjecties te bieden. Meer informatie over jailbreak-aanvallen en het gebruik van Azure AI Content Veiligheid om deze te detecteren.

Blokkeert Copilot indirecte promptinjecties (indirecte aanvallen)?

Indirecte aanvallen, ook wel indirecte promptaanvallen of domeinoverschrijdende promptinjecties genoemd, vormen een potentiële kwetsbaarheid waarbij derden schadelijke instructies plaatsen in documenten die toegankelijk zijn voor het generatieve AI-systeem en hierdoor kunnen worden verwerkt. Services in Dynamics 365 en Power Platform moeten bescherming bieden tegen indirecte promptinjecties. Meer informatie over indirecte aanvallen en het gebruik van Azure AI Content Veiligheid om deze te detecteren.

Hoe test en valideert Microsoft de kwaliteit van Copilot, inclusief beveiliging tegen promptinjecties en onderbouwde antwoorden?

Alle nieuwe producten en taalmodellen van Copilot worden intern gecontroleerd op verantwoorde AI voordat ze kunnen worden gebruikt. Vóór de release maken we gebruik van een proces genaamd 'red teaming' (waarbij een team een vijandelijke aanval simuleert en zwakke plekken vindt en uitbuit om de organisatie te helpen de verdediging te verbeteren) om potentiële risico's in schadelijke inhoud, jailbreak-scenario's en onderbouwde reacties te beoordelen. Na de release gebruiken we geautomatiseerde tests en handmatige en geautomatiseerde evaluatieprogramma's om de kwaliteit van antwoorden van Copilot te beoordelen.

Hoe verbetert Microsoft het basismodel en worden verbeteringen in onderbouwde antwoorden gemeten?

In de context van AI, vooral AI die te maken heeft met taalmodellen zoals die waarop Copilot is gebaseerd, helpt onderbouwing de AI om antwoorden te genereren die relevanter zijn en steek houden in de echte wereld. Door middel van onderbouwing wordt ervoor gezorgd dat de antwoorden van AI op betrouwbare informatie gebaseerd zijn en zo nauwkeurig en relevant mogelijk zijn. Met statistieken voor de onderbouwing van reacties wordt beoordeeld hoe nauwkeurig de feiten in de onderbouwing die aan het model wordt gegeven in het uiteindelijke antwoord terechtkomen.

Basismodellen zoals GPT-4 worden verbeterd door middel van RAG-technieken (Retrieval Augmented Generation). Dankzij deze technieken kunnen de modellen meer informatie gebruiken dan waarmee ze zijn getraind om het scenario van een gebruiker te begrijpen. RAG werkt door eerst gegevens te identificeren die relevant zijn voor het scenario, vergelijkbaar met de manier waarop een zoekmachine webpagina's identificeert die relevant zijn voor de zoektermen van de gebruiker. Er worden meerdere benaderingen gebruikt om te bepalen welke inhoud relevant is voor de gebruikersvraag en moet worden gebruikt om het antwoord te onderbouwen. Hierbij kan worden gezocht op basis van verschillende soorten indexen, zoals omgekeerde indexen die gebruikmaken van technieken voor het verzamelen van informatie, zoals de vergelijking van termen, of vectorindexen die gebruikmaken van vergelijkingen van vectorafstanden voor semantische overeenkomsten. Nadat de relevante documenten zijn geïdentificeerd, geeft RAG de gegevens samen met het huidige gesprek door aan het model, waardoor het model meer context krijgt om de informatie die het al heeft beter te begrijpen en een antwoord te genereren dat zijn grondslag heeft in de echte wereld. Tot slot controleert RAG het antwoord om er zeker van te zijn dat het wordt ondersteund door de broninhoud die het aan het model heeft geleverd. In de generatieve AI-functies van Copilot is RAG op meerdere manieren geïntegreerd. Een voorbeeld is chatten met gebruik van gegevens, waarbij de eigen gegevensbronnen van de klant worden gebruikt als onderbouwing voor een chatbot.

Een andere methode voor het verbeteren van basismodellen wordt ook wel fine-tuning, of afstemmen, genoemd. Een grote gegevensset met vraag-antwoordparen wordt getoond aan een basismodel om de oorspronkelijke training te verbeteren met nieuwe samples die gericht zijn op een specifiek scenario. Het model kan vervolgens worden geïmplementeerd als afzonderlijk model, een model dat is afgestemd op dat scenario. Waar het bij onderbouwing gaat om het relevant maken van de kennis van AI voor de echte wereld, gaat het bij fine-tuning om het specifieker afstemmen van de kennis van AI voor een bepaalde taak of een bepaald domein. Microsoft maakt op verschillende manieren gebruik van fine-tuning. In Power Automate worden stromen bijvoorbeeld samengesteld op basis van natuurlijke taalbeschrijvingen die door de gebruiker zijn verstrekt.

Voldoet Copilot aan de vereisten voor wettelijke naleving?

Microsoft Copilot is onderdeel van het Dynamics 365- en Power Platform-ecosysteem en voldoet aan dezelfde vereisten voor wettelijke naleving. Ga naar Service Trust Portal voor meer informatie over de wettelijke certificeringen van Microsoft-services. Daarnaast houdt Copilot zich aan onze toezegging om op verantwoorde wijze gebruik te maken van AI, die wordt beschreven in onze principes voor verantwoorde AI. Naarmate de regelgeving op AI-gebied verandert, blijft Microsoft zich aanpassen en reageren op nieuwe vereisten.

Meer informatie over de beschikbaarheid van Dynamics 365, Power Platform en Copilot, de locaties van klantgegevens en de naleving van mondiale, regionale en branchespecifieke vereisten voor het beheren van gegevens.

Meer informatie

Copilot in Dynamics 365-apps en Power Platform

Product Functie Beheerde omgevingen vereist? De functie uitschakelen
AI Builder Scenario's in preview Nee Scenario's in preview
Copilot Studio Algemene AI-kennis Nee Copilot Studio-beveiliging en -governance
Copilot Studio Onderwerpen maken en bewerken met Copilot Nee Copilot Studio-beveiliging en -governance
Copilot Studio Generatieve acties Nee Copilot Studio-beveiliging en -governance
Copilot Studio Generatieve antwoorden Nee Copilot Studio-beveiliging en -governance
Dynamics 365 Business Central Alle (Bekijk de volledige lijst op aka.ms/bcAI.) Nee Functies activeren
Dynamics 365 Customer Insights - Data Segmenten maken met Copilot in Customer Insights - Data (preview) Nee In Customer Insights - Data bestaat een eigen markering voor alle Copilot-functies van Azure OpenAI.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Data Overzicht van het gegevensvoorbereidingsrapport (preview) Nee In Customer Insights - Data bestaat een eigen markering voor alle Copilot-functies van Azure OpenAI.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Data Antwoorden op veelgestelde vragen over mogelijkheden van Copilot (preview) Nee In Customer Insights - Data bestaat een eigen markering voor alle Copilot-functies van Azure OpenAI.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Data
Dynamics 365 Customer Insights (gegevens) De dialoog aangaan met gegevens met behulp van Copilot in Customer Insights Nee In Customer Insights - Data bestaat een eigen markering voor alle Copilot-functies van Azure OpenAI.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Data Systeemconfiguratie weergeven Nee In Customer Insights - Data bestaat een eigen markering voor alle Copilot-functies van Azure OpenAI.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot gebruiken om te leren en meer te doen (preview) Nee Of deze copilot beschikbaar is in uw omgeving, is afhankelijk van de Power Platform-beheerdersinstellingen. Leren hoe u Copilot voor modelgestuurde apps toevoegt.


Deze mogelijkheid is een copilot voor apps in Customer Insights - Journeys en is daarom ook ingeschakeld in het Power Platform-beheercentrum. Meer informatie: Veelgestelde vragen over verantwoorde AI
Dynamics 365 Customer Insights - Journeys Reizen maken met AI-ondersteuning Nee In Customer Insights - Journeys bestaan eigen markeringen voor Copilot-functies.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Uw bericht vernieuwen en perfectioneren Nee In Customer Insights - Journeys bestaan eigen markeringen voor Copilot-functies.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys De stijl van uw e-mails bepalen met AI-ondersteunde thema's Nee In Customer Insights - Journeys bestaan eigen markeringen voor Copilot-functies.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys De juiste klanten bereiken met behulp van de queryassistent

Nee In Customer Insights - Journeys bestaan eigen markeringen voor Copilot-functies.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys AI gebruiken om te starten met het maken van e-mails Nee In Customer Insights - Journeys bestaan eigen markeringen voor Copilot-functies.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Afbeeldingen in uw inhoud gebruiken Nee In Customer Insights - Journeys bestaan eigen markeringen voor Copilot-functies.

Meer informatie: Toestemming geven voor gebruik van Copilot in Customer Insights - Journeys
Dynamics 365 Customer Service Een e-mail opstellen Nee Copilot-functies beheren in Customer Service
Dynamics 365 Customer Service Een concept-chatrespons opstellen Nee Copilot-functies beheren in Customer Service
Dynamics 365 Customer Service Antwoorden op vragen Nee Copilot-functies beheren in Customer Service
Dynamics 365 Customer Service Overzichten maken van aanvragen en gesprekken Nee Copilot-functies beheren in Customer Service
Power Apps Apps bouwen door middel van gesprekken Nee Functie-instellingen beheren
Power Apps Copilot-ondersteuning voor het invullen van formulieren in modelgestuurde apps Nee Functie-instellingen beheren
Power Apps Goed geschreven invoertekst opstellen met Copilot Nee, Premium-gebruikerslicentie Goed geschreven invoertekst opstellen met Copilot
Power Apps Excel naar tabel Nee Functie-instellingen beheren
Power Apps Natuurlijke taal gebruiken om een app te bewerken via het Copilot-paneel Nee Functie-instellingen beheren
Power Automate Copilot in cloudstromen op de startpagina en in de ontwerper (zie Aan de slag met Copilot in cloudstromen voor meer informatie.) Nee Neem contact op met ondersteuning om een ​​PowerShell-script uit te voeren.
Power Pages Alle (zie Copilot-overzicht in Power Pages voor meer informatie.) Nee Copilot uitschakelen in Power Pages

Meer informatie vindt u in Veelgestelde vragen over het optioneel delen van gegevens voor AI-functies voor Copilot in Dynamics 365 en Power Platform.

Regionale beschikbaarheid en beschikbaarheid van talen

Internationale beschikbaarheid van Copilot

Gegevensverplaatsing tussen regio's

Beveiliging bij Microsoft

Privacy bij Microsoft

Privacyverklaring van Microsoft

Verantwoorde AI