Gegevens, privacy en beveiliging voor Microsoft Copilot voor Microsoft 365

Microsoft Copilot voor Microsoft 365 is een geavanceerde engine voor verwerking en indeling die productiviteitsmogelijkheden biedt op basis van AI door de volgende onderdelen te coördineren:

  • Grote taalmodellen (LLM's)
  • Inhoud in Microsoft Graph, zoals e-mailberichten, chats en documenten waartoe u toegang hebt.
  • De Microsoft 365 apps die u dagelijks gebruikt, zoals Word en PowerPoint.

Zie Microsoft Copilot voor Microsoft 365 overzicht voor een overzicht van hoe deze drie onderdelen samenwerken. Zie Microsoft Copilot voor Microsoft 365 documentatie voor koppelingen naar andere inhoud met betrekking tot Microsoft Copilot voor Microsoft 365.

Belangrijk

  • Microsoft Copilot voor Microsoft 365 voldoet aan onze bestaande privacy-, beveiligings- en nalevingsverplichtingen voor Microsoft 365 commerciële klanten, waaronder de Algemene verordening gegevensbescherming (AVG) en de gegevensgrens van de Europese Unie (EU).
  • Prompts, antwoorden en gegevens die via Microsoft Graph worden geopend, worden niet gebruikt voor het trainen van basis-LLM's, inclusief degene die worden gebruikt door Microsoft Copilot voor Microsoft 365.

De informatie in dit artikel is bedoeld om antwoorden te geven op de volgende vragen:

Opmerking

Microsoft Copilot voor Microsoft 365 blijft zich in de loop van de tijd ontwikkelen met nieuwe mogelijkheden. Als u op de hoogte wilt blijven van Microsoft Copilot voor Microsoft 365 of vragen wilt stellen, gaat u naar de Microsoft 365 Copilot-community in de Microsoft Tech Community.

Hoe gebruikt Microsoft Copilot voor Microsoft 365 je eigen organisatiegegevens?

Microsoft Copilot voor Microsoft 365 biedt waarde door LLM's te verbinden met je organisatiegegevens. Microsoft Copilot voor Microsoft 365 heeft toegang tot inhoud en context via Microsoft Graph. Het kan antwoorden genereren die zijn verankerd in uw organisatiegegevens, zoals gebruikersdocumenten, e-mailberichten, agenda, chats, vergaderingen en contactpersonen. Microsoft Copilot voor Microsoft 365 combineert deze inhoud met de werkcontext van de gebruiker, zoals de vergadering waarin een gebruiker zich nu bevindt, het e-mailbericht dat de gebruiker heeft gehad over een onderwerp of de chatgesprekken die de gebruiker de afgelopen week heeft gehad. Microsoft Copilot voor Microsoft 365 gebruikt deze combinatie van inhoud en context om nauwkeurige, relevante en contextuele antwoorden te bieden.

Belangrijk

Prompts, antwoorden en gegevens die via Microsoft Graph worden geopend, worden niet gebruikt voor het trainen van basis-LLM's, inclusief degene die worden gebruikt door Microsoft Copilot voor Microsoft 365.

Microsoft Copilot voor Microsoft 365 bevat alleen organisatiegegevens waarvoor afzonderlijke gebruikers ten minste weergavemachtigingen hebben. Het is belangrijk dat u de machtigingsmodellen gebruikt die beschikbaar zijn in Microsoft 365 services, zoals SharePoint, om ervoor te zorgen dat de juiste gebruikers of groepen de juiste toegang hebben tot de juiste inhoud binnen uw organisatie. Dit omvat machtigingen die je aan gebruikers buiten je organisatie geeft via samenwerkingsoplossingen tussen tenants, zoals gedeelde kanalen in Microsoft Teams.

Wanneer je prompts invoert met Microsoft Copilot voor Microsoft 365, blijven de informatie in je prompts, de gegevens die ze ophalen en de gegenereerde antwoorden binnen de Microsoft 365 servicegrens, in overeenstemming met onze huidige privacy-, beveiligings- en nalevingsverplichtingen. Microsoft Copilot voor Microsoft 365 gebruikt Azure OpenAI-services voor verwerking, niet de openbaar beschikbare services van OpenAI’.

Opmerking

Wanneer je Microsoft Copilot gebruikt voor Microsoft 365, kunnen de gegevens van uw organisatie de Microsoft 365 servicegrens verlaten onder de volgende omstandigheden:

Bewaking van misbruik voor Microsoft Copilot voor Microsoft 365 vindt in realtime plaats, zonder Microsoft permanente toegang te bieden tot klantgegevens, voor menselijke of geautomatiseerde beoordeling. Hoewel misbruikbeheer, waaronder menselijke beoordeling van inhoud, beschikbaar is in Azure OpenAI, hebben Microsoft Copilot voor Microsoft 365 services zich hiervoor afgemeld. Microsoft 365-gegevens worden niet verzameld of opgeslagen door Azure OpenAI.

Opmerking

We kunnen feedback van klanten gebruiken, wat optioneel is, om Microsoft Copilot voor Microsoft 365 te verbeteren, net zoals we feedback van klanten gebruiken om andere Microsoft 365-services en Microsoft 365-apps te verbeteren. We gebruiken deze feedback niet om de basis-LLM's te trainen die worden gebruikt door Microsoft Copilot voor Microsoft 365. Klanten kunnen feedback beheren via beheeropties. Zie Microsoft-feedback voor je organisatie beheren en Feedback geven over Microsoft Copilot voor Microsoft 365 voor meer informatie.

Gegevens die zijn opgeslagen over gebruikersinteracties met Microsoft Copilot voor Microsoft 365

Wanneer een gebruiker communiceert met Microsoft Copilot voor Microsoft 365-apps (zoals Word, PowerPoint, Excel, OneNote, Loop of Whiteboard), slaan we gegevens over deze interacties op. De opgeslagen gegevens omvatten de prompt van de gebruiker en het antwoord van Copilot, inclusief bronvermeldingen voor informatie die wordt gebruikt om de reactie van Copilot te beoordelen. We verwijzen naar de prompt van de gebruiker en de reactie van Copilot op die prompt als de 'inhoud van interacties' en de record van die interacties is de Copilot-interactiegeschiedenis van de gebruiker. Deze opgeslagen gegevens bieden gebruikers bijvoorbeeld copilot-interactiegeschiedenis in Microsoft Copilot met Graph-gebaseerde chat en vergaderingen in Microsoft Teams. Deze gegevens worden verwerkt en opgeslagen in overeenstemming met contractuele verplichtingen met de andere inhoud van je organisatie in Microsoft 365. De gegevens worden versleuteld terwijl ze worden opgeslagen en worden niet gebruikt voor het trainen van basis-LLM's, inclusief de machines die worden gebruikt door Microsoft Copilot voor Microsoft 365.

Beheerders kunnen inhoud zoeken of Microsoft Purview gebruiken om deze opgeslagen gegevens weer te geven en te beheren. Beheerders kunnen ook Microsoft Purview gebruiken om bewaarbeleid in te stellen voor de gegevens met betrekking tot chatinteracties met Copilot. Zie de volgende artikelen voor meer informatie:

Voor Microsoft Teams-chats met Copilot kunnen beheerders ook Export-API's van Microsoft Teams gebruiken om de opgeslagen gegevens te bekijken.

De geschiedenis van gebruikersinteracties met Microsoft Copilot voor Microsoft 365 verwijderen

Je gebruikers kunnen hun Copilot-interactiegeschiedenis, waaronder hun prompts en de antwoorden die Copilot retourneert, verwijderen door naar de portal Mijn account te gaan. Zie Je Microsoft Copilot-interactiegeschiedenis verwijderen voor meer informatie.

Microsoft Copilot voor Microsoft 365 en de EU-gegevensgrens

Microsoft Copilot voor Microsoft 365-aanroepen naar de LLM worden doorgestuurd naar de dichtstbijzijnde datacenters in de regio, maar kunnen ook worden aangeroepen naar andere regio's waar capaciteit beschikbaar is tijdens perioden met hoog gebruik.

Voor gebruikers van de Europese Unie (EU) hebben we aanvullende veiligheidsmaatregelen om te voldoen aan de EU-gegevensgrens. EU-verkeer blijft binnen de EU-gegevensgrens terwijl wereldwijd verkeer kan worden verzonden naar de EU en andere landen of regio's voor LLM-verwerking.

Microsoft Copilot voor Microsoft 365 en de EU-gegevensgrensMicrosoft

Copilot voor Microsoft 365 houdt zich aan de toezeggingen voor gegevenslocatie, zoals beschreven in het addendum Microsoft-productvoorwaarden en -gegevensbescherming. Copilot voor Microsoft 365 is op 1 maart 2024 toegevoegd als een gedekte workload in de toezeggingen voor gegevenslocatie in de Microsoft-productvoorwaarden.

Aanbiedingen van Microsoft Advanced Data Residency (ADR) en Multi-Geo Capabilities omvatten gegevenslocatieverplichtingen voor Copilot voor Microsoft 365 klanten vanaf 1 maart 2024. Voor EU-klanten is Copilot voor Microsoft 365 een EU Data Boundary-service. Klanten buiten de EU kunnen hun query's laten verwerken in de VS, de EU of andere regio's.

Microsoft Copilot voor Microsoft 365 en de invoegtoepassing voor webinhoud

Copilot voor Microsoft 365 heeft de mogelijkheid om chatantwoorden te verbeteren met de nieuwste informatie van het web. Wanneer de invoegtoepassing voor webinhoud is ingeschakeld, kan Copilot informatie ophalen uit de Bing-zoekindex wanneer Copilot bepaalt dat informatie van het web een betere, meer gegronde reactie biedt.

Beheer besturingselementen en wisselknop op gebruikersniveau zijn beschikbaar om te beheren of de invoegtoepassing voor webinhoud is ingeschakeld in je omgeving.

Hoe de invoegtoepassing voor webinhoud werkt

Wanneer de invoegtoepassing voor webinhoud is ingeschakeld in chat, parseert Copilot voor Microsoft 365 de prompt van de gebruiker en identificeert termen waar webaarding de kwaliteit van het antwoord kan verbeteren. Op basis van deze termen genereert Copilot een zoekquery die wordt verzonden naar de Zoeken in Bing-API om meer informatie te vragen. Deze zoekquery verschilt van de prompt van de gebruiker. Deze bestaat meestal uit een paar woorden die worden geïnformeerd door de prompt en/of Microsoft 365-gegevens van de gebruiker. Het bevat niet automatisch alle Microsoft 365-documenten die aan de prompt zijn gekoppeld.

De volgende tabel bevat een voorbeeld van de prompt van een gebruiker, de verzonden zoekquery's en het antwoord van Copilot.

Entiteit Tekst
Prompt (zoals geschreven door de gebruiker) We overwegen een mogelijke overname van Fabrikam. Help me bij het samenstellen van een overzichtsrapport van 200 woorden met openbaar beschikbare financiële informatie over het bedrijf, inclusief hun bedrijfsstrategie.
Zoekquery's (gegenereerd door Copilot en verzonden naar de Bing-zoek-API) Fabrikam-strategie
Financiële gegevens van Fabrikam
Antwoord (gegenereerd door Copilot) Fabrikam is een CPG-startup die gezonde alternatieven voor voedsel biedt, maar met dezelfde vertrouwde smaak als traditionele merken. Het bedrijf heeft in 2019 $ 4,5 miljoen aan seed-financiering verzameld en $ 31,5 miljoen opgehaald in een serie B-financieringsronde in 2022. Vanaf januari 2023 heeft Fabrikam in totaal $ 83,4 miljoen aan financiering opgehaald en staat op het doel om dit jaar meer dan het dubbele te verkopen.

Toen de pandemie toesloeg, stond Fabrikam voor de uitdaging om van fysieke winkels naar online verkoop te gaan, en daar kwam hun influencer marketingstrategie om de hoek kijken. In plaats van te vertrouwen op evenementen en promoties in de winkel, richtte Fabrikam zich op sociale media en partnerschappen met influencers om naamsbekendheid op te bouwen en een breder publiek te bereiken. Het bedrijf benaderde innovatie ook vanuit een echte hoek, waarbij traditionele verbruiksfactoren in evenwicht waren met beter-voor-je-aanbiedingen en een holistische, robuuste distributiestrategie.

Samengevat heeft Fabrikam meer dan $ 55 miljoen aan financiering opgehaald en heeft het een sterke influencer marketingstrategie die hen heeft geholpen om tijdens de pandemie over te schakelen op online verkoop.

In dit voorbeeld worden alleen de twee zoekopdrachten naar de Bing Search API gestuurd. Nadat de gebruiker de prompt heeft ingevoerd, worden in de chatervaring alle query's weergegeven die worden gegenereerd en naar Bing worden verzonden. De prompts van de gebruiker en de antwoorden van Copilot worden opgeslagen in Microsoft 365. Zoekquery's die door Copilot voor Microsoft 365 naar de Zoeken in Bing-API worden verzonden, worden losgekoppeld van de gebruikers-id en tenant-id.

De Bing Search API wordt geleverd door Bing.com, dat los van Microsoft 365 opereert en andere praktijken voor gegevensverwerking hanteert. Het gebruik van Bing valt onder de Microsoft-servicesovereenkomst tussen elke gebruiker en Microsoft, samen met de Privacyverklaring van Microsoft. De Microsoft Products and Services Data Protection Addendum (DPA) is niet van toepassing op het gebruik van de invoegtoepassing voor webinhoud of de Zoeken in Bing-API.

Beschikbare besturingselementen voor het beheren van het gebruik van webinhoud

Beheerders kunnen de toegang tot webinhoud blokkeren in Copilot voor Microsoft 365. Zie Toegang tot webinhoud beheren in Microsoft Copilot voor Microsoft 365 antwoorden voor meer informatie. Zelfs als dit is toegestaan door de beheerder, hebben gebruikers nog steeds de optie of ze de webinvoegtoepassing willen gebruiken. Zie Aanvullende gegevensbronnen gebruiken met Microsoft 365 Copilot voor meer informatie.

Opmerking

De beleidsinstellingen die het gebruik van optionele verbonden ervaringen in Microsoft 365-apps bepalen, zijn niet van toepassing op Microsoft Copilot voor Microsoft 365 en webinhoud.

Uitbreidbaarheid van Microsoft Copilot voor Microsoft 365

Hoewel Microsoft Copilot voor Microsoft 365 de apps en gegevens al kan gebruiken binnen het Microsoft 365 ecosysteem, zijn veel gebruikers nog steeds afhankelijk van verschillende externe hulpprogramma's en services voor werkbeheer en samenwerking. Microsoft Copilot voor Microsoft 365 ervaringen kunnen verwijzen naar hulpprogramma's en services van derden wanneer ze reageren op een verzoek van een gebruiker met behulp van Microsoft Graph-connectors of -invoegtoepassingen. Gegevens van Graph-connectors kunnen worden geretourneerd in Microsoft Copilot voor Microsoft 365 antwoorden als de gebruiker gemachtigd is om toegang te krijgen tot die informatie.

Wanneer invoegtoepassingen zijn ingeschakeld, bepaalt Microsoft Copilot voor Microsoft 365 of deze een specifieke invoegtoepassing moet gebruiken om de gebruiker te helpen een relevant antwoord te geven. Als er een invoegtoepassing nodig is, genereert Microsoft Copilot voor Microsoft 365 een zoekquery die namens de gebruiker naar de invoegtoepassing moet worden verzonden. De query is gebaseerd op de prompt van de gebruiker, de Copilot-interactiegeschiedenis en de gegevens waar de gebruiker toegang toe heeft in Microsoft 365.

In het Geïntegreerde apps gedeelte van de Microsoft 365-beheercentrum kunnen beheerders de machtigingen en gegevenstoegang bekijken die vereist zijn voor een invoegtoepassing, evenals de gebruiksvoorwaarden en privacyverklaring van de invoegtoepassing. Beheerders hebben volledige controle om te selecteren welke invoegtoepassingen in hun organisatie zijn toegestaan. Een gebruiker heeft alleen toegang tot de invoegtoepassingen die de beheerder toestaat en die de gebruiker heeft geïnstalleerd of toegewezen. Microsoft Copilot voor Microsoft 365 gebruikt alleen invoegtoepassingen die door de gebruiker zijn ingeschakeld.

Opmerking

De beleidsinstellingen die het gebruik van optionele verbonden ervaringen in Microsoft 365-apps bepalen, zijn niet van toepassing op invoegtoepassingen.

Zie de volgende artikelen voor meer informatie:

Hoe beveiligt Microsoft 365 Copilot gevoelige organisatiegegevens?

Het machtigingsmodel binnen uw Microsoft 365 tenant kan ervoor zorgen dat gegevens niet onbedoeld lekken tussen gebruikers, groepen en tenants. Microsoft Copilot voor Microsoft 365 geeft alleen gegevens weer waartoe elke persoon toegang heeft met behulp van dezelfde onderliggende besturingselementen voor gegevenstoegang die in andere Microsoft 365-services worden gebruikt. Semantic Index respecteert de toegangsgrens op basis van gebruikersidentiteit, zodat het basisproces alleen toegang heeft tot inhoud waartoe de huidige gebruiker toegang heeft. Zie het privacybeleid en de servicedocumentatie van Microsoft voor meer informatie.

Wanneer je gegevens hebt die zijn versleuteld door Microsoft Purview Informatiebeveiliging, respecteert Microsoft Copilot voor Microsoft 365 de gebruiksrechten die aan de gebruiker zijn verleend. Deze versleuteling kan worden toegepast door vertrouwelijkheidslabels of door beperkte machtigingen in Microsoft 365 apps met behulp van Information Rights Management (IRM). Zie Microsoft Purview-gegevensbeveiliging en nalevingsbeveiliging voor Microsoft Copilot voor meer informatie over het gebruik van Microsoft Purview met Microsoft Copilot voor Microsoft 365.

We implementeren al meerdere vormen van beveiliging om te voorkomen dat klanten Microsoft 365 services en toepassingen in gevaar brengen of onbevoegde toegang krijgen tot andere tenants of het Microsoft 365 systeem zelf. Hier zijn enkele voorbeelden van deze vormen van beveiliging:

  • Logische isolatie van klantinhoud binnen elke tenant voor Microsoft 365 services wordt bereikt via microsoft Entra-autorisatie en op rollen gebaseerd toegangsbeheer. Zie Microsoft 365 isolatiebesturingselementenvoor meer informatie.

  • Microsoft maakt gebruik van strenge fysieke beveiliging, achtergrondcontrole en een meerlaagse versleutelingsstrategie om de vertrouwelijkheid en integriteit van klantinhoud te beschermen.

  • Microsoft 365 maakt gebruik van technologieën aan de servicezijde waarmee inhoud van klanten at-rest en in transit wordt versleuteld, waaronder BitLocker, versleuteling per bestand, Transport Layer Security (TLS) en Internet Protocol Security (IPsec). Zie Versleuteling in de Microsoft Cloud voor specifieke informatie over versleuteling in Microsoft 365.

  • Uw controle over uw gegevens wordt versterkt door de toezegging van Microsoft om te voldoen aan breed toepasselijke privacywetten, zoals de AVG en privacystandaarden, zoals ISO/IEC 27018, de eerste internationale gedragscode ter wereld’voor cloudprivacy.

  • Voor inhoud die wordt geopend via Microsoft Copilot voor Microsoft 365-invoegtoepassingen, kan versleuteling programmatische toegang uitsluiten, waardoor de invoegtoepassing geen toegang krijgt tot de inhoud. Zie Gebruiksrechten configureren voor Azure Information Protectionvoor meer informatie.

Voldoen aan wettelijke nalevingsvereisten

Naarmate de regelgeving in de AI-ruimte zich verder ontwikkelt, blijft Microsoft zich aanpassen en reageren om te voldoen aan toekomstige wettelijke vereisten.

Microsoft Copilot voor Microsoft 365 is gebaseerd op de huidige verplichtingen van Microsoft’op het gebied van gegevensbeveiliging en privacy in de onderneming. Er is geen wijziging in deze toezeggingen. Microsoft Copilot voor Microsoft 365 is geïntegreerd in Microsoft 365 en voldoet aan alle bestaande privacy-, beveiligings- en nalevingsverplichtingen voor Microsoft 365 commerciële klanten. Zie Microsoft Compliancevoor meer informatie.

Naast naleving van regelgeving, stellen we een open dialoog met onze klanten, partners en regelgevingsinstanties op de eerste plaats om meer inzicht te krijgen in en problemen op te lossen, waardoor een omgeving van vertrouwen en samenwerking wordt bevordert. We erkennen dat privacy, beveiliging en transparantie niet alleen functies zijn, maar ook vereisten in het AI-gestuurde landschap bij Microsoft.

Aanvullende informatie

Microsoft Copilot voor Microsoft 365 en beleidsinstellingen voor verbonden ervaringen

Als je verbonden ervaringen uitschakelt die inhoud analyseren voor Microsoft 365-apps op Windows- of Mac-apparaten in je organisatie, zijn Microsoft 365 Copilot-functies niet beschikbaar voor je gebruikers in de volgende apps:

  • Excel
  • PowerPoint
  • OneNote
  • Word

Op dezelfde manier is Microsoft Copilot voor Microsoft 365-functies in deze apps op Windows- of Mac-apparaten niet beschikbaar als je het gebruik van verbonden ervaringen voor Microsoft 365-apps uitschakelt.

Voor meer informatie over deze beleidsinstellingen, gaat u naar de volgende artikelen:

Over de inhoud die Microsoft Copilot voor Microsoft 365 maakt

De antwoorden die genererende AI produceert, zijn niet gegarandeerd 100% productief. Hoewel we de reacties blijven verbeteren, moeten gebruikers nog steeds hun mening gebruiken bij het beoordelen van de uitvoer voordat ze naar anderen worden verzonden. Onze Microsoft Copilot voor Microsoft 365-mogelijkheden bieden nuttige concepten en samenvattingen om je te helpen meer te bereiken, terwijl je de kans krijgt om de gegenereerde AI te bekijken in plaats van deze taken volledig te automatiseren.

We blijven algoritmen verbeteren om proactief problemen op te lossen, zoals onjuiste informatie en desinformatie, inhoudsblokkering, gegevensveiligheid en het voorkomen van de promotie van schadelijke of schadelijke inhoud in overeenstemming met onze verantwoordelijke AI-principes.

Microsoft claimt geen eigendom van de uitvoer van de service. Dat gezegd hebbende, we bepalen niet of de uitvoer van een klant’auteursrechtelijk beschermd of afdwingbaar is tegen andere gebruikers. Dit komt doordat generatieve AI-systemen vergelijkbare reacties kunnen produceren op vergelijkbare prompts of query's van meerdere klanten. Daarom kunnen meerdere klanten rechten hebben of claimen voor inhoud die hetzelfde of aanzienlijk vergelijkbaar is.

Als een derde partij een commerciële klant aanklaagt voor inbreuk op het auteursrecht voor het gebruik van Microsoft’Copilots of de uitvoer die ze genereren, zullen we de klant beschermen en het bedrag betalen van eventuele nadelige beslissingen of schikkingen die het gevolg zijn van de rechtszaak, zolang de klant de kaders en inhoudsfilters heeft gebruikt die we in onze producten hebben ingebouwd. Zie Microsoft kondigt nieuwe Copilot Copyright Commitment voor klanten aan, voor meer informatie.

Toegewijd aan verantwoordelijke AI

Aangezien AI klaar is om ons leven te transformeren, moeten we gezamenlijk nieuwe regels, normen en procedures definiëren voor het gebruik en de impact van deze technologie. Microsoft is al sinds 2017 op een verantwoordelijk AI-traject, toen we onze principes en benadering definieerden om ervoor te zorgen dat deze technologie wordt gebruikt op een manier die wordt aangestuurd door principes die mensen op de eerste plaats zetten.

Bij Microsoft laten we ons leiden door onze AI-principes, onze Responsible AI Standarden tientallen jaren aan onderzoek naar AI, basisbeginselen en machine learning met privacybehoud. Een team van onderzoekers, technici en beleidsexperts beoordeelt onze AI-systemen op mogelijke schade en risicobeperking bij — het verfijnen van trainingsgegevens, filteren om schadelijke inhoud te beperken, gevoelige onderwerpen met query's en resultaten te beperken en Microsoft-technologieën zoals InterpretML- en Fairlearn- toe te passen om gegevensafwijkingen te detecteren en te corrigeren. We maken duidelijk hoe het systeem beslissingen neemt door beperkingen op te merken, te koppelen aan bronnen en gebruikers te vragen om inhoud te controleren, te controleren en aan te passen op basis van expertise op het gebied van onderwerpen. Zie Beheren van AI: A Blauwdruk voor de toekomstvoor meer informatie.

We proberen onze klanten te helpen onze AI-producten op een verantwoorde manier te gebruiken, onze kennis te delen en vertrouwensrelaties op te bouwen. Voor deze nieuwe services willen we onze klanten informatie geven over de beoogde toepassingen, mogelijkheden en beperkingen van onze AI-platformservice, zodat ze de kennis hebben die nodig is om verantwoorde implementatiekeuzes te maken. We delen ook resources en sjablonen met ontwikkelaars binnen organisaties en met onafhankelijke softwareleveranciers (ISV's) om hen te helpen effectieve, veilige en transparante AI-oplossingen te bouwen.