Gegevens, privacy en beveiliging voor Microsoft 365 Copilot
Microsoft 365 Copilot is een geavanceerde engine voor verwerking en indeling die productiviteitsmogelijkheden biedt op basis van AI door de volgende onderdelen te coördineren:
- Grote taalmodellen (LLM's)
- Inhoud in Microsoft Graph, zoals e-mailberichten, chats en documenten waartoe u toegang hebt.
- De Microsoft 365 productiviteit-apps die je dagelijks gebruikt, zoals Word en PowerPoint.
Zie Microsoft 365 Copilot-overzicht voor een overzicht van hoe deze drie onderdelen samenwerken. Zie Microsoft 365 Copilot-documentatie voor koppelingen naar andere inhoud met betrekking tot Microsoft 365 Copilot.
Belangrijk
- Microsoft 365 Copilot voldoet aan onze bestaande privacy-, beveiligings- en nalevingsverplichtingen voor Microsoft 365 commerciële klanten, waaronder de Algemene verordening gegevensbescherming (AVG) en de gegevensgrens van de Europese Unie (EU).
- Prompts, antwoorden en gegevens die via Microsoft Graph worden geopend, worden niet gebruikt voor het trainen van basis-LLM's, inclusief die die worden gebruikt door Microsoft 365 Copilot.
- Microsoft 365 Copilot werkt met meerdere beveiligingen, waaronder het blokkeren van schadelijke inhoud, het detecteren van beveiligd materiaal en het blokkeren van promptinjecties (jailbreakaanvallen).
De informatie in dit artikel is bedoeld om antwoorden te geven op de volgende vragen:
- Hoe gebruikt Microsoft 365 Copilot uw bedrijfseigen organisatiegegevens?
- Hoe beschermt Microsoft 365 Copilot organisatie-informatie en -gegevens?
- Welke gegevens worden opgeslagen over gebruikersinteracties met Microsoft 365 Copilot?
- Welke toezeggingen voor gegevenslocatie maakt Microsoft 365 Copilot?
- Welke uitbreidingsopties zijn beschikbaar voor Microsoft 365 Copilot
- Hoe voldoet Microsoft 365 Copilot aan de nalevingsvereisten voor regelgeving?
- Zijn privacybesturingselementen voor verbonden ervaringen in Microsoft 365-apps van toepassing op Microsoft 365 Copilot?
- Kan ik de inhoud vertrouwen die Microsoft 365 Copilot maakt? Wie is eigenaar van die inhoud?
- Wat zijn de toezeggingen van Microsoft om AI op een verantwoorde manier te gebruiken?
Opmerking
Microsoft 365 Copilot blijft zich in de loop van de tijd ontwikkelen met nieuwe mogelijkheden. Als u op de hoogte wilt blijven van Microsoft 365 Copilot of vragen wilt stellen, gaat u naar de Microsoft 365 Copilot-community in de Microsoft Tech Community.
Hoe gebruikt Microsoft 365 Copilot uw eigen organisatiegegevens?
Microsoft 365 Copilot biedt waarde door LLM's te verbinden met uw organisatiegegevens. Microsoft 365 Copilot heeft toegang tot inhoud en context via Microsoft Graph. Het kan antwoorden genereren die zijn verankerd in uw organisatiegegevens, zoals gebruikersdocumenten, e-mailberichten, agenda, chats, vergaderingen en contactpersonen. Microsoft 365 Copilot combineert deze inhoud met de werkcontext van de gebruiker, zoals de vergadering waarin een gebruiker zich nu bevindt, het e-mailbericht dat de gebruiker heeft gehad over een onderwerp of de chatgesprekken die de gebruiker de afgelopen week heeft gehad. Microsoft 365 Copilot gebruikt deze combinatie van inhoud en context om nauwkeurige, relevante en contextuele antwoorden te bieden.
Belangrijk
Prompts, antwoorden en gegevens die via Microsoft Graph worden geopend, worden niet gebruikt voor het trainen van basis-LLM's, inclusief die die worden gebruikt door Microsoft 365 Copilot.
Microsoft 365 Copilot bevat alleen organisatiegegevens waarvoor afzonderlijke gebruikers ten minste weergavemachtigingen hebben. Het is belangrijk dat u de machtigingsmodellen gebruikt die beschikbaar zijn in Microsoft 365 services, zoals SharePoint, om ervoor te zorgen dat de juiste gebruikers of groepen de juiste toegang hebben tot de juiste inhoud binnen uw organisatie. Dit omvat machtigingen die je aan gebruikers buiten je organisatie geeft via samenwerkingsoplossingen tussen tenants, zoals gedeelde kanalen in Microsoft Teams.
Wanneer je prompts invoert met Microsoft Copilot voor Microsoft 365, blijven de informatie in je prompts, de gegevens die ze ophalen en de gegenereerde antwoorden binnen de Microsoft 365 servicegrens, in overeenstemming met onze huidige privacy-, beveiligings- en nalevingsverplichtingen. Microsoft Copilot voor Microsoft 365 gebruikt Azure OpenAI-services voor verwerking, niet de openbaar beschikbare services van OpenAI’. Azure OpenAI slaat geen inhoud van klanten op en Copilot heeft prompts voor Microsoft 365 Copilot gewijzigd. Zie de sectie Gegevens die zijn opgeslagen over gebruikersinteracties met Microsoft 365 Copilot verderop in dit artikel voor meer informatie.
Opmerking
- Als je invoegtoepassingen gebruikt om Microsoft 365 Copilot te helpen relevantere informatie te verstrekken, controleer dan de privacyverklaring en gebruiksvoorwaarden van de invoegtoepassing om te bepalen hoe deze omgaat met de gegevens van uw organisatie. Zie Uitbreidbaarheid van Microsoft 365 Copilot voor meer informatie.
- Wanneer u de webinhoudsinvoegtoepassing gebruikt, parseert Microsoft 365 Copilot de prompt van de gebruiker’en identificeert u termen waarin zoeken op het web de kwaliteit van het antwoord zou verbeteren. Op basis van deze termen genereert Copilot een zoekquery die wordt verzonden naar de functie Zoeken in Bing. Voor meer informatie Gegevens, privacy en beveiliging voor webquery's in Microsoft 365 Copilot en Microsoft Copilot.
Hoewel misbruikbewaking, waaronder menselijke beoordeling van inhoud, beschikbaar is in Azure OpenAI, hebben Microsoft 365 Copilot-services zich hiervoor afgemeld. Zie de sectie Hoe blokkeert Copilot schadelijke inhoud? verderop in dit artikel voor meer informatie over het filteren van inhoud.
Opmerking
We kunnen optioneel feedback van klanten gebruiken om Microsoft 365 Copilot te verbeteren, net zoals we feedback van klanten gebruiken om andere Microsoft 365-services en Microsoft 365 productiviteitsapps te verbeteren. We gebruiken deze feedback niet om de basis-LLM's te trainen die worden gebruikt door Microsoft 365 Copilot. Klanten kunnen feedback beheren via beheeropties. Zie Microsoft-feedback voor je organisatie beheren en Feedback geven over Microsoft Copilot met Microsoft 365-apps voor meer informatie.
Gegevens die zijn opgeslagen over gebruikersinteracties met Microsoft 365 Copilot
Wanneer een gebruiker communiceert met Microsoft 365 Copilot (zoals Word, PowerPoint, Excel, OneNote, Loop of Whiteboard), slaan we gegevens over deze interacties op. De opgeslagen gegevens omvatten de prompt van de gebruiker en het antwoord van Copilot, inclusief bronvermeldingen voor informatie die wordt gebruikt om de reactie van Copilot te beoordelen. We verwijzen naar de prompt van de gebruiker en de reactie van Copilot op die prompt als de 'inhoud van interacties' en de record van die interacties is de Copilot-activiteitsgeschiedenis van de gebruiker. Deze opgeslagen gegevens bieden gebruikers bijvoorbeeld copilot-activiteitengeschiedenis in Business Chat en vergaderingen in Microsoft Teams. Deze gegevens worden verwerkt en opgeslagen in overeenstemming met contractuele verplichtingen met de andere inhoud van je organisatie in Microsoft 365. De gegevens worden versleuteld terwijl ze worden opgeslagen en worden niet gebruikt voor het trainen van basis-LLM's, inclusief de machines die worden gebruikt door Microsoft 365 Copilot.
Beheerders kunnen inhoud zoeken of Microsoft Purview gebruiken om deze opgeslagen gegevens weer te geven en te beheren. Beheerders kunnen ook Microsoft Purview gebruiken om bewaarbeleid in te stellen voor de gegevens met betrekking tot chatinteracties met Copilot. Zie de volgende artikelen voor meer informatie:
- Overzicht van inhoud zoeken
- Microsoft Purview-gegevensbeveiliging en nalevingsbeveiliging voor generatieve AI-apps
- Meer informatie over retentie voor Copilot
Voor Microsoft Teams-chats met Copilot kunnen beheerders ook Export-API's van Microsoft Teams gebruiken om de opgeslagen gegevens te bekijken.
De geschiedenis van gebruikersinteracties met Microsoft 365 Copilot verwijderen
Uw gebruikers kunnen hun Copilot-activiteitenoverzicht, waaronder hun prompts en de antwoorden die Copilot retourneert, verwijderen door naar de portal Mijn account te gaan. Zie Uw Microsoft 365 Copilot activiteitenoverzicht verwijderen voor meer informatie.
Microsoft 365 Copilot en de EU-gegevensgrens
Microsoft 365 Copilot-aanroepen naar de LLM worden doorgestuurd naar de dichtstbijzijnde datacenters in de regio, maar kunnen ook worden aangeroepen naar andere regio's waar capaciteit beschikbaar is tijdens perioden met hoog gebruik.
Voor gebruikers van de Europese Unie (EU) hebben we aanvullende veiligheidsmaatregelen om te voldoen aan de EU-gegevensgrens. EU-verkeer blijft binnen de EU-gegevensgrens terwijl wereldwijd verkeer kan worden verzonden naar de EU en andere landen of regio's voor LLM-verwerking.
Microsoft Copilot voor Microsoft 365 en de EU-gegevensgrensMicrosoft
Microsoft 365 Copilot houdt zich aan de toezeggingen voor gegevenslocatie, zoals beschreven in het addendum Microsoft-productvoorwaarden en -gegevensbescherming. Microsoft 365 Copilot is op 1 maart 2024 toegevoegd als een gedekte workload in de toezeggingen voor gegevenslocatie in de Microsoft-productvoorwaarden.
Aanbiedingen van Microsoft Advanced Data Residency (ADR) en Multi-Geo Capabilities omvatten gegevenslocatieverplichtingen voor Microsoft 365 Copilot klanten vanaf 1 maart 2024. Voor EU-klanten is Microsoft 365 Copilot een EU Data Boundary-service. Klanten buiten de EU kunnen hun query's laten verwerken in de VS, de EU of andere regio's.
Uitbreidbaarheid van Microsoft 365 Copilot
Hoewel Microsoft Copilot voor Microsoft 365 de apps en gegevens al kan gebruiken binnen het Microsoft 365 ecosysteem, zijn veel organisaties nog steeds afhankelijk van verschillende externe hulpprogramma's en services voor werkbeheer en samenwerking. Microsoft 365 Copilot ervaringen kunnen verwijzen naar hulpprogramma's en services van derden wanneer ze reageren op een verzoek van een gebruiker met behulp van Microsoft Graph-connectors of -invoegtoepassingen. Gegevens van Graph-connectors kunnen worden geretourneerd in Microsoft 365 Copilot antwoorden als de gebruiker gemachtigd is om toegang te krijgen tot die informatie.
Wanneer invoegtoepassingen zijn ingeschakeld, bepaalt Microsoft 365 Copilot of deze een specifieke invoegtoepassing moet gebruiken om de gebruiker te helpen een relevant antwoord te geven. Als er een invoegtoepassing nodig is, genereert Microsoft 365 Copilot een zoekquery die namens de gebruiker naar de invoegtoepassing moet worden verzonden. De query is gebaseerd op de prompt van de gebruiker, het Copilot-activiteitenoverzicht en de gegevens waar de gebruiker toegang toe heeft in Microsoft 365.
In het Geïntegreerde apps gedeelte van de Microsoft 365-beheercentrum kunnen beheerders de machtigingen en gegevenstoegang bekijken die vereist zijn voor een invoegtoepassing, evenals de gebruiksvoorwaarden en privacyverklaring van de invoegtoepassing. Beheerders hebben volledige controle om te selecteren welke invoegtoepassingen in hun organisatie zijn toegestaan. Een gebruiker heeft alleen toegang tot de invoegtoepassingen die de beheerder toestaat en die de gebruiker heeft geïnstalleerd of toegewezen. Microsoft 365 Copilot gebruikt alleen invoegtoepassingen die door de gebruiker zijn ingeschakeld.
Zie de volgende artikelen voor meer informatie:
- Invoegtoepassingen voor Copilot beheren in geïntegreerde apps
- Microsoft 365 Copilot
- Hoe Microsoft 365 Copilot met je externe gegevens kunt werken
Hoe beveiligt Microsoft 365 Copilot organisatiegegevens?
Het machtigingsmodel binnen uw Microsoft 365 tenant kan ervoor zorgen dat gegevens niet onbedoeld lekken tussen gebruikers, groepen en tenants. Microsoft 365 Copilot geeft alleen gegevens weer waartoe elke persoon toegang heeft met behulp van dezelfde onderliggende besturingselementen voor gegevenstoegang die in andere Microsoft 365-services worden gebruikt. Semantic Index respecteert de toegangsgrens op basis van gebruikersidentiteit, zodat het basisproces alleen toegang heeft tot inhoud waartoe de huidige gebruiker toegang heeft. Zie het privacybeleid en de servicedocumentatie van Microsoft voor meer informatie.
Wanneer je gegevens hebt die zijn versleuteld door Microsoft Purview Informatiebeveiliging, respecteert Microsoft 365 Copilot de gebruiksrechten die aan de gebruiker zijn verleend. Deze versleuteling kan worden toegepast door vertrouwelijkheidslabels of door beperkte machtigingen in apps in Microsoft 365 met behulp van Information Rights Management (IRM). Zie voor meer informatie over het gebruik van Microsoft Purview met Microsoft 365 Copilot Beveiliging en naleving van Microsoft Purview-gegevensbeveiliging voor genererende AI-apps.
We implementeren al meerdere vormen van beveiliging om te voorkomen dat klanten Microsoft 365 services en toepassingen in gevaar brengen of onbevoegde toegang krijgen tot andere tenants of het Microsoft 365 systeem zelf. Hier zijn enkele voorbeelden van deze vormen van beveiliging:
Logische isolatie van klantinhoud binnen elke tenant voor Microsoft 365 services wordt bereikt via microsoft Entra-autorisatie en op rollen gebaseerd toegangsbeheer. Zie Microsoft 365 isolatiebesturingselementenvoor meer informatie.
Microsoft maakt gebruik van strenge fysieke beveiliging, achtergrondcontrole en een meerlaagse versleutelingsstrategie om de vertrouwelijkheid en integriteit van klantinhoud te beschermen.
Microsoft 365 maakt gebruik van technologieën aan de servicezijde waarmee inhoud van klanten at-rest en in transit wordt versleuteld, waaronder BitLocker, versleuteling per bestand, Transport Layer Security (TLS) en Internet Protocol Security (IPsec). Zie Versleuteling in de Microsoft Cloud voor specifieke informatie over versleuteling in Microsoft 365.
Uw controle over uw gegevens wordt versterkt door de toezegging van Microsoft om te voldoen aan breed toepasselijke privacywetten, zoals de AVG en privacystandaarden, zoals ISO/IEC 27018, de eerste internationale gedragscode ter wereld’voor cloudprivacy.
Voor inhoud die wordt geopend via Microsoft 365 Copilot-invoegtoepassingen, kan versleuteling programmatische toegang uitsluiten, waardoor de invoegtoepassing geen toegang krijgt tot de inhoud. Zie Gebruiksrechten configureren voor Azure Information Protectionvoor meer informatie.
Voldoen aan wettelijke nalevingsvereisten
Naarmate de regelgeving in de AI-ruimte zich verder ontwikkelt, blijft Microsoft zich aanpassen en reageren om te voldoen aan toekomstige wettelijke vereisten.
Microsoft 365 Copilot is gebaseerd op de huidige verplichtingen van Microsoft’op het gebied van gegevensbeveiliging en privacy in de onderneming. Er is geen wijziging in deze toezeggingen. Microsoft 365 Copilot is geïntegreerd in Microsoft 365 en voldoet aan alle bestaande privacy-, beveiligings- en nalevingsverplichtingen voor Microsoft 365 commerciële klanten. Zie Microsoft Compliancevoor meer informatie.
Naast naleving van regelgeving, stellen we een open dialoog met onze klanten, partners en regelgevingsinstanties op de eerste plaats om meer inzicht te krijgen in en problemen op te lossen, waardoor een omgeving van vertrouwen en samenwerking wordt bevordert. We erkennen dat privacy, beveiliging en transparantie niet alleen functies zijn, maar ook vereisten in het AI-gestuurde landschap bij Microsoft.
Aanvullende informatie
Microsoft 365 Copilot en privacybesturingselementen voor verbonden ervaringen
Sommige privacybesturingselementen voor verbonden ervaringen in Microsoft 365-apps kunnen van invloed zijn op de beschikbaarheid van Microsoft 365 Copilot-functies. Dit omvat de privacybesturingselementen voor verbonden ervaringen die je inhoud analyseren en het privacybeheer voor optionele verbonden ervaringen. Zie Overzicht van privacybesturingselementen voor Microsoft 365-apps voor ondernemingenvoor meer informatie over deze privacybesturingselementen.
Privacybeheer voor verbonden ervaringen die je inhoud analyseren
Als u verbonden ervaringen die uw inhoud op apparaten in uw organisatie analyseren uitschakelt, zijn Microsoft 365 Copilot functies niet beschikbaar voor uw gebruikers in de volgende apps:
- Excel
- OneNote
- Outlook
- PowerPoint
- Word
Dit geldt voor wanneer u de meest recente versie van deze apps uitvoert op Windows-, Mac-, iOS- of Android-apparaten.
Er is ook een privacycontrole waarmee alle verbonden ervaringen worden uitgeschakeld, inclusief verbonden ervaringen die uw inhoud analyseren. Als u dat privacybesturingselement gebruikt, zijn Microsoft 365 Copilot functies niet beschikbaar in de apps en op de apparaten die hierboven worden beschreven.
Privacybeheer voor optionele verbonden ervaringen
Als je optionele verbonden ervaringen in je organisatie uitschakelt, zijn Microsoft 365 Copilot-functies die optionele verbonden ervaringen zijn, niet beschikbaar voor je gebruikers. Als u bijvoorbeeld optionele verbonden ervaringen uitschakelt, kan dit van invloed zijn op de beschikbaarheid van zoeken op internet.
Er is ook een privacycontrole waarmee alle verbonden ervaringen worden uitgeschakeld, inclusief optionele verbonden ervaringen. Als je dit privacybeheer gebruikt, zijn Microsoft 365 Copilot functies die optionele verbonden ervaringen zijn niet beschikbaar.
Over de inhoud die Microsoft 365 Copilot maakt
De antwoorden die genererende AI produceert, zijn niet gegarandeerd 100% productief. Hoewel we de reacties blijven verbeteren, moeten gebruikers nog steeds hun mening gebruiken bij het beoordelen van de uitvoer voordat ze naar anderen worden verzonden. Onze Microsoft 365 Copilot-mogelijkheden bieden nuttige concepten en samenvattingen om u te helpen meer te bereiken, terwijl u de kans krijgt om de gegenereerde AI te bekijken in plaats van deze taken volledig te automatiseren.
We blijven algoritmen verbeteren om proactief problemen op te lossen, zoals onjuiste informatie en desinformatie, inhoudsblokkering, gegevensveiligheid en het voorkomen van de promotie van schadelijke of schadelijke inhoud in overeenstemming met onze verantwoordelijke AI-principes.
Microsoft claimt geen eigendom van de uitvoer van de service. Dat gezegd hebbende, we bepalen niet of de uitvoer van een klant’auteursrechtelijk beschermd of afdwingbaar is tegen andere gebruikers. Dit komt doordat generatieve AI-systemen vergelijkbare reacties kunnen produceren op vergelijkbare prompts of query's van meerdere klanten. Daarom kunnen meerdere klanten rechten hebben of claimen voor inhoud die hetzelfde of aanzienlijk vergelijkbaar is.
Als een derde partij een commerciële klant aanklaagt voor inbreuk op het auteursrecht voor het gebruik van Microsoft’Copilots of de uitvoer die ze genereren, zullen we de klant beschermen en het bedrag betalen van eventuele nadelige beslissingen of schikkingen die het gevolg zijn van de rechtszaak, zolang de klant de kaders en inhoudsfilters heeft gebruikt die we in onze producten hebben ingebouwd. Zie Microsoft kondigt nieuwe Copilot Copyright Commitment voor klanten aan, voor meer informatie.
Hoe blokkeert Copilot schadelijke inhoud?
Azure OpenAI Service bevat een filtersysteem voor inhoud dat naast kernmodellen werkt. De inhoudfiltermodellen voor de categorieën Haat en rechtvaardigheid, Seksueel, Geweld en Zelfbeschadiging zijn specifiek getraind en getest in verschillende talen. Dit systeem werkt door zowel de invoerprompt als het antwoord uit te voeren via classificatiemodellen die zijn ontworpen om de uitvoer van schadelijke inhoud te identificeren en te blokkeren.
Haat- en rechtvaardigheidsgerelateerde schade verwijst naar alle inhoud die gebruikmaakt van pejoratieve of discriminerende taal op basis van kenmerken zoals ras, etniciteit, nationaliteit, genderidentiteit en expressie, seksuele geaardheid, religie, immigratiestatus, bekwaamheidsstatus, persoonlijk uiterlijk en lichaamslengte. Rechtvaardigheid wil ervoor zorgen dat AI-systemen alle groepen mensen rechtvaardig behandelen zonder bij te dragen aan bestaande maatschappelijke onrechtvaardigheid. Seksuele inhoud omvat discussies over menselijke voortplantingsorganen, romantische relaties, handelingen die in erotische of liefdevolle bewoordingen worden afgebeeld, zwangerschap, fysieke seksuele handelingen, inclusief handelingen die worden afgebeeld als een aanranding of een gedwongen daad van seksueel geweld, prostitutie, pornografie en misbruik. Geweld beschrijft taal gerelateerd aan fysieke acties die bedoeld zijn om te schaden of te doden, inclusief acties, wapens en gerelateerde entiteiten. Zelfbeschadigende taal verwijst naar opzettelijke handelingen die bedoeld zijn om zichzelf te verwonden of te doden.
Meer informatie over Azure OpenAI-inhoudsfiltering.
Biedt Copilot detectie van beveiligd materiaal?
Ja, Microsoft 365 Copilot biedt detectie voor beveiligd materiaal, waaronder tekst die onderhevig is aan copyright en code die onderhevig is aan licentiebeperkingen. Niet al deze oplossingen zijn relevant voor alle Microsoft 365 Copilot-scenario's.
Blokkeert Copilot promptinjecties (jailbreakaanvallen)?
Jailbreak-aanvallen zijn gebruikersprompts die zijn ontworpen om het generatieve AI-model te provoceren om zich te gedragen op een manier die niet is getraind om de regels te overtreden die het moet volgen. Microsoft 365 Copilot is ontworpen om te beschermen tegen prompt-injectieaanvallen. Meer informatie over jailbreak-aanvallen en hoe je Azure AI Content Veiligheid kunt gebruiken om deze te detecteren.
Toegewijd aan verantwoordelijke AI
Aangezien AI klaar is om ons leven te transformeren, moeten we gezamenlijk nieuwe regels, normen en procedures definiëren voor het gebruik en de impact van deze technologie. Microsoft is al sinds 2017 op een verantwoordelijk AI-traject, toen we onze principes en benadering definieerden om ervoor te zorgen dat deze technologie wordt gebruikt op een manier die wordt aangestuurd door principes die mensen op de eerste plaats zetten.
Bij Microsoft laten we ons leiden door onze AI-principes, onze Responsible AI Standarden tientallen jaren aan onderzoek naar AI, basisbeginselen en machine learning met privacybehoud. Een team van onderzoekers, technici en beleidsexperts beoordeelt onze AI-systemen op mogelijke schade en risicobeperking bij, het verfijnen van trainingsgegevens, filteren om schadelijke inhoud te beperken, gevoelige onderwerpen met query's en resultaten te beperken en Microsoft-technologieën zoals InterpretML en Fairlearn toe te passen om gegevensafwijkingen te detecteren en te corrigeren. We maken duidelijk hoe het systeem beslissingen neemt door beperkingen op te merken, te koppelen aan bronnen en gebruikers te vragen om inhoud te controleren, te controleren en aan te passen op basis van expertise op het gebied van onderwerpen. Zie Beheren van AI: A Blauwdruk voor de toekomstvoor meer informatie.
We proberen onze klanten te helpen onze AI-producten op een verantwoorde manier te gebruiken, onze kennis te delen en vertrouwensrelaties op te bouwen. Voor deze nieuwe services willen we onze klanten informatie geven over de beoogde toepassingen, mogelijkheden en beperkingen van onze AI-platformservice, zodat ze de kennis hebben die nodig is om verantwoorde implementatiekeuzes te maken. We delen ook resources en sjablonen met ontwikkelaars binnen organisaties en met onafhankelijke softwareleveranciers (ISV's) om hen te helpen effectieve, veilige en transparante AI-oplossingen te bouwen.