Freigeben über


Transparenzhinweis für Microsoft 365 Copilot

Was ist ein Transparenzhinweis?

Ein KI-System umfasst nicht nur die Technologie, sondern auch die Personen, die es verwenden werden, die Personen, die davon betroffen sind, und die Umgebung, in der es bereitgestellt wird. Das Erstellen eines Systems, das für den vorgesehenen Zweck geeignet ist, erfordert ein Verständnis dafür, wie die Technologie funktioniert, was ihre Fähigkeiten und Einschränkungen sind und wie die beste Leistung erzielt werden kann. Die Transparenzhinweise von Microsoft sollen Ihnen helfen zu verstehen, wie unsere KI-Technologie funktioniert, welche Entscheidungen Systembesitzer treffen können, die die Systemleistung und das Verhalten beeinflussen können, und wie wichtig es ist, über das gesamte System, einschließlich der Technologie, der Menschen und der Umwelt, nachzudenken. Wir werden dieses Dokument mit der Weiterentwicklung des Diensts weiter aktualisieren.

Die Transparenzhinweise von Microsoft sind Teil einer umfassenderen Bemühungen von Microsoft, unsere KI-Prinzipien in die Praxis umzusetzen. Weitere Informationen finden Sie in den Microsoft KI-Prinzipien.

Grundlagen der Microsoft 365 Copilot

Einführung

Microsoft 365 Copilot ist ein KI-gestütztes Produktivitätstool, das große Sprachmodelle (LLMs) verwendet und Daten in Microsoft Graph- und Microsoft 365-Apps und -Dienste integriert. Es funktioniert zusammen mit beliebten Microsoft 365-Apps wie Word, Excel, PowerPoint, Outlook, Teams und mehr.

Microsoft 365 Copilot verwendet eine Kombination von Modellen, die vom Azure OpenAI-Dienst bereitgestellt werden. Auf diese Weise können wir die spezifischen Anforderungen der einzelnen Features – z. B. Geschwindigkeit, Kreativität – auf das richtige Modell abstimmen, sodass Microsoft 365 Copilot intelligente Unterstützung in Echtzeit bereitstellen können, die es den Benutzern ermöglicht, ihre Kreativität, Produktivität und Fähigkeiten zu verbessern.

Weitere ausführliche Informationen zu den LLMs, die Microsoft von OpenAI zur Verfügung gestellt werden, finden Sie in der öffentlichen Dokumentation unter Models – OpenAI API.

Schlüsselbegriffe

Ausdruck Beschreibung
Benutzeraufforderung Eine Benutzeraufforderung ist der Text, der an Microsoft 365 Copilot gesendet wird, um eine bestimmte Aufgabe auszuführen oder Informationen bereitzustellen. Beispielsweise kann ein Benutzer die folgende Eingabeaufforderung eingeben: Schreiben Sie eine E-Mail, in der sie meinem Team zum Ende des Geschäftsjahres gratulieren.
Verarbeitung Die Verarbeitung einer Benutzeraufforderung in Microsoft 365 Copilot umfasst mehrere Schritte, einschließlich verantwortungsvoller KI-Überprüfungen, um sicherzustellen, dass Microsoft 365 Copilot relevante und umsetzbare Antworten liefert.
Fundament Erdung bezieht sich auf den Prozess der Bereitstellung von Eingabequellen für den LLM im Zusammenhang mit der Benutzeraufforderung. Indem Microsoft 365 Copilot den Zugriff auf Daten ermöglichen, die als Eingabequellen verwendet werden können – z. B. Daten von Microsoft Graph oder Bing – können Microsoft 365 Copilot benutzern genauere, kontextbezogenere Antworten liefern.
Microsoft Graph Microsoft Graph ist das Gateway zu Daten und Informationen in Microsoft 365. Sie enthält Informationen zu den Beziehungen zwischen Benutzern, Aktivitäten und den Daten einer organization.
Microsoft Graph-Connectors Microsoft Graph-Connectors bieten eine Möglichkeit, Inhalte aus externen Diensten in Microsoft Graph zu übertragen, sodass externe Daten intelligente Microsoft 365-Umgebungen wie Microsoft Search und Microsoft 365 Copilot unterstützen.
Indizierung Microsoft verwendet sowohl die lexikalische als auch die semantische Indizierung von Microsoft Graph-Daten, um Antworten für Microsoft 365 Copilot in Unternehmensdaten zu erstellen. Die Indizierung interpretiert Benutzeraufforderungen, um kontextrelevante Antworten zu erzeugen. Weitere Informationen zur Indizierung finden Sie unter Systemverhalten.
Angereicherte Eingabeaufforderung Eine Eingabeaufforderung wird angereichert, wenn der eingegebenen Eingabeaufforderung eines Benutzers zusätzliche Anweisungen hinzugefügt werden, um Microsoft 365 Copilot beim Generieren einer spezifischeren und relevanteren Antwort zu unterstützen.
Inhalt von Interaktionen Der Begriff, der verwendet wird, um die Eingabeaufforderung des Benutzers und die Antwort Microsoft 365 Copilot auf diese Eingabeaufforderung zu beschreiben.
Large Language Model (LLM) Große Sprachmodelle (Large Language Models, LLMs) sind in diesem Kontext KI-Modelle, die mit großen Mengen von Textdaten trainiert werden, um Wörter in Sequenzen vorherzusagen. LLMs können eine Vielzahl von Aufgaben ausführen, z. B. Textgenerierung, Zusammenfassung, Übersetzung, Klassifizierung und vieles mehr.
LLM-Antwort Der vom LLM generierte Inhalt als Antwort auf die Benutzeraufforderung, die an Microsoft 365 Copilot zurückgegeben wird.
Nachbearbeitung Die Verarbeitung Microsoft 365 Copilot erfolgt, nachdem eine Antwort vom LLM empfangen wurde. Diese Nachbearbeitung umfasst zusätzliche Erdungsaufrufe an Microsoft Graph, verantwortungsvolle KI, Sicherheit, Compliance und Datenschutzprüfungen.
Verantwortungsvolle KI Die Richtlinien-, Forschungs- und Ingenieurpraktiken von Microsoft, die auf unseren KI-Prinzipien basieren und durch unseren Standard für verantwortungsvolle KI operationalisiert werden.
Copilot-Agents Copilot-Agents sind Anwendungen, die von Microsoft und anderen Anbietern entwickelt wurden und die Benutzer und Organisationen installieren können, um Microsoft 365 Copilot neue Fähigkeiten und Kenntnisse hinzuzufügen. Weitere Informationen zur Verwendung von KI in Copilot-Agents finden Sie direkt in diesen Angeboten.
Rote Teamtests Techniken, die von Experten verwendet werden, um die Einschränkungen und Sicherheitsrisiken eines Systems zu bewerten und die Wirksamkeit geplanter Risikominderungen zu testen. Rote Teamtests werden verwendet, um potenzielle Risiken zu identifizieren und unterscheiden sich von der systematischen Messung von Risiken.

Funktionen

Features

Feature Beschreibung
Microsoft 365 Copilot in Word Microsoft 365 Copilot in Word transformiert das Schreiben mit Effizienz und Kreativität, sodass Benutzer Dokumente erstellen, zusammenfassen, verstehen, verfeinern und erhöhen können. Benutzer können auch erweiterte Funktionen wie das Visualisieren und Transformieren von Text in eine Tabelle verwenden. Einige andere Funktionen umfassen auch das Hinzufügen zu vorhandenen Eingabeaufforderungen, das Entwerfen eines Dokuments durch Verweisen auf andere Dokumente und das Ermitteln von Informationen zu Dokumenten.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in Word.
Microsoft 365 Copilot in PowerPoint mit Microsoft 365 Copilot in PowerPoint können Benutzer mithilfe von Unternehmensvorlagen eine neue Präsentation aus einer Eingabeaufforderung oder Word Datei erstellen. Das Chatfeature aktiviert Zusammenfassung und Q&A, und mit der einfachen Befehlsfunktion können Benutzer Folien und Bilder hinzufügen oder Überformatänderungen vornehmen. PowerPoint-Dateien können auch zum Erden von Daten verwendet werden.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in PowerPoint.
Microsoft 365 Copilot in Excel Microsoft 365 Copilot in Excel unterstützt Benutzer mit Vorschlägen für Formeln, Diagrammtypen und Erkenntnisse zu Daten in Kalkulationstabellen.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in Excel.
Microsoft 365 Copilot in Outlook Microsoft 365 Copilot in Outlook hilft dabei, den E-Mail-Posteingang zu verwalten und eine wirkungsvolle Kommunikation effizienter zu gestalten. Microsoft 365 Copilot in Outlook können einen E-Mail-Thread zusammenfassen, Aktionselemente, Antworten und Folgebesprechungen vorschlagen. Es kann auch Länge und Ton beim Verfassen einer E-Mail anpassen.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in Outlook.
Microsoft 365 Copilot in Teams Microsoft 365 Copilot in Teams können Unterhaltungen zusammenfassen, wichtige Diskussionspunkte organisieren und wichtige Aktionen zusammenfassen. Benutzer können Antworten auf bestimmte Fragen erhalten und sich über Dinge informieren, die sie in Besprechungen oder Chats verpasst haben.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in Microsoft Teams.
Microsoft 365 Copilot in Loop Microsoft 365 Copilot in Loop ermöglicht Es Benutzern, Inhalte zu erstellen, die durch direkte Bearbeitung oder Verfeinerung durch Copilot verbessert werden können.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in Loop.
Microsoft 365 Copilot in Microsoft Stream Microsoft 365 Copilot in Microsoft Stream hilft, Informationen aus jedem Video mit einem Transkript abzurufen. Microsoft 365 Copilot in Stream können eine Zusammenfassung des Videos bereitstellen, bestimmte Fragen beantworten, schnell zu bestimmten Themen oder Diskussionspunkten springen und Handlungsanrufe identifizieren.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in Stream.
Microsoft 365 Copilot in Whiteboard Microsoft 365 Copilot in Whiteboard hilft dabei, den Ideenfindungsprozess zu starten, um Ideen zu generieren, zu kategorisieren und zusammenzufassen.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in Whiteboard.
Microsoft 365 Copilot in OneNote Microsoft 365 Copilot in OneNote ermöglicht Es Benutzern, Pläne zu entwerfen, Ideen zu generieren, Listen zu erstellen und Informationen zu organisieren, damit sie in der OneNote-App finden können, was sie benötigen.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in OneNote.
Microsoft 365 Copilot Chat Microsoft 365 Copilot Chat (früher als Geschäftschat bezeichnet) kombiniert die Leistungsfähigkeit von großen Sprachmodellen mit dem Internet, arbeitsbezogenen Inhalten und Kontexten und anderen Apps, um Benutzern bei der Entwurf von Inhalten zu helfen, sich über fehlende Informationen zu informieren und Antworten auf Fragen über Eingabeaufforderungen zu erhalten.
Microsoft 365 Copilot im Rich-Text-Editor für SharePoint Microsoft 365 Copilot im Rich-Text-Editor von Microsoft SharePoint vereinfacht die Erstellung von Inhalten auf SharePoint-Seiten und -Beiträgen. Mit Copilot können Sie Text umschreiben, den Ton anpassen, Informationen verdichten und ideenverarbeiten. Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in SharePoint.
Microsoft 365 Copilot in OneDrive Microsoft 365 Copilot in OneDrive ist ein innovatives KI-gestütztes Assistent, das Sie bei der Interaktion mit Ihren Dokumenten unterstützt, indem Sie Informationen extrahieren, die wichtigsten Unterschiede vergleichen, Dateien zusammenfassen und Erkenntnisse generieren. Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in OneDrive.
Microsoft 365 Copilot Blickkarten Blickkarten bieten eine schnelle Vorschau von Arbeitsentitäten, z. B. Dokumenten, um die Relevanz oder den Rückruf zu bewerten. Auf sie wird zugegriffen, indem Sie auf der Registerkarte Suchen des App Microsoft 365 Copilot auf Dateien zeigen.
Intelligente Suche Die intelligente Suche ermöglicht die Suche in Dataverse-Anwendungen wie Dynamics 365 Sales, Service und Finance & Operations in natürlicher Sprache.
Power Platform-Connectors Power Platform-Connectors ermöglichen Kunden den Zugriff auf Echtzeitdaten aus einer Sammlung von geschäftlichen und persönlichen Produktivitätsanwendungen in der Microsoft 365 Copilot Erfahrung.
Microsoft Graph-Connectors Microsoft Graph-Connectors ermöglichen Verbindungen mit externen Datenquellen, einschließlich bis zu 500 Elementen pro Microsoft 365 Copilot Lizenz.
Microsoft Purview Microsoft Purview ist eine Lösung, die Organisationen dabei unterstützt, ihre Daten zu verwalten und zu schützen. Es bietet eine einheitliche Plattform für Datengovernance, Informationsschutz, Risikomanagement und Compliance. Kunden können die Microsoft Purview-Funktionen von Microsoft-Abonnements (z. B. Microsoft 365 E3- oder E5-Abonnements) auf Microsoft 365 Copilot Daten und Interaktionen erweitern.
Microsoft 365 Copilot Optimierung Microsoft 365 Copilot Optimierung ermöglicht Es Organisationen, große Sprachmodelle (LLMs) mithilfe ihrer eigenen Mandantendaten zu optimieren. Diese Modelle können verwendet werden, um domänenspezifische Aufgaben basierend auf dem einzigartigen Wissen der organization auszuführen.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zur verantwortungsvollen KI für Microsoft 365 Copilot Optimierung.

Systemverhalten

Microsoft 365 Copilot verwendet eine Kombination aus LLMs, um Inhalte zusammenzufassen, vorherzusagen und zu generieren. Diese LLMs enthalten vortrainierte Modelle, z. B. Generative Pre-Trained Transformers (GPT) wie GPT-4 von OpenAI, die für diese Aufgaben konzipiert sind.

Die Funktionen, die Benutzern in Microsoft 365-Anwendungen angezeigt werden, werden als zusätzliche Features, Funktionen und Aufforderungsfunktionen angezeigt. LLMs und proprietäre Microsoft-Technologien arbeiten in einem zugrunde liegenden System zusammen, das Personen dabei hilft, sicher auf ihre Unternehmensdaten zuzugreifen, sie zu verwenden und zu verwalten.

  • Microsoft 365-Apps (z. B. Word, Excel, PowerPoint, Outlook, OneNote, Teams und Loop) arbeiten mit Microsoft 365 Copilot zusammen, um Benutzer beim Ablauf ihrer Arbeit zu unterstützen. Beispielsweise ist Microsoft 365 Copilot in Word so konzipiert, dass Benutzer speziell beim Erstellen, Verstehen und Bearbeiten von Dokumenten unterstützt werden. Auf ähnliche Weise hilft Microsoft 365 Copilot in den anderen Apps Benutzern im Kontext ihrer Arbeit innerhalb dieser Apps.

  • Microsoft Graph ist seit langem ein wesentlicher Bestandteil von Microsoft 365. Sie enthält Informationen zu den Beziehungen zwischen Benutzern, Aktivitäten und den Daten einer organization. Microsoft Graph-API bringt mehr Kontext aus Kundensignalen in die Eingabeaufforderung, z. B. Informationen aus E-Mails, Chats, Dokumenten und Besprechungen. Weitere Informationen finden Sie unter Übersicht über Microsoft Graph und wichtige Dienste und Features in Microsoft Graph.

  • mit Microsoft 365 Copilot Chat können Kunden arbeitsbezogene Inhalte und Kontexte in die Chatfunktionen von Microsoft 365 Copilot einbinden. Mit Microsoft 365 Copilot Chat können Benutzer Inhalte entwerfen, sich über das, was sie verpasst haben, informieren und Antworten auf Fragen über offene Eingabeaufforderungen erhalten – alles sicher in Arbeitsdaten verankert. Verwenden Sie Microsoft 365 Copilot Chat auf vielen Oberflächen, einschließlich in Microsoft Teams, auf Microsoft365.com und auf copilot.microsoft.com.

  • Der semantische Index ist ein Index, der aus Inhalten in Microsoft Graph generiert wird. Es wird verwendet, um die Verarbeitung von Benutzeraufforderungen zu unterstützen, um kontextrelevante Antworten zu erzeugen. Es ermöglicht Organisationen, Milliarden von Vektoren (mathematische Darstellungen von Merkmalen oder Attributen) zu durchsuchen und verwandte Ergebnisse zurückzugeben. Der semantische Index ist so konzipiert, dass der Sicherheitskontext einzelner Benutzer berücksichtigt wird, und es werden nur Inhalte angezeigt, auf die ein Benutzer zugreifen kann. Der semantische Index basiert auf dem umfassenden Ansatz von Microsoft für Sicherheit, Compliance und Datenschutz und berücksichtigt alle Organisationsgrenzen innerhalb des Mandanten des Kunden. Weitere Informationen finden Sie unter Semantischer Index für Copilot.

Hier finden Sie eine Erklärung, wie Microsoft 365 Copilot funktioniert:

  • Microsoft 365 Copilot empfängt eine Eingabeaufforderung von einem Benutzer in einer App, z. B. Word oder PowerPoint.

  • Microsoft 365 Copilot verarbeitet dann die Benutzereingabeaufforderung, wodurch die Spezifität der Eingabeaufforderung verbessert wird, um dem Benutzer zu helfen, Antworten zu erhalten, die für seine spezifische Aufgabe relevant und umsetzbar sind. Die Eingabeaufforderung kann Text aus Eingabedateien oder anderen Inhalten enthalten, die von Microsoft 365 Copilot mithilfe von Microsoft Graph erkannt wurden, und Microsoft 365 Copilot diese Aufforderung zur Verarbeitung an den LLM sendet. Microsoft 365 Copilot nur auf Daten zu, auf die ein einzelner Benutzer bereits Zugriff hat, z. B. basierend auf vorhandenen rollenbasierten Microsoft 365-Zugriffssteuerungen.

  • Microsoft 365 Copilot nimmt die Antwort des LLM und verarbeitet sie nach. Diese Nachbearbeitung umfasst andere Erdungsaufrufe an Microsoft Graph, verantwortungsvolle KI-Überprüfungen wie Inhaltsklassifizierer, Sicherheits-, Compliance- und Datenschutzprüfungen und Befehlsgenerierung.

  • Microsoft 365 Copilot gibt die Antwort an die App zurück, in der der Benutzer die Antwort überprüfen und bewerten kann.

Die Daten werden während der Speicherung verschlüsselt und nicht zum Trainieren von Azure OpenAI Service Foundation LLMs verwendet, einschließlich derer, die von Microsoft 365 Copilot verwendet werden. Weitere Informationen hierzu finden Sie unter Daten, Datenschutz und Sicherheit für Microsoft 365 Copilot.

Wie Microsoft 365 Copilot Antworten ohne Webinhalte oder Organisationsdaten generiert

Microsoft 365 Copilot erfordert keine Webinhalte oder Organisationsdaten, um eine Antwort bereitzustellen, aber diese Informationen können dazu beitragen, die Qualität, Genauigkeit und Relevanz der Antwort zu verbessern. Wenn Microsoft 365 Copilot ohne Web- oder Organisationsdaten reagiert, basiert Microsoft 365 Copilot nur auf seinen LLMs, um Eingabeaufforderungen zu verstehen und Antworten zu generieren. Der Prozess umfasst die Analyse der Eingabe, die Nutzung der internen Wissensdatenbank des Modells und das Verfeinern der Antwort, um sicherzustellen, dass sie kontextabhängig angemessen ist.

Erweiterbarkeit & Anpassung

Microsoft 365 Copilot bietet Features, die Benutzern helfen, Produktivität und Kreativität freizusetzen. Seine Anpassungsfähigkeit bedeutet, dass es an die individuellen Anforderungen verschiedener Organisationen angepasst werden kann. Die Fähigkeit, seine Funktionen durch Erweiterungen zu erweitern, macht es zu einem sich ständig weiterentwickelnden Asset, das sich an die sich ständig ändernde Landschaft der Geschäftsanforderungen anpassen kann. Erfahren Sie mehr über das Anpassen von Microsoft 365 Copilot bei Copilot | Microsoft Developer. Weitere Informationen zur Verwendung von KI in Erweiterungen finden Sie direkt in diesen Angeboten.

Anwendungsfälle

Microsoft 365 Copilot ist ein universeller Dienst, der entwickelt wurde, um eine Vielzahl von alltäglichen Aufgaben in allen organization zu unterstützen, indem er eine Verbindung mit Arbeitsdaten herstellt und die Apps integriert, die Kunden täglich verwenden. Zum Beispiel:

  • Chat- und Konversationsinteraktion & Erstellung: Benutzer können mit Microsoft 365 Copilot Chat interagieren und Antworten generieren, die aus vertrauenswürdigen Dokumenten wie interner Unternehmensdokumentation oder Dokumentation des technischen Supports stammen.

  • Suche: Benutzer können vertrauenswürdige Quelldokumente durchsuchen, z. B. interne Unternehmensdokumentationen.

  • Zusammenfassung: Benutzer können Inhalte übermitteln, die für vordefinierte Themen zusammengefasst werden sollen, die in die Anwendung integriert sind. Beispiele hierfür sind die Zusammenfassung von Teams-Chats, E-Mails, Webseiten und Word Dokumenten.

  • Unterstützung beim Schreiben zu bestimmten Themen: Benutzer können neue Inhalte erstellen oder inhalte neu schreiben, die vom Benutzer als Schreibhilfe für Geschäftsinhalte oder vordefinierte Themen übermittelt wurden. Beispiel: Verfassen von E-Mails in Microsoft Outlook oder Schreiben von Inhalten in Microsoft Word.

  • Untertitel oder Transkription: Benutzer können Audiodateien in Text transkribieren, um natürliche Sprache zu verstehen oder Analyseaufgaben wie zusammenfassungen zu ermöglichen. Beispiele hierfür sind Teams-Besprechungstranskripte und Videos auf Microsoft Stream.

Microsoft bietet detaillierte Anleitungen, die sich auf gängige Anwendungsfälle und Szenarien konzentrieren, damit Kunden die Integration von Microsoft 365 Copilot-Funktionen in ihre Organisationen beschleunigen können. Weitere Informationen finden Sie unter Microsoft Copilot-Szenariobibliothek – Microsoft-Einführung.

Überlegungen bei der Auswahl eines Anwendungsfalls

Wir empfehlen Benutzern, alle von Microsoft 365 Copilot generierten Inhalte zu überprüfen, bevor sie zur Verwendung verwendet werden. Darüber hinaus gibt es bestimmte Szenarien, die vermieden werden sollten. In einigen Fällen kann eine sinnvolle menschliche Aufsicht und Überprüfung das Risiko schädlicher Ergebnisse weiter verringern.

  • Vermeiden Sie die Verwendung oder den Missbrauch des Systems kann zu erheblichen körperlichen oder psychischen Verletzungen einer Person führen. Szenarien, die Patienten diagnostizieren oder Medikamente verschreiben, können beispielsweise erhebliche Schäden verursachen.

  • Vermeiden Sie die Nutzung oder den Missbrauch des Systems könnte sich auf Lebenschancen oder rechtliche status auswirken. Beispiele hierfür sind Szenarien, in denen sich das KI-System auf die rechtlichen status, die gesetzlichen Rechte oder den Zugang zu Krediten, Bildung, Beschäftigung, Gesundheitsversorgung, Wohnen, Versicherungen, Sozialleistungen, Dienstleistungen, Möglichkeiten oder den Bedingungen auswirken kann, zu denen sie bereitgestellt werden.

  • Berücksichtigen Sie Anwendungsfälle in Domänen mit hohem Einsatz oder in der Branche sorgfältig. Beispiele sind unter anderem medizinische oder finanzielle.

Begrenzungen

Spezifische Einschränkungen der Microsoft 365 Copilot

  1. Integration und Kompatibilität: Während Microsoft 365 Copilot für die nahtlose Integration in Microsoft 365-Anwendungen konzipiert ist, kann es einschränkungen oder Probleme mit der Kompatibilität in bestimmten Umgebungen geben, insbesondere bei Apps von Drittanbietern (nicht von Microsoft) und angepassten oder nicht standardmäßigen Konfigurationen.

  2. Anpassung und Flexibilität: Während Microsoft 365 Copilot angepasst werden können, gibt es Einschränkungen in Bezug darauf, wie stark sie an bestimmte Organisationsanforderungen oder Workflows angepasst werden können. Organisationen können feststellen, dass bestimmte Features oder Antworten starr sind oder nicht vollständig auf die Anforderungen der Organisation abgestimmt sind.

  3. Abhängigkeit von internetkonnektivität: Microsoft 365 Copilot ist auf Internetkonnektivität angewiesen, um zu funktionieren. Jede Unterbrechung der Konnektivität kann sich auf die Verfügbarkeit und Leistung des Diensts auswirken.

  4. Benutzerschulung und -einführung: Die effektive Verwendung von Microsoft 365 Copilot erfordert, dass Benutzer ihre Funktionen und Einschränkungen verstehen. Es kann eine Lernkurve geben, und Benutzer müssen geschult werden, um effektiv mit dem Dienst zu interagieren und davon zu profitieren.

  5. Ressourcenintensität: Die Ausführung erweiterter KI-Modelle erfordert erhebliche Rechenressourcen, die sich insbesondere in Umgebungen mit Eingeschränkten Ressourcen auf die Leistung auswirken können. Bei Benutzern können während spitzen Nutzungszeiten Latenz- oder Leistungsprobleme auftreten.

  6. Rechtliche Und Compliance-Überlegungen: Organisationen müssen bei der Verwendung von Microsoft 365 Copilot, insbesondere in regulierten Branchen, ihre speziellen rechtlichen und Complianceverpflichtungen berücksichtigen. Microsoft prüft die gesetzlichen Anforderungen, die für Microsoft als Anbieter der Technologie gelten, und erfüllt diese innerhalb des Produkts durch einen Prozess der kontinuierlichen Verbesserung.

  7. Voreingenommenheit, Stereotypisierung und nicht geerdeter Inhalt: Trotz intensivem Training durch OpenAI und der Implementierung verantwortungsvoller KI-Steuerelemente durch Microsoft sowohl für Benutzereingabeaufforderungen als auch für LLM-Ausgaben sind KI-Dienste fehlbar und probabilistisch. Dies macht es schwierig, alle unangemessenen Inhalte umfassend zu blockieren, was zu potenziellen Voreingenommenheiten, Stereotypen oder Unermesslichkeiten in KI-generierten Inhalten führt. Weitere Informationen zu den bekannten Einschränkungen von KI-generierten Inhalten finden Sie im Transparenzhinweis für Den Azure OpenAI-Dienst, der Verweise auf die LLMs hinter Microsoft 365 Copilot enthält.

Microsoft 365 Copilot Leistung

In vielen KI-Systemen wird die Leistung häufig in Bezug auf die Genauigkeit definiert, d. h., wie oft das KI-System eine richtige Vorhersage oder Ausgabe bietet. Mit Microsoft 365 Copilot können zwei verschiedene Benutzer die gleiche Ausgabe betrachten und unterschiedliche Meinungen darüber haben, wie nützlich oder relevant sie ist, was bedeutet, dass die Leistung für diese Systeme flexibler definiert werden muss. Wir betrachten leistung im Allgemeinen so, dass die Anwendung die von den Benutzern erwartete Leistung bietet.

Bewährte Methoden zur Verbesserung der Microsoft 365 Copilot Erfahrung

Um die Leistung in Bezug auf die Genauigkeit Microsoft 365 Copilot Ausgabe zu verbessern, empfehlen wir Organisationen Folgendes zu berücksichtigen:

  • Schreiben Sie gute Eingabeaufforderungen. Das Schreiben guter Eingabeaufforderungen ist der Schlüssel, um mit Microsoft 365 Copilot bessere Ergebnisse zu erzielen. Genau wie es Techniken gibt, mit denen Menschen effektiv mit einem Menschen kommunizieren können, gibt es Richtlinien, die Benutzern helfen können, bessere Ergebnisse mit Microsoft 365 Copilot beim Schreiben von Eingabeaufforderungen zu erzielen. Beispiel: Schließen Sie Details ein, strukturieren Sie Eingabeaufforderungen, geben Sie positive Anweisungen an, durchlaufen sie und generieren Sie sie erneut, und überprüfen Sie immer KI-generierte Antworten. Weitere Informationen finden Sie unter Abrufen besserer Ergebnisse mit Copilot-Eingabeaufforderungen.

  • Verweise auf Webinhalte zulassen. Wenn Microsoft 365 Copilot auf Webinhalte verweisen können, kann dies die Qualität, Genauigkeit und Relevanz Microsoft 365 Copilot Antworten verbessern, bei denen eine Antwort von aktuellen, öffentlichen Informationen aus dem Web profitieren würde. Beachten Sie jedoch, dass Microsoft 365 Copilot, wenn Microsoft 365 Copilot auf Webinhalte verweist, dies über den Bing-Suche-Dienst erfolgt, und die Datenverarbeitungsmethoden für Bing-Suche Abfragen unterscheiden sich von der Verarbeitung von Daten durch Microsoft 365 Copilot. Die Verwendung von Bing ist durch den Microsoft-Servicevertrag zwischen jedem Benutzer und Microsoft sowie durch die Microsoft-Datenschutzerklärung abgedeckt.

  • Erweitern der Erdung in Microsoft Graph Microsoft 365 Copilot verwendet Daten aus Microsoft Graph, um Antworten in organization spezifischen Daten wie E-Mails, Chats, Dateien und Kalendern zu erstellen. Durch die Erweiterung von Microsoft Graph mit Organisationsdaten aus Quellen wie CRM-Systemen oder externen Dateirepositorys können Organisationen zusätzliche kontextspezifische, relevante Informationen enthalten, die die Fülle und Genauigkeit der Microsoft 365 Copilot Antworten weiter verbessern.

Zuordnen, Messen und Verwalten von Risiken

Wie andere transformationsorientierte Technologien ist die Nutzung der Vorteile von KI nicht risikofrei, und ein Kernbestandteil des Verantwortungsvollen KI-Programms von Microsoft ist darauf ausgelegt, potenzielle Risiken zu identifizieren, deren Neigung zu messen und Abhilfemaßnahmen zu entwickeln, um sie zu verwalten. Basierend auf unseren KI-Prinzipien und unserem verantwortungsvollen KI-Standard und aufbauend auf Erkenntnissen aus anderen generativen KI-Produkten und unserer zentralisierten Infrastruktur zur Entschärfung (z. B. Azure KI Inhaltssicherheit) versuchen wir, potenzielle Risiken und den Missbrauch von Microsoft 365 Copilot und gleichzeitig die transformativen und vorteilhaften Verwendungsmöglichkeiten der neuen Benutzeroberfläche zu sichern. In den folgenden Abschnitten wird unser iterativer Ansatz zum Zuordnen, Messen und Verwalten potenzieller Risiken beschrieben.

Karte

Auf Modellebene begann unsere Arbeit mit explorativen Analysen von GPT-4 im Spätsommer 2022. Dazu gehörten umfangreiche Red Team-Tests in Zusammenarbeit mit OpenAI. Diese Tests wurden entwickelt, um zu bewerten, wie die neueste Technologie ohne zusätzliche Sicherheitsvorkehrungen funktionieren würde. Unsere spezifische Absicht zu diesem Zeitpunkt war es, Risiken zu identifizieren, potenzielle Möglichkeiten für Missbrauch zu erschließen und Funktionen und Einschränkungen zu identifizieren. Unsere kombinierten Erkenntnisse in OpenAI und Microsoft trugen zu Fortschritten bei der Modellentwicklung bei und informierten uns bei Microsoft auf unser Verständnis von Risiken und trugen zu frühen Entschärfungsstrategien für alle unsere generativen KI-Technologien, einschließlich Microsoft 365 Copilot.

Zusätzlich zu den roten Teamtests auf Modellebene führte ein multidisziplinäres Expertenteam auf Anwendungsebene rote Teamtests auf Microsoft 365 Copilot Erfahrungen durch, bevor sie öffentlich verfügbar gemacht wurden. Dieser Prozess half uns, besser zu verstehen, wie das System ausgenutzt werden könnte, und unsere Risikominderungen zu verbessern. Nach der Veröffentlichung werden die neuen KI-Umgebungen in Microsoft 365 Copilot in die bestehende Produktionsmess- und Testinfrastruktur des engineering-organization integriert.

Messen

Rote Teamtests können Instanzen bestimmter Risiken erkennen, aber in der Produktion haben Benutzer Millionen verschiedener Arten von Interaktionen mit Microsoft 365 Copilot. Darüber hinaus sind Interaktionen kontextabhängig und oft mehrfach, und das Identifizieren schädlicher Inhalte innerhalb einer Interaktion ist eine komplexe Aufgabe. Um das Risikopotenzial für unsere generativen KI-Dienste, einschließlich Microsoft 365 Copilot Erfahrungen, besser zu verstehen und zu beheben, haben wir verantwortungsvolle KI-Auswertungen speziell für diese neuen KI-Erfahrungen entwickelt, um potenzielle Risiken wie Jailbreaks, schädliche Inhalte und nicht fundierte Inhalte zu messen.

Als illustratives Beispiel enthält die aktualisierte teilweise automatisierte Messpipeline für schädliche Inhalte zwei wichtige Innovationen: Konversationssimulation und automatisierte, von Menschen verifizierte Unterhaltungsanmerkungen. Zunächst haben verantwortliche KI-Experten Vorlagen erstellt, um die Struktur und den Inhalt von Unterhaltungen zu erfassen, die zu verschiedenen Arten schädlicher Inhalte führen können. Diese Vorlagen wurden dann einem Konversations-Agent übergeben, der als hypothetischer Benutzer mit Microsoft 365 Copilot interagierte und simulierte Unterhaltungen generierte. Um zu ermitteln, ob diese simulierten Unterhaltungen schädliche Inhalte enthielten, haben wir Richtlinien, die in der Regel von erfahrenen Linguisten verwendet werden, um Daten zu bezeichnen, für LLMs geändert, um Unterhaltungen im großen Stil zu bezeichnen, und die Richtlinien so lange optimiert, bis eine erhebliche Übereinstimmung zwischen Unterhaltungen mit Modellbezeichnungen und unterhaltungen mit menschenbeschrifteten Bezeichnungen bestand. Schließlich haben wir die mit dem Modell gekennzeichneten Unterhaltungen verwendet, um die Wirksamkeit von Microsoft 365 Copilot bei der Minimierung schädlicher Inhalte zu verstehen.

Unsere Messpipelines ermöglichen es uns, schnell messungen auf potenzielle Risiken im großen Stil durchzuführen. Da wir neue Probleme während des Vorschauzeitraums und laufender Tests des roten Teams identifizieren, erweitern und verbessern wir die Messsätze weiter, um zusätzliche Risiken zu bewerten.

Verwalten

Da wir potenzielle Risiken und Missbrauch durch Prozesse wie Red Team Testing identifiziert und gemessen haben, entwickelten wir Entschärfungen, um das Schadenspotenzial zu reduzieren. Im Folgenden werden einige dieser Entschärfungen beschrieben. Wir überwachen weiterhin die Microsoft 365 Copilot Erfahrungen, um die Produktleistung und Die Risikominderungen zu verbessern.

  • Stufenweise Freigabe, kontinuierliche Auswertung. Wir sind bestrebt, unseren verantwortungsvollen KI-Ansatz kontinuierlich zu lernen und zu verbessern, wenn sich unsere Technologien und unser Benutzerverhalten weiterentwickeln. Wir nehmen regelmäßig Änderungen an Microsoft 365 Copilot vor, um die Produktleistung zu verbessern, vorhandene Risikominderungen zu verbessern und als Reaktion auf unsere Erkenntnisse neue Risikominderungen zu implementieren.

  • Erdung in Geschäftsdaten. Ein bekanntes Risiko bei großen Sprachmodellen ist ihre Fähigkeit, nicht geerdeten Inhalt zu generieren– Inhalte, die korrekt erscheinen, aber nicht in Quellmaterialien vorhanden sind. Eine wichtige Entschärfung in Microsoft 365 Copilot besteht darin, KI-generierte Inhalte in relevanten Geschäftsdaten zu erfassen, auf die der Benutzer basierend auf seinen Berechtigungen Zugriff hat. Basierend auf der Benutzeraufforderung wird Microsoft 365 Copilot beispielsweise mit relevanten Geschäftsdokumenten bereitgestellt, um seine Antwort in diesen Dokumenten zu stützen. Bei der Zusammenfassung von Inhalten aus verschiedenen Quellen können Microsoft 365 Copilot jedoch Informationen in der Antwort enthalten, die in ihren Eingabequellen nicht vorhanden sind. Mit anderen Worten, es kann zu nicht geerdeten Ergebnissen führen. Benutzer sollten bei der Verwendung von Ausgaben von Microsoft 365 Copilot immer vorsichtig sein und ihr bestes Urteilsvermögen verwenden. Wir haben mehrere Maßnahmen ergriffen, um das Risiko zu verringern, dass Benutzer sich zu stark auf nicht durch KI generierte Inhalte verlassen können. Antworten in Microsoft 365 Copilot, die auf Geschäftsdokumenten basieren, enthalten nach Möglichkeit Verweise auf die Quellen, damit Benutzer die Antwort überprüfen und mehr erfahren können. Benutzern wird auch explizit mitgeteilt, dass sie mit einem KI-System interagieren, und es wird empfohlen, die Quellmaterialien zu überprüfen, damit sie ihr bestes Urteilsvermögen verwenden können.

  • KI-basierte Klassifizierer und Metaprompting zur Minimierung potenzieller Risiken oder Missbrauch. Die Verwendung von LLMs kann problematische Inhalte erzeugen, die zu Schäden führen können. Beispiele hierfür sind Ausgaben im Zusammenhang mit Selbstverletzung, Gewalt, grafischen Inhalten, geschütztem Material, ungenauen Informationen, hasserfüllten Äußerungen oder Text, der sich auf illegale Aktivitäten beziehen könnte. Klassifizierer wie die in Azure KI Inhaltssicherheit und Metaprompting verfügbaren sind zwei Beispiele für Entschärfungen, die in Microsoft 365 Copilot implementiert wurden, um das Risiko dieser Art von Inhalt zu verringern. Klassifizierer klassifizieren Text, um verschiedene Arten potenziell schädlicher Inhalte in Benutzeraufforderungen oder generierten Antworten zu kennzeichnen. Microsoft 365 Copilot verwendet KI-basierte Klassifizierer und Inhaltsfilter. Flags führen zu potenziellen Gegenmaßnahmen, z. B. dass keine generierten Inhalte an den Benutzer zurückgegeben werden oder der Benutzer zu einem anderen Thema umgeleitet wird. Metaprompting umfasst die Bereitstellung von Anweisungen für das Modell, um sein Verhalten zu steuern, einschließlich, damit sich das System in Übereinstimmung mit den KI-Prinzipien von Microsoft und den Erwartungen der Benutzer verhält. Der Metaprompt kann z. B. eine Zeile wie "Kommunikation in der Sprache der Wahl des Benutzers" enthalten.

  • Aufforderungsanreicherung. In einigen Fällen kann die Eingabeaufforderung eines Benutzers mehrdeutig sein. In diesem Fall können Microsoft 365 Copilot die LLM verwenden, um weitere Details in der Eingabeaufforderung zu erstellen, um sicherzustellen, dass Benutzer die gesuchte Antwort erhalten. Eine solche Prompt-Anreicherung basiert nicht auf dem Wissen des Benutzers oder seiner vorherigen Suchvorgänge, sondern auf dem LLM.

  • Benutzerzentrierter Entwurf und Eingriffe in die Benutzerfreundlichkeit. Benutzerzentriertes Design und Benutzeroberflächen sind ein wesentlicher Aspekt des Microsoft-Ansatzes für verantwortungsvolle KI. Ziel ist es, das Produktdesign in den Bedürfnissen und Erwartungen der Benutzer zu verwurzeln. Da Benutzer zum ersten Mal mit Microsoft 365 Copilot interagieren, bieten wir verschiedene Touchpoints an, die ihnen helfen sollen, die Funktionen des Systems zu verstehen, ihnen mitzuteilen, dass Microsoft 365 Copilot von KI unterstützt wird, und um Einschränkungen zu kommunizieren.

  • KI-Offenlegung. Microsoft 365 Copilot bietet mehrere Touchpoints für eine aussagekräftige KI-Offenlegung, bei der Benutzer benachrichtigt werden, dass sie mit einem KI-System interagieren, sowie Möglichkeiten, mehr über Microsoft 365 Copilot zu erfahren. Wenn Sie beispielsweise Microsoft 365 Copilot in der Word-App verwenden, werden KI-generierte Inhalte zusammen mit dem Hinweis angezeigt, dass KI-generierte Inhalte Fehler enthalten können. Die Unterstützung von Benutzern mit diesem Wissen kann ihnen helfen, sich nicht übermäßig auf KI-generierte Ausgaben zu verlassen und sich über die Stärken und Einschränkungen des Systems zu informieren.

  • Medien provenienz. Für alle Bilder, die mit den Bearbeitungsfunktionen von Designer aus Microsoft 365 Copilot erstellt wurden, haben wir Inhaltsanmeldeinformationen implementiert, die auf dem C2PA-Standard basieren, um Personen zu helfen, zu erkennen, ob Bilder mit KI bearbeitet oder generiert wurden. Provenienzmetadaten können auf der Website mit den Inhaltsanmeldeinformationen angezeigt werden.

  • Feedback und laufende Auswertung. Die Microsoft 365 Copilot-Erfahrung baut auf vorhandenen Tools auf, mit denen Benutzer Feedback zu unseren Produkten übermitteln können. Benutzer können Feedback zu Inhalten übermitteln, die von Microsoft 365 Copilot generiert wurden, indem sie den Bereich verwenden, der nach dem Auswählen der Schaltflächen "Daumen nach oben" oder "Daumen nach unten" in Antworten angezeigt wird. Feedback von Benutzern wird verwendet, um unsere Angebote im Rahmen unserer Verpflichtung zur Verbesserung der Produktleistung zu verbessern. Kundenadministratoren können das im Microsoft 365 Admin Center übermittelte Feedback überprüfen. Im Rahmen unserer kontinuierlichen Bewertung und Verbesserung des Dienstes verbessern und testen wir auch die Leistung von Microsoft 365 Copilot und spezifischen Risikominderungen. Weitere Informationen finden Sie unter Bereitstellen von Feedback zu Microsoft Copilot mit Microsoft 365-Apps.

Unser Ansatz zum Zuordnen, Messen und Verwalten von Risiken wird sich weiterentwickeln, wenn wir mehr erfahren, und wir nehmen bereits Verbesserungen auf der Grundlage von Feedback vor, das wir von Kunden erhalten haben.

Evaluieren und Integrieren von Microsoft 365 Copilot für Ihre organization

Optimierung der Bereitstellung & Einführung

Microsoft stellt Tools wie das Microsoft Copilot-Dashboard für Microsoft 365-Kunden und Berichte im Microsoft 365 Admin Center bereit. Diese Tools sollen Organisationen dabei unterstützen, die Nutzung, Einführung und die Auswirkungen von Microsoft 365 Copilot zu messen. Zum Beispiel:

  • Microsoft 365 Copilot Nutzungsbericht können Administratoren eine Zusammenfassung der Einführung, Aufbewahrung und Interaktion von Benutzern mit Microsoft 365 Copilot anzeigen. Weitere Informationen finden Sie unter verwendung von Microsoft 365 Copilot.

  • Die Einführungsbewertung bietet Administratoren Einblicke in die Funktionsweise ihrer organization mit Microsoft 365 Copilot. Es bietet eine Bewertung auf einer 100-Punkte-Skala, eine Dashboard Ansicht der Einführungsdaten & Trends und ein Tool zum Erstellen von Benutzerumfragen, um Feedback zu sammeln.

  • Die Dashboard Experience Insights (Vorschau) zeigt Nutzungsdaten an, um einen umfassenderen Überblick über die Erfahrung eines organization mit Microsoft 365 zu erhalten, einschließlich Einblicken in Schulungen, Apps und Dienstdaten sowie Benutzerfeedback.

Weitere Informationen zu Microsoft 365 Copilot

Weitere Informationen zu verantwortungsvoller KI