Auf Englisch lesen

Freigeben über


Copilot-Glossar

copilot – Copilots sind Assistenten in natürlicher Sprache, die bei kreativen Aufgaben helfen, Erkenntnisse generieren, automatisierte Workflows ausführen und vieles mehr. Copiloten bestehen aus Workflows, Aktionen, Wissen und Triggern, die von einem oder mehreren Basismodellen und einem Orchestrator unterstützt werden, der die Vorgänge des Copiloten überwacht und synchronisiert. Copilots können generative KI-Funktionen in Apps und Webdiensten unterstützen und als Copilot-Erweiterungen veröffentlicht werden, um Microsoft Copilot zu erweitern und anzupassen.

Custom Copilot – ist eine benutzerdefinierte Version von Microsoft Copilot, die Anweisungen, zusätzliches und/oder benutzerdefiniertes Wissen und jede Kombination von Fähigkeiten kombiniert.

Azure OpenAI Service – ein API-Dienst, mit dem Entwickler die besten LLMs von OpenAI mit den Garantien abfragen können, die Endbenutzer von Microsoft erwarten.

Azure AI Studio – eine Pro-Code-Entwicklungsplattform, die vollständige Anpassung und Kontrolle über generative KI-Anwendungen und -Modelle mit flexiblen und integrierten visuellen und Code-First-Tools sowie vordefinierten Schnellstartvorlagen bietet.

Microsoft Copilot – eine zugängliche, zusammenhängende KI-Schnittstelle, die Benutzern basierend auf ihren Anforderungen und Vorlieben Zugriff auf KI-Funktionen bietet und gleichzeitig in Microsoft-Produkte integriert wird, um den Nutzen zu maximieren. Microsoft Copilot ist Ihr alltäglicher KI-Begleiter.

Microsoft Copilot Studio – Ein Tool mit wenig oder keinem Code, mit dem Benutzer künstliche Intelligenz problemlos in jedes M365- oder Power Platform-Produkt integrieren können, das vorgefertigte und benutzerdefinierte KI-Modelle und -Systeme für Aufgaben wie Formularverarbeitung, Objekterkennung, Vorhersage und vieles mehr bietet.

Copilot-Erweiterungen : Eine Copilot-Erweiterung, die Microsoft Copilot mit benutzerdefinierten Copiloten anpasst und verbessert, um neue Aktionen und benutzerdefiniertes Wissen für die Erdung in Copilot zu ermöglichen. Mit Copilot-Erweiterungen können Benutzer eine Microsoft Copilot-Erfahrung erhalten, die auf die Daten, Systeme und Workflows zugeschnitten ist, die sie täglich verwenden. Plug-Ins – eine Art copilot-Erweiterung. Microsoft hat ein neues Plug-In-Manifest definiert, das die Möglichkeit entsperrt, ein Plug-In einmal zu schreiben und es überall auf jeder Copilot-Oberfläche auszuführen. Plug-Ins sollten als atomisches, funktionales Erweiterbarkeitsartefakt betrachtet werden, das mit jeder anderen Copilot-Erweiterung zusammengesetzt werden kann.

Microsoft Copilot-Connectors – eine Art von Copilot-Erweiterung für wenig und keinen Code über Microsoft Copilot Studio. Copilot-Connectors bündeln Funktionen und Daten aus Microsoft Graph-Connectors, Power Platform-Connectors und Microsoft Fabric.

Microsoft Graph-Connectors – entweder von Entwicklern individuell erstellt oder vordefinierte Connectors, die von IT-Administratoren aktiviert werden und Daten aus LoB-, lokalen und SaaS-Diensten in Microsoft Graph indizieren, um die Funktionen intelligenter Dienste wie Microsoft Copilot, Search und ContextIQ zusammen mit M365-Daten und -Inhalten zu erweitern.

Power Platform-Connectors : Connectors, mit denen Microsoft Power Platform mit externen Datenquellen und Diensten interagieren kann.

Teams-Nachrichtenerweiterung – ein Feature von Microsoft Teams, mit dem Benutzer Aktionen in einem Webdienst oder einem externen System über ein einfaches UX-Element namens Adaptive Karte suchen oder initiieren können. Diese sind jetzt alle als Plug-Ins verwendbar.

Eingabeaufforderung : Die Eingabe für ein generatives KI-Modell, aus dem eine Ausgabe generiert wird (häufig als "Antwort" oder "Abschluss" bezeichnet). In der Regel text, aber multimodale Modelle können Text, Bilder, Audio oder eine Kombination davon als Eingabeaufforderung verwenden.

Verantwortungsvolle KI (RAI): Ist eine Reihe von Normen und Standards, die Microsoft definieren möchte, um die sichere Nutzung von KI zum Nutzen der Gesellschaft im Großen und Ganzen durch Governance, interne Richtlinien, Aktivierung, externes Engagement und Vordenker voranzutreiben.

Basismodell : Ein KI-Modell, das mit umfangreichen Daten trainiert wird, sodass es in einer Vielzahl von Anwendungsfällen angewendet werden kann, um Aufgaben wie Sprachverarbeitung, visuelles Verständnis, Textgenerierung, Codeschreiben und vieles mehr zu unterstützen. Siehe auch: LLM, SLM.

Generative KI – eine Form von KI, die sich durch die Fähigkeit auszeichnet, natürliche Sprache oder menschlichere Inhalte zu erstellen, die von Eingabeeingabeaufforderungen vorgeschlagen werden, einschließlich Prosa, Verse, Musik und Bildern. GPT : (generativer vortrainter Transformator) eine Klasse von Basismodellen, die von OpenAI erstellt und von OpenAI und Azure gehostet werden. Ein aktuelles Modell in dieser Klasse ist "GPT-4 Turbo".

Grounding – ist der Prozess der Verknüpfung von abstraktem Wissen in KI-Systemen mit spezifischen, realen Inhalten. Es erhöht die Genauigkeit des Verständnisses und der Interaktion mit realen Daten durch KI-Agents.

LLMs (Large Language Models) – generative KI-Modelle, die mit einer riesigen Menge an Daten trainiert werden, um menschenähnliche Antworten auf Abfragen natürlicher Sprache zu erzeugen, in der Regel über einen Chatbot. Siehe auch: Foundation-Modell.

LLMOps : Optimierter Ablauf für die End-to-End-Entwicklung von LLM-gestützten Anwendungen von der Idee bis zur Operationalisierung.

Low-Code : Umfasst in der Regel grafische/visuelle Schnittstellen und minimale Codierung, um eine schnelle, barrierefreie Anwendungsentwicklung zu ermöglichen. Im Gegensatz zu Pro-Code-Tools werden die meisten, wenn nicht alle zugrunde liegenden Konzepte und Technologien von der Benutzererfahrung abstrahiert.

MLOps : Optimierter Ablauf für die End-to-End-Entwicklung einer Machine Learning-Anwendung von der Ideenfindung bis zur Operationalisierung. MLOps unterscheidet sich von LLMOps in Bezug auf Zielgruppe, Fokus und insbesondere durch Herausforderungen, die durch Anforderungen und Ressourcen für die Verarbeitung natürlicher Sprache verursacht werden. Pro-Code – umfasst die Möglichkeit, die Modell- und Anwendungsleistung tief anzupassen und zu steuern. Dies kann guin-basierte Konfigurations- und Verwaltungsfunktionen zusätzlich zur Code-First-Schnittstelle umfassen, die ein tiefes Verständnis der zugrunde liegenden Konzepte und Technologien erfordern. RAG (Retrieval-Augmented Generation) ist ein Prozess, mit dem KI-Modelle relevante Informationen aus einer Wissensquelle abrufen und in generierten Text integrieren können. Dies ist ein Künstliche Intelligenz-Framework zur Verbesserung der Qualität der von Modellen generierten Antworten, indem das Modell auf externen Wissensquellen geerdet wird, um seine interne Darstellung von Informationen zu ergänzen.