Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
👋 Hallo! Wir haben unten ein Glossar mit der wichtigsten Terminologie eingefügt.
| Ausdruck/Wort | Definition |
|---|---|
| Vertreter | Ein Agent ist eine künstliche Intelligenz, die Fragen beantworten und Prozesse für Benutzer automatisieren kann. Es gibt ein breites Spektrum an Agents, die erstellt werden können, von einfachen Chat-Bots bis hin zu vollautomatisierten KI-Assistenten. Mit dem semantischen Kernel bieten wir Ihnen die Tools, um immer komplexere Agents zu erstellen, für die Sie kein KI-Experte sein müssen. |
| API | Anwendungsprogrammierschnittstelle. Eine Reihe von Regeln und Spezifikationen, die es Softwarekomponenten ermöglichen, Daten zu kommunizieren und auszutauschen. |
| Selbstständig | Mittel, die auf Reize mit minimalem menschlichem Eingriff reagieren können. |
| Chatbot | Ein einfacher Hin- und Her-Chat mit einem Benutzer und AI-Agent. |
| Steckverbinder | Connectors ermöglichen es Ihnen, vorhandene APIs (Application Programming Interface) in LLMs (Large Language Models) zu integrieren. Beispielsweise kann ein Microsoft Graph-Connector verwendet werden, um die Ausgabe einer Anforderung in einer E-Mail automatisch zu senden oder eine Beschreibung der Beziehungen in einem Organigramm zu erstellen. |
| Kopilot | Agents, die nebeneinander mit einem Benutzer arbeiten, um eine Aufgabe abzuschließen. |
| Kernel | Ähnlich wie beim Betriebssystem ist der Kernel für die Verwaltung von Ressourcen verantwortlich, die zum Ausführen von "Code" in einer KI-Anwendung erforderlich sind. Dazu gehört die Verwaltung der KI-Modelle, Dienste und Plug-Ins, die sowohl für systemeigene Code- als auch KI-Dienste erforderlich sind, um zusammen zu laufen. Da der Kernel über alle Dienste und Plug-Ins verfügt, die zum Ausführen von systemeigenem Code und AI-Diensten erforderlich sind, wird er von fast jeder Komponente im Semantic Kernel SDK verwendet. Dies bedeutet, dass, wenn Sie eine Eingabeaufforderung oder einen Code im semantischen Kernel ausführen, er immer durch einen Kernel läuft. |
| LL.M. (Master of Laws) | Große Sprachmodelle sind Künstliche Intelligenz-Tools, die Text in Form von Sätzen zusammenfassen, lesen oder generieren können, ähnlich wie ein Mensch spricht und schreibt. LLMs können in verschiedene Produkte von Microsoft integriert werden, um einen umfassenderen Benutzerwert zu finden. |
| Arbeitsspeicher | Erinnerungen sind eine leistungsstarke Möglichkeit, um einen breiteren Kontext für Ihre Frage bereitzustellen. Traditionell haben wir den Speicher immer als eine Kernkomponente der Funktionsweise von Computern betrachtet: Denken Sie an den RAM in Ihrem Laptop. Mit nur einer CPU, die Zahlen verarbeiten kann, ist der Computer nicht sehr nützlich, es sei denn, er weiß, welche Zahlen für Sie wichtig sind. Erinnerungen sind das, was die Berechnung für die jeweilige Aufgabe relevant macht. |
| Plug-Ins | Um diesen Plan zu generieren, benötigt der Copilot zunächst die erforderlichen Funktionen, um diese Schritte auszuführen. Hier kommen Plug-Ins ins. Plugins ermöglichen Ihnen, Ihrem Agenten Fähigkeiten durch Programmierung zu geben. Sie können beispielsweise ein Plug-In erstellen, das E-Mails sendet, Informationen aus einer Datenbank abruft, Hilfe fordert oder sogar Erinnerungen aus vorherigen Unterhaltungen speichert und abruft. |
| Planer | Um ein Plug-In zu verwenden (und mit anderen Schritten zu verbinden), müsste der Copilot zuerst einen Plan generieren. Hier kommen Planer ein. Planners sind spezielle Eingabeaufforderungen, mit denen ein Agent einen Plan zum Ausführen einer Aufgabe generieren kann. Die einfachsten Planer sind lediglich eine einzige Eingabeaufforderung, mit der der Agent Funktionsaufrufe nutzt, um eine Aufgabe auszuführen. |
| Eingabeaufforderungen | Eingabeaufforderungen spielen eine wichtige Rolle bei der Kommunikation und der Leitung des Verhaltens großer Sprachmodelle (LLMs). Sie dienen als Eingaben oder Abfragen, die Benutzer bereitstellen können, um bestimmte Antworten von einem Modell zu erzwischen. |
| Prompt-Engineering | Aufgrund der menge an Kontrolle, die vorhanden ist, ist prompt engineering eine wichtige Fähigkeit für alle, die mit LLM AI-Modellen arbeiten. Es ist auch eine Fähigkeit, die sehr gefragt ist, da mehr Organisationen LLM AI-Modelle einführen, um Aufgaben zu automatisieren und die Produktivität zu verbessern. Ein guter Prompt-Entwickler kann Organisationen helfen, ihre LLM-KI-Modelle optimal zu nutzen, indem sie Aufforderungen entwerfen, die die gewünschten Ergebnisse erzeugen. |
| RAG | Abruf-gestützte Generierung – ein Begriff, der sich auf den Prozess bezieht, zusätzliche Daten abzurufen, um sie einem LLM als Kontext zur Verfügung zu stellen, die beim Generieren einer Antwort auf die Frage (Eingabeaufforderung) eines Benutzers verwendet werden sollen. |