Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
In diesem Artikel wird erläutert, wie Sie die Modellversion und die Einstellungen im Prompt Builder ändern. Die Modellversion und die Einstellungen können sich auf die Leistung und das Verhalten des generativen KI-Modells auswirken.
Modellversion
Sie können die Modellversion ändern, indem Sie oben im Prompt-Builder Modell auswählen. Im Dropdown-Menü können Sie aus den generativen KI-Modellen auswählen, die Antworten auf Ihre benutzerdefinierte Eingabeaufforderung generieren.
Das Standardmodell ab November 2024 ist GPT-4o mini (allgemein verfügbar oder GA). Sie können auch das leistungsstärkere GPT-4o Modell (GA), das o1-Modell (kostenpflichtige öffentliche Vorschauversion) oder das GPT 4 .1-Modell (kostenpflichtige öffentliche Vorschauversion) verwenden. Die genauen Nebenversionen dieser Modelle können sich ändern.
Die Verwendung von Prompts in Power Apps oder Power Automate verbraucht AI Builder-Credits, während die Verwendung von Prompts in Copilot Studio Nachrichten verbraucht. Weitere Informationen finden Sie unter AI Builder-Lizenzierung und Creditverwaltung.
Modelldetails
GPT-Modell | Status | Lizenzierungsregeln | Funktionalitäten | Regionale Verfügbarkeit |
---|---|---|---|---|
GPT 4o Mini | GA - Standardmodell | Verbraucht Guthaben in Power Apps und Power Automate. Weitere Informationen: Power Platform Lizenzleitfaden Verbrauchte Nachrichten in Microsoft Copilot Studio. Weitere Informationen: Nachricht in Copilot Studio senden |
Trainiert mit Daten bis Oktober 2023. Kontext erlaubt bis zu 128.000 Tokens. | Featureverfügbarkeit für Prompts nach Regionen |
GPT 4o | AV | Verbraucht Guthaben in Power Apps und Power Automate. Weitere Informationen: Power Platform Lizenzleitfaden Verbrauchte Nachrichten in Copilot Studio. Weitere Informationen: Nachricht in Copilot Studio senden |
Trainiert mit Daten bis Oktober 2023. Kontext erlaubt bis zu 128.000 Tokens. | Featureverfügbarkeit für Prompts nach Regionen |
o1 | Bezahlte öffentliche Vorschauversion | Verbraucht Guthaben in Power Apps und Power Automate. Weitere Informationen: Power Platform-Lizenzleitfaden Verbrauchte Nachrichten in Copilot Studio. Weitere Informationen: Nachricht in Copilot Studio senden |
Trainiert mit Daten bis Oktober 2023. Der Kontext erlaubte bis zu 200.000 Token. | Featureverfügbarkeit für Prompts nach Regionen |
GPT 4.1 | Bezahlte öffentliche Vorschauversion | Verbraucht Guthaben in Power Apps und Power Automate. Verbrauchte Nachrichten in Copilot Studio. GPT 4 .1-Modell ist ein Standardmodell und verbraucht die gleichen Verbrauchsraten wie GPT 4o. |
Trainiert mit Daten bis Juni 2024. Im Kontext sind bis zu 1 Mio. Token zulässig. | Featureverfügbarkeit für Prompts nach Regionen |
Wählen Sie zwischen den Modellen basierend auf Funktionen und Szenarien.
Vergleich der Modelle
Faktoren | GPT-4o Mini (Standard) | GPT-4o, GPT 4.1 | o1 |
---|---|---|---|
Kosten | Niedrigere Kosten, kostengünstiger | Standardpreis | Premium-Preise (kostenpflichtige Vorschauversion) |
Leistung | Gut für die meisten Aufgaben | Überlegenheit bei komplexen Aufgaben | Trainiert für Aufgaben zur Problemlösung |
Geschwindigkeit | Schnellere Verarbeitung | Kann aufgrund der Komplexität langsamer sein | Langsamer, da er überlegt, bevor er antwortet |
Anwendungsfälle | Aufgaben bezüglich Zusammenfassung, Informationsverarbeitung | Bild- und Dokumentenverarbeitung und komplexe Aufgaben zur Erstellung von Inhalten | Komplexe Datenanalyse- und Schlussfolgerungsaufgaben |
Entscheidungsnarrativ
Wenn Sie eine kostengünstige Lösung für mäßig komplexe Aufgaben benötigen, über begrenzte Rechenressourcen verfügen oder eine schnellere Verarbeitung wünschen, wählen Sie GPT-4o Mini. Es ist ideal für Projekte mit Budgetbeschränkungen und Anwendungen wie Kundensupport oder effiziente Codeanalyse.
Wenn Sie es mit hochkomplexen, multimodalen Aufgaben zu tun haben, die eine überragende Leistung und detaillierte Analyse erfordern, wählen Sie GPT-4o oder GPT 4.1. Es ist die bessere Wahl für Großprojekte, bei denen Genauigkeit und erweiterte Funktionen entscheidend sind. Ein anderes Szenario, in dem es eine bessere Wahl ist, ist, wenn Sie über das Budget und die Rechenressourcen verfügen, um es zu unterstützen. GPT-4o ist auch für langfristige Projekte vorzuziehen, die im Laufe der Zeit an Komplexität zunehmen können.
Für Projekte, die erweiterte Schlussfolgerungsfähigkeiten erfordern, eignet sich das o1-Modell hervorragend. Es eignet sich für Szenarien, die eine ausgefeilte Problemlösung und kritisches Denken erfordern. Das o1-Modell zeichnet sich in Umgebungen aus, in denen nuanciertes Schlussfolgerungen, komplexe Entscheidungsfindung und detaillierte Analysen wichtig sind.
Modelleinstellungen
Sie können auf den Einstellungsbereich zugreifen, indem Sie oben im Prompt-Builder ...>Einstellungen auswählen. Sie können die folgenden Einstellungen ändern:
- Temperatur: Niedrigere Temperaturen führen zu vorhersehbaren Ergebnissen, während höhere Temperaturen vielfältigere oder kreativere Antworten ermöglichen.
- Datensatz abrufen: Anzahl der Datensätze, die für Ihre Wissensquellen abgerufen wurden.
- Links in die Antwort einfügen: Wenn diese Option ausgewählt ist, enthält die Antwort Linkzitate für die abgerufenen Datensätze.
Temperatur
Mit dem Schieberegler können Sie die Temperatur des generativen KI-Modells auswählen. Er variiert zwischen 0 und 1 und gibt dem generativen KI-Modell vor, wie viel Kreativität (1) im Vergleich zur deterministischen Antwort (0) es liefern soll.
Die Temperatur ist ein Parameter, der die Zufälligkeit der vom KI-Modell generierten Ausgabe steuert. Eine niedrigere Temperatur führt zu vorhersehbareren und konservativeren Ergebnissen. Im Vergleich dazu ermöglicht eine höhere Temperatur mehr Kreativität und Vielfalt bei den Reaktionen. Auf diese Weise lässt sich das Gleichgewicht zwischen Zufälligkeit und Determinismus in der Ausgabe des Modells feinabstimmen.
Standardmäßig ist die Temperatur 0, wie in zuvor erstellten Eingabeaufforderungen.
Temperatur | Funktionalität | Verwenden in |
---|---|---|
0 | Vorhersehbarere und konservativere Ergebnisse. Die Antworten sind konsistenter. |
Eingabeaufforderungen, die eine hohe Genauigkeit und weniger Variabilität erfordern. |
1 | Mehr Kreativität und Vielfalt in den Antworten. Vielfältigere und manchmal innovativere Antworten. |
Eingabeaufforderungen, die sofort einsatzbereite neue Inhalte erstellen |
Das Anpassen der Temperatur kann die Ausgabe des Modells beeinflussen, garantiert aber kein bestimmtes Ergebnis. Die Antworten der KI sind von Natur aus probabilistisch und können selbst bei derselben Temperatureinstellung variieren.
Anmerkung
Die Temperatureinstellung ist für das o1-Modell nicht verfügbar, daher ist der Schieberegler deaktiviert, wenn das o1-Modell ausgewählt ist.
Bevorstehende Modell-Updates
- In der ersten Juliwoche 2025 wird das Modell 4o mini durch das Modell 4.1 mini ersetzt. Zu diesem Zeitpunkt werden vorhandene Eingabeaufforderungen, die auf 4o mini ausgeführt werden, auf 4.1 mini ausgeführt, und das Standardmodell wird 4.1 mini sein.
- 4.1 Mini-Tarife in Credits und Nachrichten sind die gleichen wie bei 4o mini, sodass sich aus Lizenzsicht nichts ändert.
- Die Mini-Version 4.1 wird mit einem höheren maximalen Kontextfenster (1 Mio. Token) und Unterstützung für die Eingabe von Bildern und Dokumenten geliefert.
Das Modell 4.1 wird in der zweiten Julihälfte 2025 allgemein verfügbar sein, und das Modell 4o wird im gleichen Zeitraum durch dieses Modell 4.1 ersetzt. Das bedeutet, dass bestehende Eingabeaufforderungen, die auf 4o laufen, nach diesem Update auf 4.1 ausgeführt werden.