Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Die Azure OpenAI-Reasoning-Modelle sind für Begründungs- und Problemlösungsaufgaben mit erhöhtem Fokus und mehr Funktionalität konzipiert. Diese Modelle verbringen mehr Zeit damit, die Anforderung des Benutzers zu verarbeiten und zu verstehen, wodurch sie im Vergleich zu früheren Iterationen außergewöhnlich stark in Bereichen wie Wissenschaft, Codierung und Mathematik sind.
Wichtige Funktionen von Reasoning-Modellen:
- Komplexe Code-Generierung: Kann Algorithmen generieren und fortgeschrittene Programmieraufgaben zur Unterstützung von Entwicklern durchführen.
- Fortgeschrittene Problemlösung: Ideal für umfassende Brainstorming-Sitzungen und die Bewältigung vielschichtiger Herausforderungen.
- Komplexer Dokumentenvergleich: Perfekt für die Analyse von Verträgen, Akten oder juristischen Dokumenten, um subtile Unterschiede zu erkennen.
- Anweisungsbefolgung und Workflow-Management: Besonders effektiv bei der Verwaltung von Workflows, die kürzere Kontexte erfordern.
Verwendung
Diese Modelle unterstützen derzeit nicht denselben Satz von Parametern wie andere Modelle, welche die Chatabschluss-API verwenden.
API für Chatabschlusse
using Azure.Identity;
using OpenAI;
using OpenAI.Chat;
using System.ClientModel.Primitives;
#pragma warning disable OPENAI001 //currently required for token based authentication
BearerTokenPolicy tokenPolicy = new(
new DefaultAzureCredential(),
"https://cognitiveservices.azure.com/.default");
ChatClient client = new(
model: "o4-mini",
authenticationPolicy: tokenPolicy,
options: new OpenAIClientOptions()
{
Endpoint = new Uri("https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1")
}
);
ChatCompletionOptions options = new ChatCompletionOptions
{
MaxOutputTokenCount = 100000
};
ChatCompletion completion = client.CompleteChat(
new DeveloperChatMessage("You are a helpful assistant"),
new UserChatMessage("Tell me about the bitter lesson")
);
Console.WriteLine($"[ASSISTANT]: {completion.Content[0].Text}");
Begründungsaufwand
Hinweis
Begründungsmodelle enthalten reasoning_tokens als Teil von completion_tokens_details in der Modellantwort. Hierbei handelt es sich um ausgeblendete Tokens, die nicht als Teil des Nachrichtenantwortinhalts zurückgegeben werden, sondern vom Modell verwendet werden, um eine endgültige Antwort auf Ihre Anforderung zu generieren.
reasoning_effort kann für alle Reasoning-Modelle mit Ausnahme von low auf medium, high oder o1-mini festgelegt werden. GPT-5-Reasoning-Modelle unterstützen eine neue reasoning_effort-Einstellung von minimal. Je höher die Aufwandsstufe, desto länger wird das Modell für die Verarbeitung der Anforderung benötigen, was in der Regel zu einer größeren Anzahl von reasoning_tokens führt.
Entwicklernachrichten
Funktionsbezogene Entwicklernachrichten "role": "developer" sind identisch mit Systemnachrichten.
Das Hinzufügen einer Entwicklernachricht zum vorherigen Codebeispiel würde wie folgt aussehen:
using Azure.Identity;
using OpenAI;
using OpenAI.Chat;
using System.ClientModel.Primitives;
#pragma warning disable OPENAI001 //currently required for token based authentication
BearerTokenPolicy tokenPolicy = new(
new DefaultAzureCredential(),
"https://cognitiveservices.azure.com/.default");
ChatClient client = new(
model: "o4-mini",
authenticationPolicy: tokenPolicy,
options: new OpenAIClientOptions()
{
Endpoint = new Uri("https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1")
}
);
ChatCompletionOptions options = new ChatCompletionOptions
{
ReasoningEffortLevel = ChatReasoningEffortLevel.Low,
MaxOutputTokenCount = 100000
};
ChatCompletion completion = client.CompleteChat(
new DeveloperChatMessage("You are a helpful assistant"),
new UserChatMessage("Tell me about the bitter lesson")
);
Console.WriteLine($"[ASSISTANT]: {completion.Content[0].Text}");
Zusammenfassung der Gründe
Wenn Sie die neuesten Reasoning-Modelle mit der Antwort-API verwenden, können Sie den Parameter für die Begründungszusammenfassung verwenden, um Zusammenfassungen der Gedankenkette des Modells zu erhalten.
Von Bedeutung
Versuche, unverarbeitete Argumentation über andere Methoden als den Begründungs-Zusammenfassungsparameter zu extrahieren, können gegen die Richtlinie für akzeptable Nutzung verstoßen und zu Drosselung oder Aussetzung führen, wenn dies erkannt wird.
using OpenAI;
using OpenAI.Responses;
using System.ClientModel.Primitives;
using Azure.Identity;
#pragma warning disable OPENAI001 //currently required for token based authentication
BearerTokenPolicy tokenPolicy = new(
new DefaultAzureCredential(),
"https://cognitiveservices.azure.com/.default");
OpenAIResponseClient client = new(
model: "o4-mini",
authenticationPolicy: tokenPolicy,
options: new OpenAIClientOptions()
{
Endpoint = new Uri("https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1")
}
);
OpenAIResponse response = await client.CreateResponseAsync(
userInputText: "What's the optimal strategy to win at poker?",
new ResponseCreationOptions()
{
ReasoningOptions = new ResponseReasoningOptions()
{
ReasoningEffortLevel = ResponseReasoningEffortLevel.High,
ReasoningSummaryVerbosity = ResponseReasoningSummaryVerbosity.Auto,
},
});
// Get the reasoning summary from the first OutputItem (ReasoningResponseItem)
Console.WriteLine("=== Reasoning Summary ===");
foreach (var item in response.OutputItems)
{
if (item is ReasoningResponseItem reasoningItem)
{
foreach (var summaryPart in reasoningItem.SummaryParts)
{
if (summaryPart is ReasoningSummaryTextPart textPart)
{
Console.WriteLine(textPart.Text);
}
}
}
}
Console.WriteLine("\n=== Assistant Response ===");
// Get the assistant's output
Console.WriteLine(response.GetOutputText());
Hinweis
Selbst wenn diese Option aktiviert ist, werden Zusammenfassungen der Begründung nicht unbedingt für jeden Schritt/jede Anforderung generiert. Dieses Verhalten wird erwartet.
Python Lark
Reasoning-Modelle der GPT-5-Serie bieten die Möglichkeit, ein neues custom_tool mit dem Namen lark_tool aufzurufen. Dieses Tool basiert auf Python Lark und kann für eine flexiblere Einschränkung der Modellausgabe verwendet werden.
Antwort-API
{
"model": "gpt-5-2025-08-07",
"input": "please calculate the area of a circle with radius equal to the number of 'r's in strawberry",
"tools": [
{
"type": "custom",
"name": "lark_tool",
"format": {
"type": "grammar",
"syntax": "lark",
"definition": "start: QUESTION NEWLINE ANSWER\nQUESTION: /[^\\n?]{1,200}\\?/\nNEWLINE: /\\n/\nANSWER: /[^\\n!]{1,200}!/"
}
}
],
"tool_choice": "required"
}
Microsoft Entra-ID:
from openai import OpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider
token_provider = get_bearer_token_provider(
DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)
client = OpenAI(
base_url = "https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/",
api_key=token_provider,
)
response = client.responses.create(
model="gpt-5", # replace with your model deployment name
tools=[
{
"type": "custom",
"name": "lark_tool",
"format": {
"type": "grammar",
"syntax": "lark",
"definition": "start: QUESTION NEWLINE ANSWER\nQUESTION: /[^\\n?]{1,200}\\?/\nNEWLINE: /\\n/\nANSWER: /[^\\n!]{1,200}!/"
}
}
],
input=[{"role": "user", "content": "Please calculate the area of a circle with radius equal to the number of 'r's in strawberry"}],
)
print(response.model_dump_json(indent=2))
API-Schlüssel:
import os
from openai import OpenAI
client = OpenAI(
base_url = "https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/",
api_key=os.getenv("AZURE_OPENAI_API_KEY")
)
response = client.responses.create(
model="gpt-5", # replace with your model deployment name
tools=[
{
"type": "custom",
"name": "lark_tool",
"format": {
"type": "grammar",
"syntax": "lark",
"definition": "start: QUESTION NEWLINE ANSWER\nQUESTION: /[^\\n?]{1,200}\\?/\nNEWLINE: /\\n/\nANSWER: /[^\\n!]{1,200}!/"
}
}
],
input=[{"role": "user", "content": "Please calculate the area of a circle with radius equal to the number of 'r's in strawberry"}],
)
print(response.model_dump_json(indent=2))
Ausgabe:
{
"id": "resp_689a0cf927408190b8875915747667ad01c936c6ffb9d0d3",
"created_at": 1754926332.0,
"error": null,
"incomplete_details": null,
"instructions": null,
"metadata": {},
"model": "gpt-5",
"object": "response",
"output": [
{
"id": "rs_689a0cfd1c888190a2a67057f471b5cc01c936c6ffb9d0d3",
"summary": [],
"type": "reasoning",
"encrypted_content": null,
"status": null
},
{
"id": "msg_689a0d00e60c81908964e5e9b2d6eeb501c936c6ffb9d0d3",
"content": [
{
"annotations": [],
"text": "“strawberry” has 3 r’s, so the radius is 3.\nArea = πr² = π × 3² = 9π ≈ 28.27 square units.",
"type": "output_text",
"logprobs": null
}
],
"role": "assistant",
"status": "completed",
"type": "message"
}
],
"parallel_tool_calls": true,
"temperature": 1.0,
"tool_choice": "auto",
"tools": [
{
"name": "lark_tool",
"parameters": null,
"strict": null,
"type": "custom",
"description": null,
"format": {
"type": "grammar",
"definition": "start: QUESTION NEWLINE ANSWER\nQUESTION: /[^\\n?]{1,200}\\?/\nNEWLINE: /\\n/\nANSWER: /[^\\n!]{1,200}!/",
"syntax": "lark"
}
}
],
"top_p": 1.0,
"background": false,
"max_output_tokens": null,
"max_tool_calls": null,
"previous_response_id": null,
"prompt": null,
"prompt_cache_key": null,
"reasoning": {
"effort": "medium",
"generate_summary": null,
"summary": null
},
"safety_identifier": null,
"service_tier": "default",
"status": "completed",
"text": {
"format": {
"type": "text"
}
},
"top_logprobs": null,
"truncation": "disabled",
"usage": {
"input_tokens": 139,
"input_tokens_details": {
"cached_tokens": 0
},
"output_tokens": 240,
"output_tokens_details": {
"reasoning_tokens": 192
},
"total_tokens": 379
},
"user": null,
"content_filters": null,
"store": true
}
Chatvervollständigungen
{
"messages": [
{
"role": "user",
"content": "Which one is larger, 42 or 0?"
}
],
"tools": [
{
"type": "custom",
"name": "custom_tool",
"custom": {
"name": "lark_tool",
"format": {
"type": "grammar",
"grammar": {
"syntax": "lark",
"definition": "start: QUESTION NEWLINE ANSWER\nQUESTION: /[^\\n?]{1,200}\\?/\nNEWLINE: /\\n/\nANSWER: /[^\\n!]{1,200}!/"
}
}
}
}
],
"tool_choice": "required",
"model": "gpt-5-2025-08-07"
}
Verfügbarkeit
Verfügbarkeit der Region
| Modell | Region | Eingeschränkter Zugriff |
|---|---|---|
gpt-5.2-codex |
USA, Osten 2 und Schweden, Mitte (globaler Standard) | Zugriff anfordern: Anwendung mit eingeschränktem Zugriffsmodell. Wenn Sie bereits Zugriff auf ein beschränktes Zugriffsmodell haben, ist keine Anforderung erforderlich. |
gpt-5.2 |
Modellverfügbarkeit | Zugriff anfordern: Anwendung mit eingeschränktem Zugriffsmodell. Wenn Sie bereits Zugriff auf ein beschränktes Zugriffsmodell haben, ist keine Anforderung erforderlich. |
gpt-5.1-codex-max |
Modellverfügbarkeit | Zugriff anfordern: Anwendung mit eingeschränktem Zugriffsmodell. Wenn Sie bereits Zugriff auf ein beschränktes Zugriffsmodell haben, ist keine Anforderung erforderlich. |
gpt-5.1 |
Modellverfügbarkeit | Zugriff anfordern: Anwendung mit eingeschränktem Zugriffsmodell. Wenn Sie bereits Zugriff auf ein beschränktes Zugriffsmodell haben, ist keine Anforderung erforderlich. |
gpt-5.1-chat |
Modellverfügbarkeit | Es ist keine Zugriffsanforderung erforderlich. |
gpt-5.1-codex |
Modellverfügbarkeit | Zugriff anfordern: Anwendung mit eingeschränktem Zugriffsmodell. Wenn Sie bereits Zugriff auf ein beschränktes Zugriffsmodell haben, ist keine Anforderung erforderlich. |
gpt-5.1-codex-mini |
Modellverfügbarkeit | Es ist keine Zugriffsanforderung erforderlich. |
gpt-5-pro |
Modellverfügbarkeit | Zugriff anfordern: Anwendung mit eingeschränktem Zugriffsmodell. Wenn Sie bereits Zugriff auf ein beschränktes Zugriffsmodell haben, ist keine Anforderung erforderlich. |
gpt-5-codex |
Modellverfügbarkeit | Zugriff anfordern: Anwendung mit eingeschränktem Zugriffsmodell. Wenn Sie bereits Zugriff auf ein beschränktes Zugriffsmodell haben, ist keine Anforderung erforderlich. |
gpt-5 |
Modellverfügbarkeit | Zugriff anfordern: Anwendung mit eingeschränktem Zugriffsmodell. Wenn Sie bereits Zugriff auf ein beschränktes Zugriffsmodell haben, ist keine Anforderung erforderlich. |
gpt-5-mini |
Modellverfügbarkeit | Es ist keine Zugriffsanforderung erforderlich. |
gpt-5-nano |
Modellverfügbarkeit | Es ist keine Zugriffsanforderung erforderlich. |
o3-pro |
Modellverfügbarkeit | Zugriff anfordern: Anwendung mit eingeschränktem Zugriffsmodell. Wenn Sie bereits Zugriff auf ein beschränktes Zugriffsmodell haben, ist keine Anforderung erforderlich. |
codex-mini |
Modellverfügbarkeit | Es ist keine Zugriffsanforderung erforderlich. |
o4-mini |
Modellverfügbarkeit | Es ist keine Zugriffsanforderung erforderlich, um die Kernfunktionen dieses Modells zu verwenden. Anfordern des Zugriffs: o4-mini-Zusammenfassungsfeature für Begründungen |
o3 |
Modellverfügbarkeit | Zugriff anfordern: Anwendung mit eingeschränktem Zugriffsmodell |
o3-mini |
Modellverfügbarkeit. | Der Zugriff ist für dieses Modell nicht mehr eingeschränkt. |
o1 |
Modellverfügbarkeit. | Der Zugriff ist für dieses Modell nicht mehr eingeschränkt. |
API- und Feature-Unterstützung
| Funktion | gpt-5.2-codex | gpt-5.2 | gpt-5.1-codex-max | gpt-5.1, 2025-11-13 | gpt-5.1-chat, 2025-11-13 | gpt-5.1-codex, 2025-11-13 | gpt-5.1-codex-mini, 2025-11-13 | gpt-5-pro, 2025-10-06 | gpt-5-codex, 2025-09-011 | gpt-5, 2025-08-07 | gpt-5-mini, 2025-08-07 | gpt-5-nano, 2025-08-07 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|
| API-Version | v1 | v1 | v1 | v1 | v1 | v1 | v1 | v1 | v1 | v1 | v1 | v1 |
| Entwicklernachrichten | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
| Strukturierte Ausgaben | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
| Kontextfenster | 400.000 Eingabe: 272.000 Ausgabe: 128.000 |
400.000 Eingabe: 272.000 Ausgabe: 128.000 |
400.000 Eingabe: 272.000 Ausgabe: 128.000 |
400.000 Eingabe: 272.000 Ausgabe: 128.000 |
128,000 Eingabe: 111.616 Ausgabe: 16.384 |
400.000 Eingabe: 272.000 Ausgabe: 128.000 |
400.000 Eingabe: 272.000 Ausgabe: 128.000 |
400.000 Eingabe: 272.000 Ausgabe: 128.000 |
400.000 Eingabe: 272.000 Ausgabe: 128.000 |
400.000 Eingabe: 272.000 Ausgabe: 128.000 |
400.000 Eingabe: 272.000 Ausgabe: 128.000 |
400.000 Eingabe: 272.000 Ausgabe: 128.000 |
| Begründungsaufwand7 | ✅ | ✅ | ✅ 6 | ✅ 4 | ✅ | ✅ | ✅ | ✅ 5 | ✅ | ✅ | ✅ | ✅ |
| Bildeingabe | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
| Chatvervollständigungs-API | ✅ | - | ✅ | ✅ | - | - | - | - | ✅ | ✅ | ✅ | |
| Antwort-API | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
| Funktionen/Tools | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
| Parallele Toolaufrufe1 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | ✅ | ✅ | ✅ |
max_completion_tokens
2 |
- | ✅ | - | ✅ | ✅ | - | - | - | - | ✅ | ✅ | ✅ |
| Systemnachrichten 3 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
| Zusammenfassung der Begründung | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
| Streamen | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | ✅ | ✅ | ✅ |
1 Parallele Toolaufrufe werden nicht unterstützt, wenn reasoning_effort auf minimal festgelegt ist.
2 Reasoning-Modelle funktionieren nur mit dem max_completion_tokens Parameter, wenn die Chatabschluss-API verwendet wird. Verwenden Sie max_output_tokens mit der Antwort-API.
3 Die neuesten Reasoning-Modelle unterstützen Systemmeldungen, um die Migration zu vereinfachen. Sie sollten nicht sowohl eine Entwicklernachricht als auch eine Systemnachricht in derselben API-Anforderung verwenden.
4gpt-5.1reasoning_effort wird standardmäßig festgelegt auf none. Beachten Sie beim Upgraden von früheren Begründungsmodellen auf gpt-5.1, dass Sie möglicherweise Ihren Code aktualisieren müssen, um explizit eine reasoning_effort-Ebene zu übergeben, wenn Sie reasoning_effort ausführen möchten.
5gpt-5-pro unterstützt reasoning_efforthighnur , dies ist der Standardwert, auch wenn er nicht explizit an das Modell übergeben wird.
6gpt-5.1-codex-max fügt den Support für eine neue reasoning_effort Stufe von xhigh hinzu, die die höchste Stufe ist, auf die der Denkaufwand festgelegt werden kann.
7gpt-5.2, gpt-5.1, gpt-5.1-codex, gpt-5.1-codex-max und gpt-5.1-codex-mini unterstützen 'None' als Wert für den reasoning_effort Parameter. Wenn Sie diese Modelle verwenden möchten, um Antworten ohne Begründung zu generieren, legen Sie folgendes reasoning_effort='None'fest. Diese Einstellung kann die Geschwindigkeit erhöhen.
NEU Reasoning-Features für GPT-5
| Merkmal | BESCHREIBUNG |
|---|---|
reasoning_effort |
Nur xhigh wird mit gpt-5.1-codex-max unterstützt minimal wird jetzt mit Begründungsmodellen der GPT-5-Serie unterstützt.* none wird nur für gpt-5.1 Optionen: none, , minimal, lowmedium, , highxhigh |
verbosity |
Ein neuer Parameter, der eine genauere Kontrolle darüber bietet, wie präzise die Ausgabe des Modells sein wird. Optionen: low, medium, high. |
preamble |
Reasoning-Modelle der GPT-5-Serie haben die Möglichkeit, zusätzliche Zeit mit „Denken“ zu verbringen, bevor sie einen Funktions-/Toolaufruf ausführen. Wenn diese Planung erfolgt, kann das Modell Einblicke in die Planungsschritte in der Modellantwort über ein neues Objekt bereitstellen, das als preamble-Objekt bezeichnet wird.Die Generierung von Präambeln in der Modellantwort ist nicht garantiert, Sie können jedoch das Modell dabei unterstützen, indem Sie den instructions-Parameter verwenden und Inhalte übergeben wie „Du MUSST vor jedem Funktionsaufruf umfassend planen. Gib IMMER den Plan an den Benutzer aus, bevor eine Funktion aufgerufen wird“. |
| Zulässige Tools | Sie können unter tool_choice mehrere Tools und nicht nur eines angeben. |
| Benutzerdefinierter Tooltyp | Aktiviert Ausgaben als unformatierter Text (nicht json). |
lark_tool |
Ermöglicht Ihnen, einige der Funktionen von Python Lark für die flexiblere Einschränkung von Modellantworten zu verwenden. |
*
gpt-5-codex unterstützt reasoning_effort nur minimal.
Für weitere Informationen empfehlen wir auch das Lesen des GPT-5-Prompt-Cookbooks von OpenAI und das GPT-5-Funktionshandbuch.
Hinweis
- Um Timeouts im Hintergrundmodus zu vermeiden, wird es empfohlen,
o3-prozu verwenden. -
o3-prounterstützt zurzeit keine Bildgenerierung.
Nicht unterstützt
Folgende Elemente werden derzeit nicht mit Erläuterungsmodellen unterstützt:
-
temperature, ,top_ppresence_penalty,frequency_penalty,logprobs,top_logprobs, ,logit_biasmax_tokens
Markdown-Ausgabe
Standardmäßig versuchen die o3-mini- und o1-Modelle nicht, eine Ausgabe mit Markdown-Formatierung zu erstellen. Ein gängiger Anwendungsfall, bei dem dieses Verhalten nicht erwünscht ist, besteht, wenn das Modell Code ausgibt, der in einem Markdown-Codeblock enthalten ist. Wenn das Modell eine Ausgabe ohne Markdown-Formatierung generiert, gehen Funktionen wie Syntax-Hervorhebungen und kopierbare Codeblöcke in interaktiven Sandbox-Erfahrungen verloren. Um dieses neue Standardverhalten außer Kraft zu setzen und den Markdown-Einschluss in Modellantworten zu fördern, fügen Sie die Zeichenfolge Formatting re-enabled am Anfang Ihrer Entwicklernachricht hinzu.
Das Hinzufügen von Formatting re-enabled zum Anfang der Entwicklernachricht garantiert nicht, dass das Modell Markdown-Formatierung in seine Antwort einschließt, es erhöht nur die Wahrscheinlichkeit dafür. In internen Tests wurde herausgefunden, dass Formatting re-enabled mit dem Modell o1 weniger effektiv ist als mit o3-mini.
Um die Leistung von Formatting re-enabled zu verbessern, können Sie den Anfang der Entwicklernachricht weiter erweitern, was häufig zur gewünschten Ausgabe führt. Anstatt nur am Anfang Ihrer Entwicklernachricht Formatting re-enabled hinzuzufügen, können Sie das Hinzufügen einer aussagekräftigeren anfänglichen Anweisung probieren, z. B.:
Formatting re-enabled - please enclose code blocks with appropriate markdown tags.Formatting re-enabled - code output should be wrapped in markdown.
Je nach der von Ihnen erwarteten Ausgabe müssen Sie Ihre anfängliche Entwicklernachricht möglicherweise weiter an Ihren spezifischen Anwendungsfall anpassen.