Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Azure OpenAI-redeneringsmodellen zijn ontworpen om redenerings- en probleemoplossingstaken aan te pakken met meer focus en mogelijkheden. Deze modellen besteden meer tijd aan het verwerken en begrijpen van de aanvraag van de gebruiker, waardoor ze uitzonderlijk sterk zijn op gebieden als wetenschap, codering en wiskunde in vergelijking met eerdere iteraties.
Belangrijke mogelijkheden van redeneringsmodellen:
- Complexe codegeneratie: geschikt voor het genereren van algoritmen en het verwerken van geavanceerde coderingstaken ter ondersteuning van ontwikkelaars.
- Geavanceerde probleemoplossing: ideaal voor uitgebreide brainstormsessies en het aanpakken van uitdagingen met meerdere facetten.
- Complexe documentvergelijking: perfect voor het analyseren van contracten, casebestanden of juridische documenten om subtiele verschillen te identificeren.
- Instructies volgen en werkstroombeheer: met name effectief voor het beheren van werkstromen waarvoor kortere contexten nodig zijn.
Vereiste voorwaarden
Een Azure OpenAI-redeneringsmodel geïmplementeerd.
Als u de REST-voorbeelden gebruikt:
Installeer de Azure CLI. Zie Install the Azure CLI voor meer informatie.
Meld u aan met
az login, genereer vervolgens een Bearer-token en sla het op in deAZURE_OPENAI_AUTH_TOKENomgevingsvariabele.az account get-access-token --resource https://cognitiveservices.azure.com --query accessToken -o tsv
Usage
Deze modellen ondersteunen momenteel niet dezelfde set parameters als andere modellen die gebruikmaken van de API voor het voltooien van chats.
API voor voltooiing van chat
using Azure.Identity;
using OpenAI;
using OpenAI.Chat;
using System.ClientModel.Primitives;
#pragma warning disable OPENAI001 //currently required for token based authentication
BearerTokenPolicy tokenPolicy = new(
new DefaultAzureCredential(),
"https://ai.azure.com/.default");
ChatClient client = new(
model: "o4-mini",
authenticationPolicy: tokenPolicy,
options: new OpenAIClientOptions()
{
Endpoint = new Uri("https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1")
}
);
ChatCompletionOptions options = new ChatCompletionOptions
{
MaxOutputTokenCount = 100000
};
ChatCompletion completion = client.CompleteChat(
new DeveloperChatMessage("You are a helpful assistant"),
new UserChatMessage("Tell me about the bitter lesson")
);
Console.WriteLine($"[ASSISTANT]: {completion.Content[0].Text}");
Redeneringsinspanning
Opmerking
Redeneringsmodellen maken reasoning_tokens deel uit van completion_tokens_details het modelantwoord. Dit zijn verborgen tokens die niet worden geretourneerd als onderdeel van de inhoud van het berichtantwoord, maar worden door het model gebruikt om een definitief antwoord op uw aanvraag te genereren.
reasoning_effort kan worden ingesteld op low, mediumof high voor alle redeneringsmodellen, behalve o1-mini. GPT-5-redeneringsmodellen ondersteunen een nieuwe reasoning_effort instelling van minimal. Hoe hoger de inspanningsinstelling, hoe langer het model de aanvraag verwerkt, wat meestal resulteert in een groter aantal reasoning_tokens.
Berichten voor ontwikkelaars
Ontwikkelaarsberichten ("role": "developer") zijn functioneel hetzelfde als systeemberichten.
Het toevoegen van een ontwikkelaarsbericht aan het vorige codevoorbeeld ziet er als volgt uit:
using Azure.Identity;
using OpenAI;
using OpenAI.Chat;
using System.ClientModel.Primitives;
#pragma warning disable OPENAI001 //currently required for token based authentication
BearerTokenPolicy tokenPolicy = new(
new DefaultAzureCredential(),
"https://ai.azure.com/.default");
ChatClient client = new(
model: "o4-mini",
authenticationPolicy: tokenPolicy,
options: new OpenAIClientOptions()
{
Endpoint = new Uri("https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1")
}
);
ChatCompletionOptions options = new ChatCompletionOptions
{
ReasoningEffortLevel = ChatReasoningEffortLevel.Low,
MaxOutputTokenCount = 100000
};
ChatCompletion completion = client.CompleteChat(
new DeveloperChatMessage("You are a helpful assistant"),
new UserChatMessage("Tell me about the bitter lesson")
);
Console.WriteLine($"[ASSISTANT]: {completion.Content[0].Text}");
Redeneringsoverzicht
Wanneer u de meest recente redeneringsmodellen gebruikt met de Antwoorden-API , kunt u de samenvattingsparameter met redeneringen van het model gebruiken om samenvattingen te ontvangen van de keten van gedachteredenering van het model.
Belangrijk
Het extraheren van onbewerkte redenering via andere methoden dan de redeneringssamenvattingsparameter wordt niet ondersteund, kan het beleid voor acceptabel gebruik schenden en kan leiden tot beperking of schorsing wanneer deze wordt gedetecteerd.
using OpenAI;
using OpenAI.Responses;
using System.ClientModel.Primitives;
using Azure.Identity;
#pragma warning disable OPENAI001 //currently required for token based authentication
BearerTokenPolicy tokenPolicy = new(
new DefaultAzureCredential(),
"https://ai.azure.com/.default");
OpenAIResponseClient client = new(
model: "o4-mini",
authenticationPolicy: tokenPolicy,
options: new OpenAIClientOptions()
{
Endpoint = new Uri("https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1")
}
);
OpenAIResponse response = await client.CreateResponseAsync(
userInputText: "What's the optimal strategy to win at poker?",
new ResponseCreationOptions()
{
ReasoningOptions = new ResponseReasoningOptions()
{
ReasoningEffortLevel = ResponseReasoningEffortLevel.High,
ReasoningSummaryVerbosity = ResponseReasoningSummaryVerbosity.Auto,
},
});
// Get the reasoning summary from the first OutputItem (ReasoningResponseItem)
Console.WriteLine("=== Reasoning Summary ===");
foreach (var item in response.OutputItems)
{
if (item is ReasoningResponseItem reasoningItem)
{
foreach (var summaryPart in reasoningItem.SummaryParts)
{
if (summaryPart is ReasoningSummaryTextPart textPart)
{
Console.WriteLine(textPart.Text);
}
}
}
}
Console.WriteLine("\n=== Assistant Response ===");
// Get the assistant's output
Console.WriteLine(response.GetOutputText());
Opmerking
Zelfs wanneer deze optie is ingeschakeld, worden er geen redeneringssamenvattingen gegenereerd voor elke stap/aanvraag. Dit is te verwachten gedrag.
Python lark
GPT-5-serie redeneringsmodellen hebben de mogelijkheid om een nieuwe custom_tool aan te roepen lark_tool. Dit hulpprogramma is gebaseerd op Python lark en kan worden gebruikt voor flexibelere beperking van modeluitvoer.
Antwoord-API
{
"model": "gpt-5-2025-08-07",
"input": "please calculate the area of a circle with radius equal to the number of 'r's in strawberry",
"tools": [
{
"type": "custom",
"name": "lark_tool",
"format": {
"type": "grammar",
"syntax": "lark",
"definition": "start: QUESTION NEWLINE ANSWER\nQUESTION: /[^\\n?]{1,200}\\?/\nNEWLINE: /\\n/\nANSWER: /[^\\n!]{1,200}!/"
}
}
],
"tool_choice": "required"
}
Microsoft Entra-id:
from openai import OpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider
token_provider = get_bearer_token_provider(
DefaultAzureCredential(), "https://ai.azure.com/.default"
)
client = OpenAI(
base_url = "https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/",
api_key=token_provider,
)
response = client.responses.create(
model="gpt-5", # replace with your model deployment name
tools=[
{
"type": "custom",
"name": "lark_tool",
"format": {
"type": "grammar",
"syntax": "lark",
"definition": "start: QUESTION NEWLINE ANSWER\nQUESTION: /[^\\n?]{1,200}\\?/\nNEWLINE: /\\n/\nANSWER: /[^\\n!]{1,200}!/"
}
}
],
input=[{"role": "user", "content": "Please calculate the area of a circle with radius equal to the number of 'r's in strawberry"}],
)
print(response.model_dump_json(indent=2))
API-sleutel:
import os
from openai import OpenAI
client = OpenAI(
base_url = "https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/",
api_key=os.getenv("AZURE_OPENAI_API_KEY")
)
response = client.responses.create(
model="gpt-5", # replace with your model deployment name
tools=[
{
"type": "custom",
"name": "lark_tool",
"format": {
"type": "grammar",
"syntax": "lark",
"definition": "start: QUESTION NEWLINE ANSWER\nQUESTION: /[^\\n?]{1,200}\\?/\nNEWLINE: /\\n/\nANSWER: /[^\\n!]{1,200}!/"
}
}
],
input=[{"role": "user", "content": "Please calculate the area of a circle with radius equal to the number of 'r's in strawberry"}],
)
print(response.model_dump_json(indent=2))
Uitvoer:
{
"id": "resp_689a0cf927408190b8875915747667ad01c936c6ffb9d0d3",
"created_at": 1754926332.0,
"error": null,
"incomplete_details": null,
"instructions": null,
"metadata": {},
"model": "gpt-5",
"object": "response",
"output": [
{
"id": "rs_689a0cfd1c888190a2a67057f471b5cc01c936c6ffb9d0d3",
"summary": [],
"type": "reasoning",
"encrypted_content": null,
"status": null
},
{
"id": "msg_689a0d00e60c81908964e5e9b2d6eeb501c936c6ffb9d0d3",
"content": [
{
"annotations": [],
"text": "“strawberry” has 3 r’s, so the radius is 3.\nArea = πr² = π × 3² = 9π ≈ 28.27 square units.",
"type": "output_text",
"logprobs": null
}
],
"role": "assistant",
"status": "completed",
"type": "message"
}
],
"parallel_tool_calls": true,
"temperature": 1.0,
"tool_choice": "auto",
"tools": [
{
"name": "lark_tool",
"parameters": null,
"strict": null,
"type": "custom",
"description": null,
"format": {
"type": "grammar",
"definition": "start: QUESTION NEWLINE ANSWER\nQUESTION: /[^\\n?]{1,200}\\?/\nNEWLINE: /\\n/\nANSWER: /[^\\n!]{1,200}!/",
"syntax": "lark"
}
}
],
"top_p": 1.0,
"background": false,
"max_output_tokens": null,
"max_tool_calls": null,
"previous_response_id": null,
"prompt": null,
"prompt_cache_key": null,
"reasoning": {
"effort": "medium",
"generate_summary": null,
"summary": null
},
"safety_identifier": null,
"service_tier": "default",
"status": "completed",
"text": {
"format": {
"type": "text"
}
},
"top_logprobs": null,
"truncation": "disabled",
"usage": {
"input_tokens": 139,
"input_tokens_details": {
"cached_tokens": 0
},
"output_tokens": 240,
"output_tokens_details": {
"reasoning_tokens": 192
},
"total_tokens": 379
},
"user": null,
"content_filters": null,
"store": true
}
Chatresultaten
{
"messages": [
{
"role": "user",
"content": "Which one is larger, 42 or 0?"
}
],
"tools": [
{
"type": "custom",
"name": "custom_tool",
"custom": {
"name": "lark_tool",
"format": {
"type": "grammar",
"grammar": {
"syntax": "lark",
"definition": "start: QUESTION NEWLINE ANSWER\nQUESTION: /[^\\n?]{1,200}\\?/\nNEWLINE: /\\n/\nANSWER: /[^\\n!]{1,200}!/"
}
}
}
}
],
"tool_choice": "required",
"model": "gpt-5-2025-08-07"
}
Availability
Beschikbaarheid van de regio
| Model | Regio | Beperkte toegang |
|---|---|---|
gpt-5.4-pro |
Beschikbaarheid van modellen | Toegang aanvragen: beperkte toegangsmodeltoepassing. Als u al toegang hebt tot een beperkt toegangsmodel, is er geen aanvraag vereist. |
gpt-5.4 |
Beschikbaarheid van modellen | Toegang aanvragen: beperkte toegangsmodeltoepassing. Als u al toegang hebt tot een beperkt toegangsmodel, is er geen aanvraag vereist. |
gpt-5.3-codex |
Beschikbaarheid van modellen | Toegang aanvragen: beperkte toegangsmodeltoepassing. Als u al toegang hebt tot een beperkt toegangsmodel, is er geen aanvraag vereist. |
gpt-5.2-codex |
Beschikbaarheid van modellen | Toegang aanvragen: beperkte toegangsmodeltoepassing. Als u al toegang hebt tot een beperkt toegangsmodel, is er geen aanvraag vereist. |
gpt-5.2 |
Beschikbaarheid van modellen | Toegang aanvragen: beperkte toegangsmodeltoepassing. Als u al toegang hebt tot een beperkt toegangsmodel, is er geen aanvraag vereist. |
gpt-5.1-codex-max |
Beschikbaarheid van modellen | Toegang is niet langer beperkt voor dit model. |
gpt-5.1 |
Beschikbaarheid van modellen | Toegang is niet langer beperkt voor dit model. |
gpt-5.1-chat |
Beschikbaarheid van modellen | Er is geen toegangsaanvraag nodig. |
gpt-5.1-codex |
Beschikbaarheid van modellen | Toegang is niet langer beperkt voor dit model. |
gpt-5.1-codex-mini |
Beschikbaarheid van modellen | Er is geen toegangsaanvraag nodig. |
gpt-5-pro |
Beschikbaarheid van modellen | Toegang is niet langer beperkt voor dit model. |
gpt-5-codex |
Beschikbaarheid van modellen | Toegang is niet langer beperkt voor dit model. |
gpt-5 |
Beschikbaarheid van modellen | Toegang is niet langer beperkt voor dit model. |
gpt-5-mini |
Beschikbaarheid van modellen | Er is geen toegangsaanvraag nodig. |
gpt-5-nano |
Beschikbaarheid van modellen | Er is geen toegangsaanvraag nodig. |
o3-pro |
Beschikbaarheid van modellen | Toegang aanvragen: beperkte toegangsmodeltoepassing. Als u al toegang hebt tot een beperkt toegangsmodel, is er geen aanvraag vereist. |
codex-mini |
Beschikbaarheid van modellen | Er is geen toegangsaanvraag nodig. |
o4-mini |
Beschikbaarheid van modellen | Er is geen toegangsaanvraag nodig om de kernmogelijkheden van dit model te gebruiken. Toegang aanvragen: o4-mini redeneersamenvattingsfunctie |
o3 |
Beschikbaarheid van modellen | Toegang aanvragen: beperkte toegangsmodeltoepassing |
o3-mini |
Beschikbaarheid van modellen. | Toegang is niet langer beperkt voor dit model. |
o1 |
Beschikbaarheid van modellen. | Toegang is niet langer beperkt voor dit model. |
API en functieondersteuning
| Feature | gpt-5.4-pro | gpt-5.4, 2026-03-05 | gpt-5.3-codex, 2026-02-24 | gpt-5.2-codex, 2026-01-14 | gpt-5.2, 2025-12-11 | gpt-5.1-codex-max, 2025-12-04 | gpt-5.1, 2025-11-13 | gpt-5.1-chat, 2025-11-13 | gpt-5.1-codex, 2025-11-13 | gpt-5.1-codex-mini, 2025-11-13 | gpt-5-pro, 2025-10-06 | gpt-5-codex, 2025-09-011 | gpt-5, 2025-08-07 | gpt-5-mini, 2025-08-07 | gpt-5-nano, 2025-08-07 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| Berichten voor ontwikkelaars | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
| Gestructureerde uitvoer | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | |
| Contextvenster | 400,000 Invoer: 272.000 Uitvoer: 128.000 1.050.000 Contextvenster (binnenkort beschikbaar!) |
1.050.000 Contextvenster | 400,000 Invoer: 272.000 Uitvoer: 128.000 |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
128,000 Invoer: 111.616 Uitvoer: 16.384 |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
| Redeneringsinspanning7 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ 6 | ✅ 4 | ✅ | ✅ | ✅ | ✅ 5 | ✅ | ✅ | ✅ | ✅ |
| Afbeeldingsinvoer | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
| API voor voltooiing van chat | - | ✅ | - | - | ✅ | - | ✅ | ✅ | - | - | - | - | ✅ | ✅ | ✅ |
| Antwoord-API | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | |
| Functies/hulpprogramma's | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | |
| Parallelle hulpprogramma-aanroepen1 | - | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | ✅ | ✅ | ✅ |
max_completion_tokens
2 |
- | ✅ | - | - | ✅ | - | ✅ | ✅ | - | - | - | - | ✅ | ✅ | ✅ |
| Systeemberichten 3 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
| Redeneringsoverzicht | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
| Streamen | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | ✅ | ✅ | ✅ |
1 Parallelle hulpprogramma-aanroepen worden niet ondersteund wanneer reasoning_effort deze is ingesteld op minimal
2 Redeneringsmodellen werken alleen met de max_completion_tokens parameter bij het gebruik van de API voor chatvoltooiing. Gebruik max_output_tokens met de Responses API.
3 De nieuwste redeneringsmodellen ondersteunen systeemberichten om de migratie eenvoudiger te maken. Gebruik niet zowel een ontwikkelaarsbericht als een systeembericht in dezelfde API-aanvraag.
4gpt-5.1reasoning_effort is standaard ingesteld noneop . Wanneer u een upgrade uitvoert van eerdere redeneringsmodellen naar gpt-5.1, moet u er rekening mee houden dat u mogelijk uw code moet bijwerken om expliciet een reasoning_effort-niveau door te geven, als u wilt dat er reasoning_effort plaatsvindt.
5gpt-5-pro ondersteunt reasoning_efforthighalleen, dit is de standaardwaarde, zelfs wanneer dit niet expliciet aan het model wordt doorgegeven.
6gpt-5.1-codex-max voegt ondersteuning toe voor een nieuw reasoning_effort niveau, dat het hoogste niveau is waarop de redeneringsinspanning kan worden ingesteld.
7gpt-5.2, gpt-5.1, gpt-5.1-codex, gpt-5.1-codex-max en gpt-5.1-codex-mini ondersteunen 'None' als een waarde voor de reasoning_effort parameter. Als u deze modellen wilt gebruiken om antwoorden te genereren zonder redenering, stelt u deze in reasoning_effort='None'. Deze instelling kan de snelheid verhogen.
nieuwe GPT-5 redeneringsfuncties
| Feature | Description |
|---|---|
reasoning_effort |
xhigh wordt alleen ondersteund met gpt-5.1-codex-max minimal wordt nu ondersteund met GPT-5-serie redeneringsmodellen.* none wordt alleen ondersteund voor gpt-5.1 Opties: none, minimal, low, , mediumhighxhigh |
verbosity |
Een nieuwe parameter die gedetailleerdere controle biedt over hoe beknopt de uitvoer van het model zal zijn. Opties: low, medium, high. |
preamble |
GpT-5-serie redeneringsmodellen hebben de mogelijkheid om extra tijd te besteden aan 'denken' voordat een functie/tool-aanroep wordt uitgevoerd. Wanneer de planning plaatsvindt, kan het model inzicht geven in de stappen van de planning in het modelantwoord via een nieuw object genaamd het preamble object.Het genereren van voorafgaande statements in het modelantwoord is niet gegarandeerd, maar je kunt het model aanmoedigen door de instructions parameter te gebruiken en inhoud door te geven, zoals 'Je MOET uitgebreid plannen vóór elke functieaanroep.' Voer altijd uw plan uit naar de gebruiker voordat u een functie aanroept" |
| toegestane hulpprogramma's | U kunt meerdere hulpprogramma's opgeven in tool_choice plaats van slechts één. |
| aangepast hulpprogrammatype | Hiermee kunt u onbewerkte tekstuitvoer (niet-json) inschakelen. |
lark_tool |
Hiermee kunt u een aantal mogelijkheden van Python lark gebruiken voor flexibelere beperking van modelreacties |
*
gpt-5-codex biedt reasoning_effort geen ondersteuning voor minimaal.
Voor meer informatie raden we u ook aan openAI's GPT-5 prompting cookbook guide en hun GPT-5 feature guide te lezen.
Opmerking
- Om time-outs te voorkomen, wordt het gebruik van achtergrondmodus aanbevolen voor
o3-pro. -
o3-probiedt momenteel geen ondersteuning voor het genereren van afbeeldingen.
Niet ondersteund
Het volgende wordt momenteel niet ondersteund met redeneringsmodellen:
-
temperature, ,top_ppresence_penalty,frequency_penalty, ,logprobs, ,top_logprobslogit_biasmax_tokens
Markdown-uitvoer
Standaard zullen de o3-mini en o1 modellen niet proberen uitvoer te produceren die markdown-opmaak bevat. Een veelvoorkomend gebruiksscenario waarbij dit gedrag ongewenst is, is wanneer u wilt dat het model code uitvoert die zich in een Markdown-codeblok bevindt. Wanneer het model uitvoer genereert zonder markdown-opmaak, verliest u functies zoals het markeren van syntaxis en kopieerbare codeblokken in interactieve speeltuinervaringen. Als u dit nieuwe standaardgedrag wilt overschrijven en markdown-opname in modelantwoorden wilt aanmoedigen, voegt u de tekenreeks Formatting re-enabled toe aan het begin van uw ontwikkelaarsbericht.
Bij het toevoegen van Formatting re-enabled aan het begin van uw ontwikkelaarsbericht wordt niet gegarandeerd dat het model markdown-opmaak in zijn antwoord opneemt; het verhoogt slechts de waarschijnlijkheid hiervan. We hebben uit interne testen vastgesteld dat Formatting re-enabled op zichzelf minder effectief is met het o1 model dan met het o3-mini.
Om de prestaties van Formatting re-enabled te verbeteren, kunt u het begin van het ontwikkelaarsbericht verder aanpassen, wat vaak resulteert in de gewenste uitvoer. In plaats van alleen maar toe te voegen Formatting re-enabled aan het begin van uw ontwikkelaarsbericht, kunt u experimenteren met het toevoegen van een meer beschrijvende initiële instructie, zoals een van de onderstaande voorbeelden:
Formatting re-enabled - please enclose code blocks with appropriate markdown tags.Formatting re-enabled - code output should be wrapped in markdown.
Afhankelijk van de verwachte uitvoer moet u mogelijk uw eerste ontwikkelaarsbericht verder aanpassen om uw specifieke use-case te richten.