Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Anmärkning
Den här funktionen är för närvarande i offentlig förhandsversion. Den här förhandsversionen tillhandahålls utan ett serviceavtal och rekommenderas inte för produktionsarbetsbelastningar. Vissa funktioner kanske inte stöds eller kan vara begränsade. Mer information finns i Kompletterande villkor för användning av Microsoft Azure-förhandsversioner.
GenAI(Generative AI) Prompt-färdigheten kör en begäran om chattavslut mot en stor språkmodell (LLM) som distribuerats i Azure AI Foundry eller Azure OpenAI i Azure AI Foundry Models.
Använd den här funktionen för att skapa ny information som kan indexeras och lagras som sökbart innehåll. Exempel är verbalisera bilder, sammanfatta större passager, förenkla komplext innehåll eller andra uppgifter som en LLM kan utföra. Färdigheten stöder text, bild och multimodalt innehåll, till exempel en PDF som innehåller text och bilder. Det är vanligt att använda den här färdigheten i kombination med en datasegmenteringsfärdighet. Följande självstudier visar scenarier för bildverifiering med två olika datasegmenteringstekniker:
GenAI Prompt-färdigheten är endast tillgänglig i REST API för förhandsversionen av 2025-05-01 .
Modeller som stöds
Du kan använda valfri slutsatsdragningsmodell för chatten som distribueras i AI Foundry, till exempel GPT-modeller, Deepseek R#, Llama-4-Mavericj, Cohere-command-r och så vidare.
Fakturering baseras på prissättningen för den modell som du använder.
Anmärkning
Söktjänsten ansluter till din modell via en offentlig slutpunkt, så det finns inga platskrav för regioner, men om du använder en fullständig Azure-lösning bör du kontrollera Azure AI Search-regionerna och Azure OpenAI-modellregionerna för att hitta lämpliga par, särskilt om du har krav på datahemvist.
Förutsättningar
En distribuerad modell för chattens slutförande (till exempel gpt-4o eller någon kompatibel OSS-modell (Open Source Software) i Azure AI Foundry eller Azure OpenAI.
Kopiera slutpunkten från Modeller + slutpunkter i Foundry-portalen eller från Underdomänen för Azure OpenAI-resursen (
*.openai.azure.com
).Ange den här slutpunkten i parametern
Uri
för din kompetensdefinition.
Autentisering kan vara nyckelbaserad med en API-nyckel från din Azure AI Foundry- eller Azure OpenAI-resurs. Vi rekommenderar dock rollbaserad åtkomst med hjälp av en hanterad identitet för söktjänsten som tilldelats en roll.
I Azure OpenAI tilldelar du Cognitive Services OpenAI-användare till den hanterade identiteten.
Tilldela Azure AI-användare för AI Foundry-modeller.
@odata.type
#Microsoft.Skills.Custom.ChatCompletionSkill
Databegränsningar
Begränsning | Noteringar |
---|---|
maxTokens |
Standardvärdet är 1024 om det utelämnas. Maximalt värde är modellberoende. |
Tidsgräns för begäran | 30 sekunder (standard). Åsidosätt med timeout egenskapen (PT##S ). |
Avbildningar | Grundläggande 64-kodade bilder och bild-URL:er stöds. Storleksgränsen är modellberoende. |
Kompetensparametrar
Fastighet | Typ | Krävs | Noteringar |
---|---|---|---|
uri |
snöre | Ja | Offentlig slutpunkt för den distribuerade modellen. |
apiKey |
snöre | Cond.* | Hemlig nyckel för modellen. Lämna tomt när du använder hanterad identitet. |
authIdentity |
snöre | Cond.* | Användartilldelat klient-ID för hanterad identitet (endast Azure OpenAI). Lämna tomt om du vill använda den systemtilldelade identiteten. |
commonModelParameters |
objekt | Nej | Standardgenereringskontroller som temperature , maxTokens osv. |
extraParameters |
objekt | Nej | Öppen ordlista som skickas till det underliggande modell-API:et. |
extraParametersBehavior |
snöre | Nej |
"pass-through"
|
"drop"
|
"error" (standard "error" ). |
responseFormat |
objekt | Nej | Styr om modellen returnerar text, ett JSON-objekt i fri form eller ett starkt skrivet JSON-schema.
responseFormat nyttolastexempel: {responseFormat: { type: text }}, {responseFormat: { type: json_object }}, {responseFormat: { type: json_schema }} |
*
Exakt en av apiKey
, authIdentity
eller tjänstens systemtilldelade identitet måste användas.
commonModelParameters
Standardvärden
Parameter | Förinställning |
---|---|
model |
(standard för distribution) |
frequencyPenalty |
0 |
presencePenalty |
0 |
maxTokens |
1024 |
temperature |
0,7 |
seed |
noll |
stop |
noll |
Kunskapsindata
Indatanamn | Typ | Krävs | Beskrivning |
---|---|---|---|
systemMessage |
snöre | Ja | Instruktioner på systemnivå (till ex: "Du är en användbar assistent."). |
userMessage |
snöre | Ja | Användarprompt. |
text |
snöre | Nej | Valfri text som läggs till userMessage (endast textscenarier). |
image |
sträng (Base 64 data-URL) | Nej | Lägger till en bild i prompten (endast multimodala modeller). |
imageDetail |
sträng (low | high | auto ) |
Nej | Fidelity-tips för multimodala Azure OpenAI-modeller. |
Kunskapsutdata
Utdatanamn | Typ | Beskrivning |
---|---|---|
response |
sträng - eller JSON-objekt | Modellera utdata i det format som begärs av responseFormat.type . |
usageInformation |
JSON-objekt | Antal token och eko av modellparametrar. |
Exempeldefinitioner
Sammanfattning av endast text
{
"@odata.type": "#Microsoft.Skills.Custom.ChatCompletionSkill",
"name": "Summarizer",
"description": "Summarizes document content.",
"context": "/document",
"timeout": "PT30S",
"inputs": [
{ "name": "text", "source": "/document/content" },
{ "name": "systemMessage", "source": "='You are a concise AI assistant.'" },
{ "name": "userMessage", "source": "='Summarize the following text:'" }
],
"outputs": [ { "name": "response" } ],
"uri": "https://demo.openai.azure.com/openai/deployments/gpt-4o/chat/completions",
"apiKey": "<api-key>",
"commonModelParameters": { "temperature": 0.3 }
}
Beskrivning av text och bild
{
"@odata.type": "#Microsoft.Skills.Custom.ChatCompletionSkill",
"name": "Image Describer",
"context": "/document/normalized_images/*",
"inputs": [
{ "name": "image", "source": "/document/normalized_images/*/data" },
{ "name": "imageDetail", "source": "=high" },
{ "name": "systemMessage", "source": "='You are a useful AI assistant.'" },
{ "name": "userMessage", "source": "='Describe this image:'" }
],
"outputs": [ { "name": "response" } ],
"uri": "https://demo.openai.azure.com/openai/deployments/gpt-4o/chat/completions",
"authIdentity": "11111111-2222-3333-4444-555555555555",
"responseFormat": { "type": "text" }
}
Strukturerad numerisk faktasökare
{
"@odata.type": "#Microsoft.Skills.Custom.ChatCompletionSkill",
"name": "NumericalFactFinder",
"context": "/document",
"inputs": [
{ "name": "systemMessage", "source": "='You are an AI assistant that helps people find information.'" },
{ "name": "userMessage", "source": "='Find all the numerical data and put it in the specified fact format.'"},
{ "name": "text", "source": "/document/content" }
],
"outputs": [ { "name": "response" } ],
"uri": "https://demo.openai.azure.com/openai/deployments/gpt-4o/chat/completions",
"apiKey": "<api-key>",
"responseFormat": {
"type": "json_schema",
"jsonSchemaProperties": {
"name": "NumericalFactObj",
"strict": true,
"schema": {
"type": "object",
"properties": {
"facts": {
"type": "array",
"items": {
"type": "object",
"properties": {
"number": { "type": "number" },
"fact": { "type": "string" }
},
"required": [ "number", "fact" ]
}
}
},
"required": [ "facts" ],
"additionalProperties": false
}
}
}
}
Exempelutdata (trunkerade)
{
"response": {
"facts": [
{ "number": 32.0, "fact": "Jordan scored 32 points per game in 1986-87." },
{ "number": 6.0, "fact": "He won 6 NBA championships." }
]
},
"usageInformation": {
"usage": {
"completion_tokens": 203,
"prompt_tokens": 248,
"total_tokens": 451
}
}
}
Metodtips
- Dela upp långa dokument med färdigheten Textdelning för att hålla dig inom modellens kontextfönster.
- För indexering med stora volymer tillägnar du en separat modelldistribution till den här färdigheten så att tokenkvoter för RAG-arbetsbelastningar för frågetid inte påverkas.
- För att minimera svarstiden, samlokalisera modellen och Azure AI Search-tjänsten i samma Azure-region.
- Använd
responseFormat.json_schema
med GPT-4o för tillförlitlig strukturerad extrahering och enklare mappning till indexfält. - Övervaka tokenanvändningen och skicka begäranden om kvotökning om indexeraren mättar dina TPM-gränser (Token per minut).
Fel och varningar
Tillstånd | Resultat |
---|---|
Saknas eller är ogiltigt uri |
Fel |
Ingen autentiseringsmetod har angetts | Fel |
Både apiKey och authIdentity levereras |
Fel |
Modell som inte stöds för multimodal prompt | Fel |
Indata överskrider gränsen för modelltoken | Fel |
Modellen returnerar ogiltig JSON för json_schema |
Varning – råsträng som returneras i response |