Delen via


GenAI Prompt vaardigheid

Note

Deze functie is momenteel beschikbaar als openbare preview-versie. Deze preview wordt geleverd zonder service level agreement en wordt niet aanbevolen voor productieworkloads. Bepaalde functies worden mogelijk niet ondersteund of hebben mogelijk beperkte mogelijkheden. Voor meer informatie, zie Aanvullende Gebruiksvoorwaarden voor Microsoft Azure Previews.

Met de GenAI-promptvaardigheid (Generatieve AI) wordt een aanvraag voor het voltooien van een chat uitgevoerd op basis van een groot taalmodel (LLM) dat is geïmplementeerd in Azure OpenAI in Foundry Models of Microsoft Foundry. Gebruik deze vaardigheid om nieuwe informatie te maken die kan worden geïndexeerd en opgeslagen als doorzoekbare inhoud.

Hier volgen enkele voorbeelden van hoe de GenAI-promptvaardigheid u kan helpen bij het maken van inhoud:

  • Afbeeldingen verbaal maken
  • Grote passages van tekst samenvatten
  • Complexe inhoud vereenvoudigen
  • Voer een andere taak uit die u in een prompt kunt formuleren

De vaardigheid GenAI-prompt is beschikbaar in de nieuwste preview-REST API. Deze vaardigheid ondersteunt tekst, afbeeldingen en multimodale inhoud, zoals een PDF die tekst en afbeeldingen bevat.

Tip

Het is gebruikelijk om deze vaardigheid te gebruiken in combinatie met een vaardigheid voor gegevenssegmentering. In de volgende zelfstudies ziet u afbeeldings verbaal met twee verschillende technieken voor het segmenteren van gegevens:

Ondersteunde modellen

  • U kunt elk deductiemodel voor voltooiing van chats gebruiken dat is geïmplementeerd in Foundry, zoals GPT-modellen, Deepseek R#, Llama-4-Mavericj en Cohere-command-r. Voor GPT-modellen worden alleen de API-eindpunten voor chatvoltooiingen ondersteund. Eindpunten die gebruikmaken van de Api voor Azure OpenAI-antwoorden (die in de URI zijn opgenomen /openai/responses ) zijn momenteel niet compatibel.

  • Voor beeld verbaalgebruik bepaalt het model dat u gebruikt om de afbeelding te analyseren welke afbeeldingsindelingen worden ondersteund.

  • Voor GPT-5-modellen wordt de temperature parameter niet op dezelfde manier ondersteund als eerdere modellen. Indien gedefinieerd, moet deze worden ingesteld op 1.0, omdat andere waarden leiden tot fouten.

  • Facturering is gebaseerd op de prijzen van het model dat u gebruikt.

Note

De zoekservice maakt verbinding met uw model via een openbaar eindpunt, dus er zijn geen regiolocatievereisten, maar als u een volledige Azure-oplossing gebruikt, moet u de Azure AI Search-regio's en de Azure OpenAI-modelregio's controleren om geschikte paren te vinden, met name als u vereisten voor gegevenslocatie hebt.

Prerequisites

  • Een Azure OpenAI in Foundry Models-resource of Foundry-project.

  • Een ondersteund model dat is geïmplementeerd in uw resource of project.

    • Kopieer voor Azure OpenAI het eindpunt met het openai.azure.com domein vanaf de pagina Sleutels en Eindpunt in Azure Portal. Gebruik dit eindpunt voor de Uri parameter in deze vaardigheid.

    • Kopieer voor Foundry de doel-URI voor de implementatie vanaf de pagina Modellen in de Foundry-portal. Gebruik dit eindpunt voor de Uri parameter in deze vaardigheid.

  • Verificatie kan worden gebaseerd op sleutels met een API-sleutel uit uw Foundry- of Azure OpenAI-resource. We raden echter aan om op rollen gebaseerde toegang te gebruiken met behulp van een door de zoekservice beheerde identiteit die is toegewezen aan een rol.

@odata.type

#Microsoft.Skills.Custom.ChatCompletionSkill

Gegevenslimieten

Limit Notes
maxTokens De standaardwaarde is 1024 als u dit weglaat. De maximumwaarde is modelafhankelijk.
Time-out aanvragen 30 seconden (standaard). Overschrijven met de timeout eigenschap (PT##S).
Images Met Base 64 gecodeerde afbeeldingen en afbeeldings-URL's worden ondersteund. Groottelimiet is modelafhankelijk.

Vaardigheidsparameters

Property Type Required Notes
uri string Yes Openbaar eindpunt van het geïmplementeerde model. Ondersteunde domeinen zijn:

  • openai.azure.com
  • services.ai.azure.com
  • cognitiveservices.azure.com
apiKey string Cond.* Geheime sleutel voor het model. Laat leeg wanneer u beheerde identiteit gebruikt.
authIdentity string Cond.* Door de gebruiker toegewezen client-id van beheerde identiteit (alleen Azure OpenAI). Laat leeg om de door het systeem toegewezen identiteit te gebruiken.
commonModelParameters object No Standaard besturingselementen voor generatie, zoals temperature, maxTokensenzovoort.
extraParameters object No Open de woordenlijst die is doorgegeven aan de onderliggende model-API.
extraParametersBehavior string No "pass-through" | "drop" | "error" (standaard "error").
responseFormat object No Hiermee bepaalt u of het model tekst, een vrije JSON-object of een sterk getypt JSON-schema retourneert. responseFormat payload-voorbeelden: {responseFormat: { type: text }}, {responseFormat: { type: json_object }}, {responseFormat: { type: json_schema }}

* Precies één van, apiKeyof de authIdentity identiteit van de service moet worden gebruikt.

commonModelParameters Standaardinstellingen

Parameter Default
model (standaardimplementatie)
frequencyPenalty 0
presencePenalty 0
maxTokens 1024
temperature 0.7
seed null
stop null

Invoer van vaardigheden

Invoernaam Type Required Description
systemMessage string Yes Instructies op systeemniveau (bijvoorbeeld: "U bent een nuttige assistent.").
userMessage string Yes Gebruikersprompt.
text string No Optionele tekst toegevoegd aan userMessage (alleen tekstscenario's).
image tekenreeks (base 64-gegevens-URL) No Hiermee voegt u een afbeelding toe aan de prompt (alleen multimodale modellen).
imageDetail tekenreeks (low | high | auto) No Betrouwbaarheidstip voor multimodale Azure OpenAI-modellen.

Uitvoer van vaardigheden

Uitvoernaam Type Description
response tekenreeks - of JSON-object Modeluitvoer in de indeling die is aangevraagd door responseFormat.type.
usageInformation JSON-object Token telt en echo van modelparameters.

Voorbeelddefinities

Samenvatting van alleen tekst

{
  "@odata.type": "#Microsoft.Skills.Custom.ChatCompletionSkill",
  "name": "Summarizer",
  "description": "Summarizes document content.",
  "context": "/document",
  "timeout": "PT30S",
  "inputs": [
    { "name": "text", "source": "/document/content" },
    { "name": "systemMessage", "source": "='You are a concise AI assistant.'" },
    { "name": "userMessage", "source": "='Summarize the following text:'" }
  ],
  "outputs": [ { "name": "response" } ],
  "uri": "https://demo.openai.azure.com/openai/deployments/gpt-4o/chat/completions",
  "apiKey": "<api-key>",
  "commonModelParameters": { "temperature": 0.3 }
}

Beschrijving van tekst en afbeelding

{
  "@odata.type": "#Microsoft.Skills.Custom.ChatCompletionSkill",
  "name": "Image Describer",
  "context": "/document/normalized_images/*",
  "inputs": [
    { "name": "image", "source": "/document/normalized_images/*/data" },
    { "name": "imageDetail", "source": "=high" },
    { "name": "systemMessage", "source": "='You are a useful AI assistant.'" },
    { "name": "userMessage", "source": "='Describe this image:'" }
  ],
  "outputs": [ { "name": "response" } ],
  "uri": "https://demo.openai.azure.com/openai/deployments/gpt-4o/chat/completions",
  "authIdentity": "11111111-2222-3333-4444-555555555555",
  "responseFormat": { "type": "text" }
}

Gestructureerde numerieke feitenzoeker

{
  "@odata.type": "#Microsoft.Skills.Custom.ChatCompletionSkill",
  "name": "NumericalFactFinder",
  "context": "/document",
  "inputs": [
    { "name": "systemMessage", "source": "='You are an AI assistant that helps people find information.'" },
    { "name": "userMessage", "source": "='Find all the numerical data and put it in the specified fact format.'"}, 
    { "name": "text", "source": "/document/content" }
  ],
  "outputs": [ { "name": "response" } ],
  "uri": "https://demo.openai.azure.com/openai/deployments/gpt-4o/chat/completions",
  "apiKey": "<api-key>",
  "responseFormat": {
    "type": "json_schema",
    "jsonSchemaProperties": {
      "name": "NumericalFactObj",
      "strict": true,
      "schema": {
        "type": "object",
        "properties": {
          "facts": {
            "type": "array",
            "items": {
              "type": "object",
              "properties": {
                "number": { "type": "number" },
                "fact": { "type": "string" }
              },
              "required": [ "number", "fact" ]
            }
          }
        },
        "required": [ "facts" ],
        "additionalProperties": false
      }
    }
  }
}

Voorbeelduitvoer (afgekapt)

{
  "response": {
    "facts": [
      { "number": 32.0, "fact": "Jordan scored 32 points per game in 1986-87." },
      { "number": 6.0,  "fact": "He won 6 NBA championships." }
    ]
  },
  "usageInformation": {
    "usage": {
      "completion_tokens": 203,
      "prompt_tokens": 248,
      "total_tokens": 451
    }
  }
}

Beste praktijken

  • Lange documenten segmenteren met de vaardigheid Tekst splitsen om binnen het contextvenster van het model te blijven.
  • Wijs voor indexering met grote volumes een afzonderlijke modelimplementatie toe aan deze vaardigheid, zodat tokenquota voor RAG-workloads in querytijd niet worden beïnvloed.
  • Als u de latentie wilt minimaliseren, zoekt u het model en uw Azure AI Search-service in dezelfde Azure-regio.
  • Gebruik responseFormat.json_schema met GPT-4o voor betrouwbare gestructureerde extractie en eenvoudigere toewijzing aan indexvelden.
  • Bewaak het tokengebruik en verzend aanvragen voor quotumverhoging als de indexeerfunctie uw tpm-limieten (Tokens per minuut) verzadigt.

Fouten en waarschuwingen

Condition Result
Ontbreekt of is ongeldig uri Error
Er is geen verificatiemethode opgegeven Error
Beide apiKey en authIdentity geleverd Error
Niet-ondersteund model voor multimodale prompt Error
Invoer overschrijdt de limiet voor het modeltoken Error
Model retourneert ongeldige JSON voor json_schema Waarschuwing : onbewerkte tekenreeks geretourneerd in response

Zie ook