Freigeben über


Azure OpenAI-Eingabebindung zum Senden einer Nachricht an den Assistenten für Azure Functions

Wichtig

Die Azure OpenAI-Erweiterung für Azure Functions befindet sich derzeit in der Vorschau.

Mit der Azure OpenAI-Eingabebindung zum Senden einer Nachricht an den Assistenten können Sie Prompts an Assistenten-Chatbots senden.

Informationen zu Einrichtungs- und Konfigurationsdetails der Azure OpenAI-Erweiterung finden Sie unter Azure OpenAI-Erweiterungen für Azure Functions. Weitere Informationen zu Azure OpenAI-Assistenten finden Sie unter API für Azure OpenAI-Assistenten.

Hinweis

Referenzen und Beispiele werden nur für das Node.js v4-Modell bereitgestellt.

Hinweis

Referenzen und Beispiele werden nur für das Python v2-Modell bereitgestellt.

Hinweis

Während beide C#-Prozessmodelle unterstützt werden, werden nur Isolierte Arbeitsmodellbeispiele bereitgestellt.

Beispiel

In diesem Beispiel wird der Erstellungsprozess veranschaulicht, bei dem die HTTP POST-Funktion Benutzerprompts an den Assistenten-Chatbot sendet. Die Antwort auf den Prompt wird in der HTTP-Antwort zurückgegeben.

/// <summary>
/// HTTP POST function that sends user prompts to the assistant chat bot.
/// </summary>
[Function(nameof(PostUserQuery))]
public static IActionResult PostUserQuery(
    [HttpTrigger(AuthorizationLevel.Anonymous, "post", Route = "assistants/{assistantId}")] HttpRequestData req,
    string assistantId,
    [AssistantPostInput("{assistantId}", "{Query.message}", ChatModel = "%CHAT_MODEL_DEPLOYMENT_NAME%", ChatStorageConnectionSetting = DefaultChatStorageConnectionSetting, CollectionName = DefaultCollectionName)] AssistantState state)
{
    return new OkObjectResult(state.RecentMessages.Any() ? state.RecentMessages[state.RecentMessages.Count - 1].Content : "No response returned.");
}

In diesem Beispiel wird der Erstellungsprozess veranschaulicht, bei dem die HTTP POST-Funktion Benutzerprompts an den Assistenten-Chatbot sendet. Die Antwort auf den Prompt wird in der HTTP-Antwort zurückgegeben.

/*
 * HTTP POST function that sends user prompts to the assistant chat bot.
 */ 
@FunctionName("PostUserResponse")
public HttpResponseMessage postUserResponse(
    @HttpTrigger(
        name = "req",
        methods = {HttpMethod.POST}, 
        authLevel = AuthorizationLevel.ANONYMOUS,
        route = "assistants/{assistantId}") 
        HttpRequestMessage<Optional<String>> request,
    @BindingName("assistantId") String assistantId,        
    @AssistantPost(name="newMessages", id = "{assistantId}", chatModel = "%CHAT_MODEL_DEPLOYMENT_NAME%", userMessage = "{Query.message}", chatStorageConnectionSetting = DEFAULT_CHATSTORAGE, collectionName = DEFAULT_COLLECTION) AssistantState state,
    final ExecutionContext context) {
        
        List<AssistantMessage> recentMessages = state.getRecentMessages();
        String response = recentMessages.isEmpty() ? "No response returned." : recentMessages.get(recentMessages.size() - 1).getContent();
        
        return request.createResponseBuilder(HttpStatus.OK)
            .header("Content-Type", "application/json")
            .body(response)
            .build();
}

In diesem Beispiel wird der Erstellungsprozess veranschaulicht, bei dem die HTTP POST-Funktion Benutzerprompts an den Assistenten-Chatbot sendet. Die Antwort auf den Prompt wird in der HTTP-Antwort zurückgegeben.

const { app, input, output } = require("@azure/functions");

const assistantPostInput = input.generic({
    type: 'assistantPost',
    id: '{assistantId}',
    chatModel: '%CHAT_MODEL_DEPLOYMENT_NAME%',
    userMessage: '{Query.message}',
    chatStorageConnectionSetting: CHAT_STORAGE_CONNECTION_SETTING,
    collectionName: COLLECTION_NAME
})
app.http('PostUserResponse', {
    methods: ['POST'],
    route: 'assistants/{assistantId}',
    authLevel: 'anonymous',
    extraInputs: [assistantPostInput],
    handler: async (_, context) => {
        const chatState = context.extraInputs.get(assistantPostInput)
        const content = chatState.recentMessages[0].content
        return {
            status: 200,
            body: content,
            headers: {
                'Content-Type': 'text/plain'
            }
        };
    }
})
import { HttpRequest, InvocationContext, app, input, output } from "@azure/functions"

const assistantPostInput = input.generic({
    type: 'assistantPost',
    id: '{assistantId}',
    chatModel: '%CHAT_MODEL_DEPLOYMENT_NAME%',
    userMessage: '{Query.message}',
    chatStorageConnectionSetting: CHAT_STORAGE_CONNECTION_SETTING,
    collectionName: COLLECTION_NAME
})
app.http('PostUserResponse', {
    methods: ['POST'],
    route: 'assistants/{assistantId}',
    authLevel: 'anonymous',
    extraInputs: [assistantPostInput],
    handler: async (_, context) => {
        const chatState: any = context.extraInputs.get(assistantPostInput)
        const content = chatState.recentMessages[0].content
        return {
            status: 200,
            body: content,
            headers: {
                'Content-Type': 'text/plain'
            }
        };
    }
})

In diesem Beispiel wird der Erstellungsprozess veranschaulicht, bei dem die HTTP POST-Funktion Benutzerprompts an den Assistenten-Chatbot sendet. Die Antwort auf den Prompt wird in der HTTP-Antwort zurückgegeben.

Dies ist die function.json Datei für die Abfrage nach dem Benutzer:

{
  "bindings": [
    {
      "authLevel": "function",
      "type": "httpTrigger",
      "direction": "in",
      "name": "Request",
      "route": "assistants/{assistantId}",
      "methods": [
        "post"
      ]
    },
    {
      "type": "http",
      "direction": "out",
      "name": "Response"
    },
    {
      "name": "State",
      "type": "assistantPost",
      "direction": "in",
      "dataType": "string",
      "id": "{assistantId}",
      "userMessage": "{Query.message}",
      "chatModel": "%CHAT_MODEL_DEPLOYMENT_NAME%",
      "chatStorageConnectionSetting": "AzureWebJobsStorage",
      "collectionName": "ChatState"
    }
  ]
}

Weitere Informationen zu den Dateieigenschaften von function.json finden Sie im Abschnitt Konfiguration.

using namespace System.Net

param($Request, $TriggerMetadata, $State)

$recent_message_content = "No recent messages!"

if ($State.recentMessages.Count -gt 0) {
    $recent_message_content = $State.recentMessages[0].content
}

Push-OutputBinding -Name Response -Value ([HttpResponseContext]@{
    StatusCode = [HttpStatusCode]::OK
    Body       = $recent_message_content
    Headers    = @{
        "Content-Type" = "text/plain"
    }
})

In diesem Beispiel wird der Erstellungsprozess veranschaulicht, bei dem die HTTP POST-Funktion Benutzerprompts an den Assistenten-Chatbot sendet. Die Antwort auf den Prompt wird in der HTTP-Antwort zurückgegeben.

@apis.function_name("PostUserQuery")
@apis.route(route="assistants/{assistantId}", methods=["POST"])
@apis.assistant_post_input(
    arg_name="state",
    id="{assistantId}",
    user_message="{Query.message}",
    chat_model="%CHAT_MODEL_DEPLOYMENT_NAME%",
    chat_storage_connection_setting=DEFAULT_CHAT_STORAGE_SETTING,
    collection_name=DEFAULT_CHAT_COLLECTION_NAME,
)
def post_user_response(req: func.HttpRequest, state: str) -> func.HttpResponse:
    # Parse the JSON string into a dictionary
    data = json.loads(state)

    # Extract the content of the recentMessage
    recent_message_content = data["recentMessages"][0]["content"]
    return func.HttpResponse(
        recent_message_content, status_code=200, mimetype="text/plain"
    )

Attribute

Wenden Sie das Attribut PostUserQuery an, um eine Eingabebindung zum Senden einer Nachricht an den Assistenten zu definieren, die diese Parameter unterstützt:

Parameter Beschreibung
Id Die ID des zu aktualisierenden Assistenten.
UserMessage Ruft die Benutzernachricht für das Chatabschlussmodell ab, die als Zeichenfolge codiert ist, oder legt sie fest.
AIConnectionName Optional. Dient zum Abrufen oder Festlegen des Namens des Konfigurationsabschnitts für AI-Dienstkonnektivitätseinstellungen. For Azure OpenAI: If specified, looks for "Endpoint" and "Key" values in this configuration section. Wenn sie nicht angegeben ist oder der Abschnitt nicht vorhanden ist, kehren Sie auf Umgebungsvariablen zurück: AZURE_OPENAI_ENDPOINT und AZURE_OPENAI_KEY. Für die vom Benutzer zugewiesene verwaltete Identitätsauthentifizierung ist diese Eigenschaft erforderlich. Legen Sie für openAI-Dienst (nicht azure) die OPENAI_API_KEY Umgebungsvariable fest.
ChatModel Optional. Dient zum Abrufen oder Festlegen der ID des Modells, das als Zeichenfolge verwendet werden soll, mit einem Standardwert von gpt-3.5-turbo.
Temperatur Optional. Ruft die zu verwendende Samplingtemperatur als Zeichenfolge zwischen 0 und .2 Höhere Werte (0.8) machen die Ausgabe zufälliger, während niedrigere Werte wie (0.2) die Ausgabe fokussierter und deterministisch gestalten. Sie sollten entweder Temperature oder TopP, aber nicht beide verwenden.
TopP Optional. Dient zum Abrufen oder Festlegen einer Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, als Zeichenfolge. Bei dieser Samplingmethode berücksichtigt das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse. Bedeutet also 0.1 , dass nur die Token aus den top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Sie sollten entweder Temperature oder TopP, aber nicht beide verwenden.
MaxTokens Optional. Dient zum Abrufen oder Festlegen der maximalen Anzahl von Token, die im Abschluss generiert werden sollen, als Zeichenfolge mit einem Standardwert von 100. Die Tokenanzahl Ihres Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten. Die meisten Modelle haben eine Kontextlänge von 2,048 Token (mit Ausnahme der neuesten Modelle, die 4096 unterstützen).
IsReasoningModel Optional. Dient zum Abrufen oder Festlegen eines Werts, der angibt, ob das Chatabschlussmodell ein Grundmodell ist. Diese Option ist experimentell und mit dem Begründungsmodell verknüpft, bis alle Modelle die Parität in den erwarteten Eigenschaften haben, mit einem Standardwert von false.

Anmerkungen

Mit der Anmerkung PostUserQuery können Sie eine Eingabebindung zum Senden einer Nachricht an den Assistenten definieren, die diese Parameter unterstützt:

Element Beschreibung
Name Der Name der Ausgabebindung.
id Die ID des zu aktualisierenden Assistenten.
userMessage Ruft die Benutzernachricht für das Chatabschlussmodell ab, die als Zeichenfolge codiert ist, oder legt sie fest.
aiConnectionName Optional. Dient zum Abrufen oder Festlegen des Namens des Konfigurationsabschnitts für AI-Dienstkonnektivitätseinstellungen. For Azure OpenAI: If specified, looks for "Endpoint" and "Key" values in this configuration section. Wenn sie nicht angegeben ist oder der Abschnitt nicht vorhanden ist, kehren Sie auf Umgebungsvariablen zurück: AZURE_OPENAI_ENDPOINT und AZURE_OPENAI_KEY. Für die vom Benutzer zugewiesene verwaltete Identitätsauthentifizierung ist diese Eigenschaft erforderlich. Legen Sie für openAI-Dienst (nicht azure) die OPENAI_API_KEY Umgebungsvariable fest.
chatModel Dient zum Abrufen oder Festlegen der ID des Modells, das als Zeichenfolge verwendet werden soll, mit einem Standardwert von gpt-3.5-turbo.
Temperatur Optional. Ruft die zu verwendende Samplingtemperatur als Zeichenfolge zwischen 0 und .2 Höhere Werte (0.8) machen die Ausgabe zufälliger, während niedrigere Werte wie (0.2) die Ausgabe fokussierter und deterministisch gestalten. Sie sollten entweder Temperature oder TopP, aber nicht beide verwenden.
topP Optional. Dient zum Abrufen oder Festlegen einer Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, als Zeichenfolge. Bei dieser Samplingmethode berücksichtigt das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse. Bedeutet also 0.1 , dass nur die Token aus den top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Sie sollten entweder Temperature oder TopP, aber nicht beide verwenden.
maxTokens Optional. Dient zum Abrufen oder Festlegen der maximalen Anzahl von Token, die im Abschluss generiert werden sollen, als Zeichenfolge mit einem Standardwert von 100. Die Tokenanzahl Ihres Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten. Die meisten Modelle haben eine Kontextlänge von 2,048 Token (mit Ausnahme der neuesten Modelle, die 4096 unterstützen).
isReasoningModel Optional. Dient zum Abrufen oder Festlegen eines Werts, der angibt, ob das Chatabschlussmodell ein Grundmodell ist. Diese Option ist experimentell und mit dem Begründungsmodell verknüpft, bis alle Modelle die Parität in den erwarteten Eigenschaften haben, mit einem Standardwert von false.

Decorator-Elemente

Definieren Sie während der Vorschau die Ausgabebindung als Bindung generic_output_binding vom Typ postUserQuery, die diese Parameter unterstützt:

Parameter Beschreibung
arg_name Der Name der Variablen, die den Bindungsparameter darstellt.
id Die ID des zu aktualisierenden Assistenten.
user_message Ruft die Benutzernachricht für das Chatabschlussmodell ab, die als Zeichenfolge codiert ist, oder legt sie fest.
ai_connection_name Optional. Dient zum Abrufen oder Festlegen des Namens des Konfigurationsabschnitts für AI-Dienstkonnektivitätseinstellungen. For Azure OpenAI: If specified, looks for "Endpoint" and "Key" values in this configuration section. Wenn sie nicht angegeben ist oder der Abschnitt nicht vorhanden ist, kehren Sie auf Umgebungsvariablen zurück: AZURE_OPENAI_ENDPOINT und AZURE_OPENAI_KEY. Für die vom Benutzer zugewiesene verwaltete Identitätsauthentifizierung ist diese Eigenschaft erforderlich. Legen Sie für openAI-Dienst (nicht azure) die OPENAI_API_KEY Umgebungsvariable fest.
chat_model Dient zum Abrufen oder Festlegen der ID des Modells, das als Zeichenfolge verwendet werden soll, mit einem Standardwert von gpt-3.5-turbo.
Temperatur Optional. Ruft die zu verwendende Samplingtemperatur als Zeichenfolge zwischen 0 und .2 Höhere Werte (0.8) machen die Ausgabe zufälliger, während niedrigere Werte wie (0.2) die Ausgabe fokussierter und deterministisch gestalten. Sie sollten entweder Temperature oder TopP, aber nicht beide verwenden.
top_p Optional. Dient zum Abrufen oder Festlegen einer Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, als Zeichenfolge. Bei dieser Samplingmethode berücksichtigt das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse. Bedeutet also 0.1 , dass nur die Token aus den top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Sie sollten entweder Temperature oder TopP, aber nicht beide verwenden.
max_tokens Optional. Dient zum Abrufen oder Festlegen der maximalen Anzahl von Token, die im Abschluss generiert werden sollen, als Zeichenfolge mit einem Standardwert von 100. Die Tokenanzahl Ihres Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten. Die meisten Modelle haben eine Kontextlänge von 2,048 Token (mit Ausnahme der neuesten Modelle, die 4096 unterstützen).
is_reasoning _model Optional. Dient zum Abrufen oder Festlegen eines Werts, der angibt, ob das Chatabschlussmodell ein Grundmodell ist. Diese Option ist experimentell und mit dem Begründungsmodell verknüpft, bis alle Modelle die Parität in den erwarteten Eigenschaften haben, mit einem Standardwert von false.

Konfiguration

Die Bindung unterstützt diese Konfigurationseigenschaften, die Sie in der Datei „function.json“ festlegen.

Eigenschaft Beschreibung
Typ Muss PostUserQuerylauten.
Richtung Muss outlauten.
Name Der Name der Ausgabebindung.
id Die ID des zu aktualisierenden Assistenten.
userMessage Ruft die Benutzernachricht für das Chatabschlussmodell ab, die als Zeichenfolge codiert ist, oder legt sie fest.
aiConnectionName Optional. Dient zum Abrufen oder Festlegen des Namens des Konfigurationsabschnitts für AI-Dienstkonnektivitätseinstellungen. For Azure OpenAI: If specified, looks for "Endpoint" and "Key" values in this configuration section. Wenn sie nicht angegeben ist oder der Abschnitt nicht vorhanden ist, kehren Sie auf Umgebungsvariablen zurück: AZURE_OPENAI_ENDPOINT und AZURE_OPENAI_KEY. Für die vom Benutzer zugewiesene verwaltete Identitätsauthentifizierung ist diese Eigenschaft erforderlich. Legen Sie für openAI-Dienst (nicht azure) die OPENAI_API_KEY Umgebungsvariable fest.
chatModel Dient zum Abrufen oder Festlegen der ID des Modells, das als Zeichenfolge verwendet werden soll, mit einem Standardwert von gpt-3.5-turbo.
Temperatur Optional. Ruft die zu verwendende Samplingtemperatur als Zeichenfolge zwischen 0 und .2 Höhere Werte (0.8) machen die Ausgabe zufälliger, während niedrigere Werte wie (0.2) die Ausgabe fokussierter und deterministisch gestalten. Sie sollten entweder Temperature oder TopP, aber nicht beide verwenden.
topP Optional. Dient zum Abrufen oder Festlegen einer Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, als Zeichenfolge. Bei dieser Samplingmethode berücksichtigt das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse. Bedeutet also 0.1 , dass nur die Token aus den top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Sie sollten entweder Temperature oder TopP, aber nicht beide verwenden.
maxTokens Optional. Dient zum Abrufen oder Festlegen der maximalen Anzahl von Token, die im Abschluss generiert werden sollen, als Zeichenfolge mit einem Standardwert von 100. Die Tokenanzahl Ihres Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten. Die meisten Modelle haben eine Kontextlänge von 2,048 Token (mit Ausnahme der neuesten Modelle, die 4096 unterstützen).
isReasoningModel Optional. Dient zum Abrufen oder Festlegen eines Werts, der angibt, ob das Chatabschlussmodell ein Grundmodell ist. Diese Option ist experimentell und mit dem Begründungsmodell verknüpft, bis alle Modelle die Parität in den erwarteten Eigenschaften haben, mit einem Standardwert von false.

Konfiguration

Die Bindung unterstützt diese Eigenschaften, die in Ihrem Code definiert sind:

Eigenschaft Beschreibung
id Die ID des zu aktualisierenden Assistenten.
userMessage Ruft die Benutzernachricht für das Chatabschlussmodell ab, die als Zeichenfolge codiert ist, oder legt sie fest.
aiConnectionName Optional. Dient zum Abrufen oder Festlegen des Namens des Konfigurationsabschnitts für AI-Dienstkonnektivitätseinstellungen. For Azure OpenAI: If specified, looks for "Endpoint" and "Key" values in this configuration section. Wenn sie nicht angegeben ist oder der Abschnitt nicht vorhanden ist, kehren Sie auf Umgebungsvariablen zurück: AZURE_OPENAI_ENDPOINT und AZURE_OPENAI_KEY. Für die vom Benutzer zugewiesene verwaltete Identitätsauthentifizierung ist diese Eigenschaft erforderlich. Legen Sie für openAI-Dienst (nicht azure) die OPENAI_API_KEY Umgebungsvariable fest.
chatModel Dient zum Abrufen oder Festlegen der ID des Modells, das als Zeichenfolge verwendet werden soll, mit einem Standardwert von gpt-3.5-turbo.
Temperatur Optional. Ruft die zu verwendende Samplingtemperatur als Zeichenfolge zwischen 0 und .2 Höhere Werte (0.8) machen die Ausgabe zufälliger, während niedrigere Werte wie (0.2) die Ausgabe fokussierter und deterministisch gestalten. Sie sollten entweder Temperature oder TopP, aber nicht beide verwenden.
topP Optional. Dient zum Abrufen oder Festlegen einer Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, als Zeichenfolge. Bei dieser Samplingmethode berücksichtigt das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse. Bedeutet also 0.1 , dass nur die Token aus den top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Sie sollten entweder Temperature oder TopP, aber nicht beide verwenden.
maxTokens Optional. Dient zum Abrufen oder Festlegen der maximalen Anzahl von Token, die im Abschluss generiert werden sollen, als Zeichenfolge mit einem Standardwert von 100. Die Tokenanzahl Ihres Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten. Die meisten Modelle haben eine Kontextlänge von 2,048 Token (mit Ausnahme der neuesten Modelle, die 4096 unterstützen).
isReasoningModel Optional. Dient zum Abrufen oder Festlegen eines Werts, der angibt, ob das Chatabschlussmodell ein Grundmodell ist. Diese Option ist experimentell und mit dem Begründungsmodell verknüpft, bis alle Modelle die Parität in den erwarteten Eigenschaften haben, mit einem Standardwert von false.

Verbrauch

Vollständige Beispiele finden Sie im Abschnitt Beispiele.