這很重要
適用於 Azure Functions 的 Azure OpenAI 延伸模組目前為預覽狀態。
Azure OpenAI 文字完成輸入系結可讓您將結果文字完成 API 帶入程式代碼執行。 您可以定義系結,以搭配參數使用預先定義的提示,或傳遞整個提示。
如需 Azure OpenAI 延伸模組的安裝和設定詳細資料,請參閱適用於 Azure Functions 的 Azure OpenAI 延伸模組。 若要深入瞭解 Azure OpenAI 完成,請參閱 瞭解如何產生或作文字。
備註
參考和範例僅適用於 Node.js v4 模型。
備註
參考和範例僅適用於 Python v2 模型。
備註
雖然支援這兩個 C# 進程模型,但只會 提供隔離的背景工作模型 範例。
範例
此範例示範 範本化 模式,其中 HTTP 觸發程式函式會採用 name
參數,並將其內嵌至文字提示字元,然後由延伸模塊傳送至 Azure OpenAI 完成 API。 提示的回應會在 HTTP 回應中會傳回。
[Function(nameof(WhoIs))]
public static IActionResult WhoIs(
[HttpTrigger(AuthorizationLevel.Function, Route = "whois/{name}")] HttpRequestData req,
[TextCompletionInput("Who is {name}?", ChatModel = "%CHAT_MODEL_DEPLOYMENT_NAME%")] TextCompletionResponse response)
{
return new OkObjectResult(response.Content);
}
此範例會採用提示做為輸入、將它直接傳送至完成 API,並傳回回應做為輸出。
[Function(nameof(GenericCompletion))]
public static IActionResult GenericCompletion(
[HttpTrigger(AuthorizationLevel.Function, "post")] HttpRequestData req,
[TextCompletionInput("{Prompt}", ChatModel = "%CHAT_MODEL_DEPLOYMENT_NAME%")] TextCompletionResponse response,
ILogger log)
{
string text = response.Content;
return new OkObjectResult(text);
}
此範例示範 範本化 模式,其中 HTTP 觸發程式函式會採用 name
參數,並將其內嵌至文字提示字元,然後由延伸模塊傳送至 Azure OpenAI 完成 API。 提示的回應會在 HTTP 回應中會傳回。
@FunctionName("WhoIs")
public HttpResponseMessage whoIs(
@HttpTrigger(
name = "req",
methods = {HttpMethod.GET},
authLevel = AuthorizationLevel.ANONYMOUS,
route = "whois/{name}")
HttpRequestMessage<Optional<String>> request,
@BindingName("name") String name,
@TextCompletion(prompt = "Who is {name}?", chatModel = "%CHAT_MODEL_DEPLOYMENT_NAME%", name = "response", isReasoningModel = false) TextCompletionResponse response,
final ExecutionContext context) {
return request.createResponseBuilder(HttpStatus.OK)
.header("Content-Type", "application/json")
.body(response.getContent())
.build();
}
此範例會採用提示做為輸入、將它直接傳送至完成 API,並傳回回應做為輸出。
@FunctionName("GenericCompletion")
public HttpResponseMessage genericCompletion(
@HttpTrigger(
name = "req",
methods = {HttpMethod.POST},
authLevel = AuthorizationLevel.ANONYMOUS)
HttpRequestMessage<Optional<String>> request,
@TextCompletion(prompt = "{prompt}", chatModel = "%CHAT_MODEL_DEPLOYMENT_NAME%", name = "response", isReasoningModel = false) TextCompletionResponse response,
final ExecutionContext context) {
return request.createResponseBuilder(HttpStatus.OK)
.header("Content-Type", "application/json")
.body(response.getContent())
.build();
}
此範例示範 範本化 模式,其中 HTTP 觸發程式函式會採用 name
參數,並將其內嵌至文字提示字元,然後由延伸模塊傳送至 Azure OpenAI 完成 API。 提示的回應會在 HTTP 回應中會傳回。
const { app, input } = require("@azure/functions");
// This OpenAI completion input requires a {name} binding value.
const openAICompletionInput = input.generic({
prompt: 'Who is {name}?',
maxTokens: '100',
type: 'textCompletion',
chatModel: '%CHAT_MODEL_DEPLOYMENT_NAME%'
})
app.http('whois', {
methods: ['GET'],
route: 'whois/{name}',
authLevel: 'function',
extraInputs: [openAICompletionInput],
handler: async (_request, context) => {
var response = context.extraInputs.get(openAICompletionInput)
return { body: response.content.trim() }
}
});
此範例示範 範本化 模式,其中 HTTP 觸發程式函式會採用 name
參數,並將其內嵌至文字提示字元,然後由延伸模塊傳送至 Azure OpenAI 完成 API。 提示的回應會在 HTTP 回應中會傳回。
import { app, input } from "@azure/functions";
// This OpenAI completion input requires a {name} binding value.
const openAICompletionInput = input.generic({
prompt: 'Who is {name}?',
maxTokens: '100',
type: 'textCompletion',
chatModel: '%CHAT_MODEL_DEPLOYMENT_NAME%'
})
app.http('whois', {
methods: ['GET'],
route: 'whois/{name}',
authLevel: 'function',
extraInputs: [openAICompletionInput],
handler: async (_request, context) => {
var response: any = context.extraInputs.get(openAICompletionInput)
return { body: response.content.trim() }
}
});
此範例示範 範本化 模式,其中 HTTP 觸發程式函式會採用 name
參數,並將其內嵌至文字提示字元,然後由延伸模塊傳送至 Azure OpenAI 完成 API。 提示的回應會在 HTTP 回應中會傳回。
以下是 的 TextCompletionResponse
檔案:
{
"bindings": [
{
"authLevel": "function",
"type": "httpTrigger",
"direction": "in",
"name": "Request",
"route": "whois/{name}",
"methods": [
"get"
]
},
{
"type": "http",
"direction": "out",
"name": "Response"
},
{
"type": "textCompletion",
"direction": "in",
"name": "TextCompletionResponse",
"prompt": "Who is {name}?",
"maxTokens": "100",
"chatModel": "%CHAT_MODEL_DEPLOYMENT_NAME%"
}
]
}
如需 function.json 檔案屬性的詳細資訊,請參閱設定一節。
程式代碼只會從完成 API 傳回文字作為回應:
using namespace System.Net
param($Request, $TriggerMetadata, $TextCompletionResponse)
Push-OutputBinding -Name Response -Value ([HttpResponseContext]@{
StatusCode = [HttpStatusCode]::OK
Body = $TextCompletionResponse.Content
})
此範例示範 範本化 模式,其中 HTTP 觸發程式函式會採用 name
參數,並將其內嵌至文字提示字元,然後由延伸模塊傳送至 Azure OpenAI 完成 API。 提示的回應會在 HTTP 回應中會傳回。
@app.route(route="whois/{name}", methods=["GET"])
@app.text_completion_input(
arg_name="response",
prompt="Who is {name}?",
max_tokens="100",
chat_model="%CHAT_MODEL_DEPLOYMENT_NAME%",
)
def whois(req: func.HttpRequest, response: str) -> func.HttpResponse:
response_json = json.loads(response)
return func.HttpResponse(response_json["content"], status_code=200)
此範例會採用提示做為輸入、將它直接傳送至完成 API,並傳回回應做為輸出。
@app.route(route="genericcompletion", methods=["POST"])
@app.text_completion_input(
arg_name="response",
prompt="{Prompt}",
chat_model="%CHAT_MODEL_DEPLOYMENT_NAME%",
)
def genericcompletion(
req: func.HttpRequest,
response: str
) -> func.HttpResponse:
response_json = json.loads(response)
return func.HttpResponse(response_json["content"], status_code=200)
屬性
您套用以定義文字完成輸入系結的特定屬性取決於您的 C# 處理模式。
在 隔離的背景工作模型中,套用 TextCompletionInput
以定義文字完成輸入系結。
屬性支援下列參數:
參數 | 說明 |
---|---|
提示 | 取得或設定產生完成的提示,編碼為字串。 |
AIConnectionName | 選擇性。 取得或設定 AI 服務連線設定的組態區段名稱。 針對 Azure OpenAI:如果指定,請在此組態區段中尋找「端點」和「金鑰」值。 如果未指定或區段不存在,請回復為環境變數:AZURE_OPENAI_ENDPOINT和AZURE_OPENAI_KEY。 針對使用者指派的受控識別驗證,需要此屬性。 針對OpenAI服務 (非 Azure),請設定OPENAI_API_KEY環境變數。 |
ChatModel |
選擇性。 取得或設定要當做字串使用的模型識別碼,預設值為 gpt-3.5-turbo 。 |
溫度 |
選擇性。 取得或設定要使用的取樣溫度,做為 和0 之間的2 字串。 較高的值 (0.8 ) 會使輸出更具隨機性,而較低的值,例如 (0.2 ) 讓輸出更具焦點且具決定性。 您應該使用 或 Temperature ,但不應該同時使用TopP 兩者。 |
TopP |
選擇性。 取得或設定以溫度作為字串進行取樣的替代方法,稱為核取樣。 在此取樣方法中,模型會考慮具有 top_p 機率品質的令牌結果。 因此 0.1 ,表示只會考慮包含前10個% 機率質量的標記。 您應該使用 或 Temperature ,但不應該同時使用TopP 兩者。 |
MaxTokens |
選擇性。 取得或設定完成時要產生的令牌數目上限,做為預設值為的 100 字串。 提示的權杖計數加上 max_tokens 不能超過模型的內容長度。 大部分模型的內容長度為 2,048 個標記(但支援 4096 的最新模型除外)。 |
IsReasoningModel |
選擇性。 取得或設定值,指出聊天完成模型是否為推理模型。 此選項是實驗性的,且與推理模型相關聯,直到所有模型在預期的屬性中具有同位,預設值為 false 。 |
附註
批 TextCompletion
註可讓您定義文字完成輸入系結,其支援下列參數:
元素 | 說明 |
---|---|
名字 | 取得或設定輸入繫結的名稱。 |
提示 | 取得或設定產生完成的提示,編碼為字串。 |
aiConnectionName | 選擇性。 取得或設定 AI 服務連線設定的組態區段名稱。 針對 Azure OpenAI:如果指定,請在此組態區段中尋找「端點」和「金鑰」值。 如果未指定或區段不存在,請回復為環境變數:AZURE_OPENAI_ENDPOINT和AZURE_OPENAI_KEY。 針對使用者指派的受控識別驗證,需要此屬性。 針對OpenAI服務 (非 Azure),請設定OPENAI_API_KEY環境變數。 |
chatModel | 取得或設定要當做字串使用的模型識別碼,預設值為 gpt-3.5-turbo 。 |
溫度 |
選擇性。 取得或設定要使用的取樣溫度,做為 和0 之間的2 字串。 較高的值 (0.8 ) 會使輸出更具隨機性,而較低的值,例如 (0.2 ) 讓輸出更具焦點且具決定性。 您應該使用 或 Temperature ,但不應該同時使用TopP 兩者。 |
topP |
選擇性。 取得或設定以溫度作為字串進行取樣的替代方法,稱為核取樣。 在此取樣方法中,模型會考慮具有 top_p 機率品質的令牌結果。 因此 0.1 ,表示只會考慮包含前10個% 機率質量的標記。 您應該使用 或 Temperature ,但不應該同時使用TopP 兩者。 |
maxTokens |
選擇性。 取得或設定完成時要產生的令牌數目上限,做為預設值為的 100 字串。 提示的權杖計數加上 max_tokens 不能超過模型的內容長度。 大部分模型的內容長度為 2,048 個標記(但支援 4096 的最新模型除外)。 |
isReasoningModel |
選擇性。 取得或設定值,指出聊天完成模型是否為推理模型。 此選項是實驗性的,且與推理模型相關聯,直到所有模型在預期的屬性中具有同位,預設值為 false 。 |
裝飾項目
在預覽期間,將輸入繫結定義為 generic_input_binding
類型的 textCompletion
繫結,其支援下列參數:
參數 | 說明 |
---|---|
arg_name | 代表繫結參數的變數名稱。 |
提示 | 取得或設定產生完成的提示,編碼為字串。 |
ai_connection_name | 選擇性。 取得或設定 AI 服務連線設定的組態區段名稱。 針對 Azure OpenAI:如果指定,請在此組態區段中尋找「端點」和「金鑰」值。 如果未指定或區段不存在,請回復為環境變數:AZURE_OPENAI_ENDPOINT和AZURE_OPENAI_KEY。 針對使用者指派的受控識別驗證,需要此屬性。 針對OpenAI服務 (非 Azure),請設定OPENAI_API_KEY環境變數。 |
chat_model | 取得或設定要當做字串使用的模型識別碼,預設值為 gpt-3.5-turbo 。 |
溫度 |
選擇性。 取得或設定要使用的取樣溫度,做為 和0 之間的2 字串。 較高的值 (0.8 ) 會使輸出更具隨機性,而較低的值,例如 (0.2 ) 讓輸出更具焦點且具決定性。 您應該使用 或 Temperature ,但不應該同時使用TopP 兩者。 |
top_p |
選擇性。 取得或設定以溫度作為字串進行取樣的替代方法,稱為核取樣。 在此取樣方法中,模型會考慮具有 top_p 機率品質的令牌結果。 因此 0.1 ,表示只會考慮包含前10個% 機率質量的標記。 您應該使用 或 Temperature ,但不應該同時使用TopP 兩者。 |
max_tokens |
選擇性。 取得或設定完成時要產生的令牌數目上限,做為預設值為的 100 字串。 提示的權杖計數加上 max_tokens 不能超過模型的內容長度。 大部分模型的內容長度為 2,048 個標記(但支援 4096 的最新模型除外)。 |
is_reasoning _model |
選擇性。 取得或設定值,指出聊天完成模型是否為推理模型。 此選項是實驗性的,且與推理模型相關聯,直到所有模型在預期的屬性中具有同位,預設值為 false 。 |
設定
繫結支援您在 function.json 檔案中設定的下列組態屬性。
房產 | 說明 |
---|---|
類型 | 必須是 textCompletion 。 |
方向 | 必須是 in 。 |
名字 | 輸入繫結的名稱。 |
提示 | 取得或設定產生完成的提示,編碼為字串。 |
aiConnectionName | 選擇性。 取得或設定 AI 服務連線設定的組態區段名稱。 針對 Azure OpenAI:如果指定,請在此組態區段中尋找「端點」和「金鑰」值。 如果未指定或區段不存在,請回復為環境變數:AZURE_OPENAI_ENDPOINT和AZURE_OPENAI_KEY。 針對使用者指派的受控識別驗證,需要此屬性。 針對OpenAI服務 (非 Azure),請設定OPENAI_API_KEY環境變數。 |
chatModel | 取得或設定要當做字串使用的模型識別碼,預設值為 gpt-3.5-turbo 。 |
溫度 |
選擇性。 取得或設定要使用的取樣溫度,做為 和0 之間的2 字串。 較高的值 (0.8 ) 會使輸出更具隨機性,而較低的值,例如 (0.2 ) 讓輸出更具焦點且具決定性。 您應該使用 或 Temperature ,但不應該同時使用TopP 兩者。 |
topP |
選擇性。 取得或設定以溫度作為字串進行取樣的替代方法,稱為核取樣。 在此取樣方法中,模型會考慮具有 top_p 機率品質的令牌結果。 因此 0.1 ,表示只會考慮包含前10個% 機率質量的標記。 您應該使用 或 Temperature ,但不應該同時使用TopP 兩者。 |
maxTokens |
選擇性。 取得或設定完成時要產生的令牌數目上限,做為預設值為的 100 字串。 提示的權杖計數加上 max_tokens 不能超過模型的內容長度。 大部分模型的內容長度為 2,048 個標記(但支援 4096 的最新模型除外)。 |
isReasoningModel |
選擇性。 取得或設定值,指出聊天完成模型是否為推理模型。 此選項是實驗性的,且與推理模型相關聯,直到所有模型在預期的屬性中具有同位,預設值為 false 。 |
設定
繫結支援您在程式碼中定義的下列屬性:
房產 | 說明 |
---|---|
提示 | 取得或設定產生完成的提示,編碼為字串。 |
aiConnectionName | 選擇性。 取得或設定 AI 服務連線設定的組態區段名稱。 針對 Azure OpenAI:如果指定,請在此組態區段中尋找「端點」和「金鑰」值。 如果未指定或區段不存在,請回復為環境變數:AZURE_OPENAI_ENDPOINT和AZURE_OPENAI_KEY。 針對使用者指派的受控識別驗證,需要此屬性。 針對OpenAI服務 (非 Azure),請設定OPENAI_API_KEY環境變數。 |
chatModel | 取得或設定要當做字串使用的模型識別碼,預設值為 gpt-3.5-turbo 。 |
溫度 |
選擇性。 取得或設定要使用的取樣溫度,做為 和0 之間的2 字串。 較高的值 (0.8 ) 會使輸出更具隨機性,而較低的值,例如 (0.2 ) 讓輸出更具焦點且具決定性。 您應該使用 或 Temperature ,但不應該同時使用TopP 兩者。 |
topP |
選擇性。 取得或設定以溫度作為字串進行取樣的替代方法,稱為核取樣。 在此取樣方法中,模型會考慮具有 top_p 機率品質的令牌結果。 因此 0.1 ,表示只會考慮包含前10個% 機率質量的標記。 您應該使用 或 Temperature ,但不應該同時使用TopP 兩者。 |
maxTokens |
選擇性。 取得或設定完成時要產生的令牌數目上限,做為預設值為的 100 字串。 提示的權杖計數加上 max_tokens 不能超過模型的內容長度。 大部分模型的內容長度為 2,048 個標記(但支援 4096 的最新模型除外)。 |
isReasoningModel |
選擇性。 取得或設定值,指出聊天完成模型是否為推理模型。 此選項是實驗性的,且與推理模型相關聯,直到所有模型在預期的屬性中具有同位,預設值為 false 。 |
用法
如需完整範例,請參閱範例一節。