共用方式為


開啟模型 LLM 工具

Open Model LLM 工具可讓您利用各種開放式模型和基礎模型,例如獵鷹Llama 2,在 Azure 機器學習 提示流程中處理自然語言。

警告

淘汰通知:開放式模型 LLM 工具已被取代,有利於 LLM 工具,它為 Azure AI 模型推斷 API 支援的所有模型提供支援,因此可提供更大的彈性。

以下是 Visual Studio Code 提示流程延伸模組上的外觀。 在此範例中,此工具正用來呼叫 LlaMa-2 聊天端點,並詢問「什麼是 CI?」。

顯示 Visual Studio Code 提示流程延伸模組上開啟模型 LLM 工具的螢幕快照。

此提示流程工具支援兩種不同的 LLM API 型態:

  • 聊天:如上述範例所示。 聊天 API 類型可透過文字型輸入和回應,促進互動式交談。
  • 完成:完成 API 類型是用來根據提供的提示輸入來產生單一回應文字完成。

快速概觀:如何? 使用開放式模型 LLM 工具?

  1. 從 Azure 機器學習 模型目錄選擇模型,並加以部署。
  2. 線上到模型部署。
  3. 設定開啟的模型 llm 工具設定。
  4. 準備提示
  5. 執行流程。

必要條件:模型部署

  • 從 Azure 機器學習 模型目錄挑選符合您案例的模型。
  • 使用 [部署] 按鈕將模型部署至 Azure 機器學習 在線推斷端點。
    • 使用其中一個隨用隨付部署選項。

若要深入瞭解,請參閱 將基礎模型部署至端點以進行推斷

必要條件:連線到模型

若要讓提示流程使用已部署的模型,您必須連線到該模型。 有兩種方式可以連線。

端點連線

一旦您的流程與 Azure 機器學習 或 Azure AI Studio 工作區相關聯,Open Model LLM 工具就可以使用該工作區上的端點。

  • 使用 Azure 機器學習 或 Azure AI Studio 工作區:如果您使用其中一個網頁型瀏覽器工作區中的提示流程,該工作區上會自動啟動的在線端點。

  • 使用 VS Code 或程式代碼:如果您在 VS Code 或其中一個 Code First 供應專案中使用提示流程,則必須連線到工作區。 Open Model LLM 工具會使用 azure.identity DefaultAzureCredential 用戶端進行授權。 其中一種方式是 設定環境認證值

自定義連線

Open Model LLM 工具會使用 CustomConnection。 提示流程支援兩種類型的連線:

  • 工作區連線 - 儲存為 Azure 機器學習 工作區中秘密的連線。 雖然可以使用這些連線,但在許多地方,通常會在 Studio UI 中建立和維護 。 若要瞭解如何在 Studio UI 中建立自定義連線,請參閱 如何建立自定義連線

  • 本機連線 - 儲存在本機計算機上的連線。 這些連線無法在 Studio UX 中使用,但可與 VS Code 擴充功能搭配使用。 若要瞭解如何建立本機自定義連線,請參閱 如何建立本機連線

要設定的必要金鑰如下:

  • endpoint_url
    • 此值可在先前建立的推斷端點中找到。
  • endpoint_api_key
    • 確定將它設定為秘密值。
    • 此值可在先前建立的推斷端點中找到。
  • model_family
    • 支援的值:LLAMA、DOLLY、GPT2 或 FALCON
    • 此值取決於您的目標部署類型。

執行工具:輸入

Open Model LLM 工具有許多參數,其中有些是必要參數。 如需詳細資訊,請參閱下表,您可以比對這些參數與上述螢幕快照,以取得視覺效果的清晰性。

名稱 類型​​ 描述 必要
api 字串 相依於使用的模型和所選案例的 API 模式。 支援的值:(完成 |聊天) Yes
endpoint_name 字串 在線推斷端點的名稱,其上已部署支援的模型。 優先於連線。 Yes
溫度 float 所產生文字的隨機性。 預設為 1。 No
max_new_tokens 整數 完成時要產生的權杖數目上限。 預設值為 500。 No
top_p float 從產生的權杖使用最上層選擇的機率。 預設為 1。 No
model_kwargs 字典 此輸入是用來提供所使用模型專屬的組態。 例如,Llama-02 模型可能會使用 {“temperature”:0.4}。 違約: {} No
deployment_name 字串 要以在線推斷端點為目標的部署名稱。 如果未傳遞任何值,則會使用推斷負載平衡器流量設定。 No
Prompt 字串 語言模型用來產生其回應的文字提示。 Yes

輸出

API 傳回類型 描述
Completion string 一個預測完成的文字
聊天 字串 交談中一個回應的文字

部署至在線端點

當您將包含開放式模型 LLM 工具的流程部署到在線端點時,有額外的步驟可設定許可權。 在透過網頁進行部署期間,系統指派和使用者指派的身分識別類型之間有選擇。 無論哪種方式,使用 Azure 入口網站(或類似的功能),將「讀取者」作業函式角色新增至 Azure 機器學習 工作區或裝載端點的 Ai Studio 專案上的身分識別。 提示流程部署可能需要重新整理。