共用方式為


快速入門:開始使用 Azure AI Foundry

在本快速入門中,我們會逐步引導您使用 Azure AI Foundry SDK 設定本機開發環境。 我們會撰寫提示、在您的應用程式程式碼中執行它、追蹤要進行的 LLM 呼叫,以及在 LLM 的輸出上執行基本評估。

小提示

本文的其餘部分說明如何使用 中樞型專案。 如果您想要改用 Foundry 專案,請選取本文頂端的 Foundry 專案。

先決條件

  • Azure 訂用帳戶。 如尚未擁有 Azure 訂用帳戶,請在開始之前先建立免費帳戶。
  • 中樞型專案。 如果您不熟悉 Azure AI Foundry 且沒有中樞型專案,請選取本文頂端的 Foundry 專案 ,以改用 Foundry 專案。

設定開發環境

  1. 設定開發環境

  2. 請確定您安裝這些套件:

    pip install azure-ai-projects azure-ai-inference azure-identity 
    

部署模型

小提示

因為您可以在 Azure AI Foundry 入口網站中 自訂左窗格,因此您看到的項目可能會與這些步驟中顯示的不同。 如果您沒有看到您要尋找的內容,請選取左窗格底部的 ... 更多

  1. 登入 Azure AI Foundry

  2. 選取中樞型專案。 如果您沒有中樞型專案,請選取本文頂端的 Foundry 專案 以改用 Foundry 專案。

  3. 從左窗格中選取 [模型目錄 ]。

  4. 從模型清單中選取 gpt-4o-mini 模型。 您可以使用搜尋列來尋找它。

  5. 在 [模型詳細數據] 頁面上,選取 [ 部署]。

    模型詳細數據頁面的螢幕快照,其中包含部署模型的按鈕。

  6. 保留預設 的部署名稱。 請選擇 部署

  7. 部署模型之後,請選取 [在遊樂場 中開啟] 以測試您的模型。

建置聊天應用程式

建立名為 chat.py 的檔案。 將下列程式代碼複製並貼到其中。

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

插入您的 連接字串

您需要您的項目連接字串,才能從程式代碼呼叫 Azure AI Foundry Models 中的 Azure OpenAI。

在您在 Azure AI Foundry 遊樂場快速入門中建立的 Azure AI Foundry 專案中尋找您的 連接字串。 開啟項目,然後在 [概觀] 頁面上尋找 連接字串

顯示專案概觀頁面和 連接字串 位置的螢幕快照。

複製 連接字串,並在 chat.py<your-connection-string-goes-here>取代

執行聊天腳本

執行文本以查看來自模型的回應。

python chat.py

從使用者輸入和提示範本產生提示

腳本會使用硬式編碼的輸入和輸出訊息。 在實際應用程式中,您會從用戶端應用程式取得輸入,產生系統訊息,其中包含模型的內部指示,然後使用所有訊息呼叫 LLM。

讓我們變更文本以從用戶端應用程式取得輸入,並使用提示範本產生系統訊息。

  1. 拿掉列印回應之腳本的最後一行。

  2. 現在定義 get_chat_response 接受訊息和內容的函式、使用提示範本產生系統訊息,以及呼叫模型。 將此程式代碼新增至您現有的 chat.py 檔案:

    from azure.ai.inference.prompts import PromptTemplate
    
    
    def get_chat_response(messages, context):
        # create a prompt template from an inline string (using mustache syntax)
        prompt_template = PromptTemplate.from_string(
            prompt_template="""
            system:
            You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig? Refer to the user by their first name, try to work their last name into a pun.
    
            The user's first name is {{first_name}} and their last name is {{last_name}}.
            """
        )
    
        # generate system message from the template, passing in the context as variables
        system_message = prompt_template.create_messages(data=context)
    
        # add the prompt messages to the user messages
        return chat.complete(
            model="gpt-4o-mini",
            messages=system_message + messages,
            temperature=1,
            frequency_penalty=0.5,
            presence_penalty=0.5,
        )
    

    備註

    提示範本使用鬍鬚格式。

    get_chat_response函式可以輕鬆地新增為 FastAPI 或 Flask 應用程式的路由,以便從前端 Web 應用程式呼叫此函式。

  3. 現在,模擬將資訊從前端應用程式傳遞至此函式。 將下列程式代碼新增至 chat.py 檔案的結尾。 您可以隨意使用訊息,並新增您自己的名稱。

    if __name__ == "__main__":
        response = get_chat_response(
            messages=[{"role": "user", "content": "what city has the best food in the world?"}],
            context={"first_name": "Jessie", "last_name": "Irwin"},
        )
        print(response.choices[0].message.content)
    

執行修訂后的腳本,以查看來自模型與這個新輸入的回應。

python chat.py

後續步驟

在本快速入門中,您會使用 Azure AI Foundry 來:

  • 建立專案
  • 部署模型
  • 執行聊天完成
  • 建立和執行代理程式
  • 將檔案上傳至代理程式

Azure AI Foundry SDK 提供多種語言,包括 Python、Java、JavaScript 和 C#。 本快速入門提供每個語言的指示。

小提示

本文的其餘部分說明如何使用 Foundry 專案。 如果您想改用中樞型專案,請選取本文頂端的中樞型專案。

先決條件

  • Azure 訂用帳戶。 如尚未擁有 Azure 訂用帳戶,請在開始之前先建立免費帳戶。
  • 您必須是訂用帳戶的 擁有者 ,才能接收使用專案所需的適當訪問控制。

這很重要

本文中標示為 (預覽) 的項目目前處於公開預覽狀態。 此預覽版本沒有服務等級協定,不建議將其用於生產工作負載。 可能不支援特定功能,或可能已經限制功能。 如需詳細資訊,請參閱 Microsoft Azure 預覽版增補使用條款

從專案和模型開始

  1. 登入 Azure AI Foundry 入口網站

  2. 在首頁上搜尋 ,然後選取 gpt-4o 模型。

    此螢幕快照顯示如何在 Azure AI Foundry 入口網站中開始建置代理程式。

  3. 在 [模型詳細數據] 頁面上,選取 [使用此模型]。

  4. 填入要用於項目的名稱,然後選取 [ 建立]。

  5. 建立資源之後,您就會在聊天遊樂場中。

設定您的環境

不需要安裝 Azure AI Foundry 入口網站。

執行聊天完成

聊天完成是 AI 應用程式的基本建置組塊。 使用聊天完成功能,您可以傳送一系列訊息,並從模型取得回應。

  1. 在聊天遊樂場中,填入提示,然後選取 [ 傳送 ] 按鈕。
  2. 模型會在 [ 回應 ] 窗格中傳回回應。

與代理程式聊天

代理程式透過使用工具具有強大的功能。 首先,與客服人員聊天。

當您準備好嘗試代理程式時,會為您建立預設代理程式。 若要與此代理程式聊天:

  1. 在左窗格中,選取 [ 遊樂場]。
  2. [代理程序遊樂場] 卡片中 ,選取 [ 讓我們去]。
  3. 新增指示,例如「您是實用的寫作助理」。
  4. 例如,開始和你的經紀人聊天,例如,“給我寫一首關於鮮花的詩”。

將檔案新增至代理程式

現在讓我們新增檔案搜尋工具,讓我們能夠進行知識擷取。

  1. 在代理程式的 [ 設定 ] 窗格中,視需要向下捲動以尋找 知識
  2. 選取 ,然後新增
  3. 選擇 檔案 以上傳 product_info_1.md 檔案。
  4. 選取 [選取本機檔案] 底下的 [新增檔案]
  5. 選取 [上傳並儲存]。
  6. 變更您的代理程式指示,例如「您是一個有用的小幫手,而且可以從上傳的檔案搜尋資訊」。
  7. 您可以問個問題,例如:「您好,您知道哪些 Contoso 產品?」
  8. 若要新增更多檔案,請在 AgentVectorStore 上選取 ... ,然後選取 [ 管理]。

清理資源

如果您不再需要它們,請刪除與您的專案相關聯的資源群組。

在 Azure AI Foundry 入口網站中,選取右上角的項目名稱。 然後選取資源群組的連結,以在 Azure 入口網站中開啟它。 選取資源群組,然後選取 [ 刪除]。 確認您想要刪除資源群組。

Azure AI Foundry 用戶端連結庫概觀