數據上的 Azure OpenAI

使用本文來瞭解 Azure OpenAI On Your Data,讓開發人員能夠更輕鬆地連線、內嵌及建立其企業數據,以快速建立個人化共同作業(預覽)。 它可增強使用者理解、加速完成工作、提高作業效率,以及協助決策。

什麼是 Azure OpenAI On your Data

Azure OpenAI On Your Data 可讓您在自己的企業數據上執行進階 AI 模型,例如 GPT-35-Turbo 和 GPT-4,而不需要定型或微調模型。 您可以在最上方聊天,並更準確地分析您的數據。 您可以指定來源,以根據指定數據源中可用的最新資訊來支持回應。 您可以透過 Azure OpenAI Studio 中的 SDK 或 Web 型介面,使用 REST API 存取 Azure OpenAI On Data。 您也可以建立連線至數據的 Web 應用程式,以啟用增強的聊天解決方案,或在 Copilot Studio 中將它直接部署為 Copilot (預覽版)。

開始使用

若要開始使用,請使用 Azure OpenAI Studio 連線您的資料來源,並開始詢問問題並針對您的資料進行聊天。

注意

若要開始使用,您必須已獲得 Azure OpenAI 存取的核准,並已使用 gpt-35-turbo 或 gpt-4 模型,在支援的區域中部署 Azure OpenAI 服務資源。

新增資料來源的 Azure 角色型存取控制 (Azure RBAC)

若要完整使用 Azure OpenAI On Your Data,您必須設定一或多個 Azure RBAC 角色。 如需詳細資訊,請參閱 安全地 在您的數據上使用 Azure OpenAI。

資料格式和檔案類型

Azure OpenAI On Your Data 支援下列檔類型:

  • .txt
  • .md
  • .html
  • .docx
  • .pptx
  • .pdf

上傳 限制,有一些關於文件結構的注意事項,以及它如何影響模型回應的品質:

  • 如果您要將資料從不支援的格式轉換成支援的格式,請藉由確保轉換來優化模型回應的品質:

    • 不會造成重大資料遺失。
    • 不會將非預期的雜訊新增至您的資料。
  • 如果您的檔案具有特殊的格式設定,例如數據表和數據行或專案符號點,請使用 GitHub可用的數據準備腳本來準備數據。

  • 對於具有長文字的文件和數據集,您應該使用可用的 數據準備腳本。 腳本會將數據區塊化,讓模型的回應更精確。 此腳本也支持掃描的 PDF 檔案和影像。

支援的資料來源

您必須連線到數據源,才能上傳您的數據。 當您想要使用您的數據與 Azure OpenAI 模型聊天時,您的數據會分塊在搜尋索引中,以便根據使用者查詢找到相關數據。

以虛擬核心為基礎的 Azure Cosmos DB for MongoDB 中的整合向量資料庫原生支援與 Azure OpenAI On Data 整合。

對於某些數據源,例如從本機計算機上傳檔案(預覽)或 Blob 記憶體帳戶中包含的數據(預覽),則會使用 Azure AI 搜尋。 當您選擇下列數據源時,您的數據會內嵌至 Azure AI 搜尋服務索引。

提示

如果您使用 Azure Cosmos DB(除了其適用於 MongoDB 的虛擬核心型 API 除外),您可能有資格使用 Azure AI 優勢供應專案,其提供 Azure Cosmos DB 輸送量點數高達 $6,000 美元的對等專案。

資料來源 描述
Azure AI 搜尋服務 在您的數據上使用現有的 Azure AI 搜尋索引與 Azure OpenAI。
Azure Cosmos DB 適用於 MongoDB 的 Azure Cosmos DB 適用於 Postgres 的 API 和以虛擬核心為基礎的 API 提供原生整合的向量索引;因此,它們不需要 Azure AI 搜尋。 不過,其其他 API 確實需要 Azure AI 搜尋進行向量索引編製。 適用於 NoSQL 原生整合向量資料庫的 Azure Cosmos DB 於 2024 年年中首次亮相。
上傳檔案 (預覽) 從本機計算機上傳檔案以儲存在 Azure Blob 儲存體 資料庫中,並內嵌至 Azure AI 搜尋服務。
URL/網址(預覽) URL 中的 Web 內容會儲存在 Azure Blob 儲存體 中。
Azure Blob 儲存體 (預覽) 從 Azure Blob 儲存體 上傳檔案,以內嵌至 Azure AI 搜尋服務索引。

向量索引服務的圖表。

必要條件

限制

資料準備

使用 GitHub提供的腳本來準備您的數據。

索引欄位對應

當您新增以虛擬核心為基礎的 Azure Cosmos DB for MongoDB 數據源時,您可以指定數據欄位來正確對應數據以進行擷取。

  • 內容數據(必要):一或多個提供的欄位可用來將模型放在您的數據上。 針對多個字段,請以逗號分隔值,不含空格。
  • 檔名/標題/URL:用來在聊天中參考文件時顯示更多資訊。
  • 向量欄位(必要):選取資料庫中包含向量的欄位。

顯示 Mongo DB 索引字段對應選項的螢幕快照。

部署至 copilot (預覽) 或 Web 應用程式

將 Azure OpenAI 連線至您的資料之後,您可以使用 Azure OpenAI Studio 中的 [部署至] 按鈕來部署資料。

顯示 Azure OpenAI Studio 中模型部署按鈕的螢幕擷取畫面。

這可讓您選擇部署獨立 Web 應用程式,讓使用者使用圖形使用者介面與聊天模型互動。 如需詳細資訊,請參閱 使用 Azure OpenAI Web 應用程式

您也可以直接從 Azure OpenAI Studio 部署至 Copilot Studio 中的 Copilot (預覽),讓您能夠將交談體驗帶到各種頻道,例如:Microsoft Teams、網站、Dynamics 365 和其他 Azure Bot Service 信道。 Azure OpenAI 服務和 Copilot Studio 中使用的租用戶應該相同。 如需詳細資訊,請參閱 使用 Azure OpenAI On Your Data 的連線。

注意

在 Copilot Studio 中部署至 copilot Studio (預覽版) 僅適用於美國區域。

安全地在您的數據上使用 Azure OpenAI

您可以使用 Microsoft Entra ID 角色型存取控制、虛擬網路和私人端點來保護資料和資源,以安全地使用 Azure OpenAI On Data。 您也可以使用 Azure AI 搜尋服務安全性篩選器來限制可用於回應不同使用者的檔。 請參閱 安全地在您的數據上使用 Azure OpenAI。

最佳作法

使用下列各節來瞭解如何改善模型所提供的響應品質。

擷取參數

將數據內嵌至 Azure AI 搜尋服務時,您可以在 Studio 或 擷取 API 中修改下列其他設定。

區塊大小 (預覽)

在擷取檔之前,Azure OpenAI On Your Data 會先將其分割成區塊來處理檔。 區塊大小是搜尋索引中任何區塊的標記數目上限。 區塊大小和擷取的檔數目一起控制傳送至模型的提示中包含多少資訊(令牌)。 一般而言,區塊大小乘以擷取的檔數目是傳送至模型的令牌總數。

為您的使用案例設定區塊大小

默認區塊大小為1,024個令牌。 不過,鑒於數據的唯一性,您可能會發現不同的區塊大小(例如 256、512 或 1,536 個令牌)更有效率。

調整區塊大小可以增強聊天機器人的效能。 雖然尋找最佳區塊大小需要一些試驗和錯誤,但從考慮數據集的性質開始。 較小的區塊大小通常較適合具有直接事實和較少內容的數據集,而較大的區塊大小可能會對更相關的資訊有所幫助,不過可能會影響擷取效能。

像 256 這樣的社區塊大小會產生更細微的區塊。 此大小也表示模型會利用較少的令牌來產生其輸出(除非擷取的檔數目很高),而且成本可能較低。 較小的區塊也表示模型不需要處理和解譯長段的文字,減少雜訊和干擾。 不過,這種細微度和焦點會造成潛在的問題。 重要資訊可能不是最上層擷取的區塊之一,特別是當擷取的檔數目設定為低值時,例如 3。

提示

請記住,改變區塊大小需要重新擷取您的檔,因此最好先調整 運行時間參數 ,例如嚴格度和擷取的檔數目。 如果您仍然未取得所需的結果,請考慮變更區塊大小:

  • 如果您在檔中遇到大量回應,例如「我不知道」的解答問題,請考慮將區塊大小縮減為 256 或 512 以改善粒度。
  • 如果聊天機器人提供一些正確的詳細數據,但遺漏其他詳細數據,在引文中變得很明顯,將區塊大小增加至 1,536 可能有助於擷取更多內容資訊。

執行階段參數

您可以在 Azure OpenAI Studio 和 API 的 [資料參數] 區段中修改下列其他設定。 當您更新這些參數時,不需要重新擷取您的數據。

參數名稱 描述
限制對數據的回應 此旗標會設定聊天機器人處理與數據源無關的查詢,或搜尋檔不足以取得完整答案時的方法。 停用此設定時,除了您的檔之外,模型也會以自己的知識補充其回應。 啟用此設定時,模型會嘗試只依賴您的檔進行回應。 這是 inScope API 中的參數,預設會設定為 true。
擷取的檔 此參數是一個整數,可以設定為 3、5、10 或 20,並控制提供給大型語言模型的檔區塊數目,以制定最終回應。 根據預設,這會設定為5。 搜尋程式可能會造成嘈雜,有時由於區塊化,相關信息可能會分散在搜尋索引中的多個區塊。 選取前 K 個數位,例如 5,可確保模型可以擷取相關信息,儘管搜尋和區塊化的固有限制。 不過,增加太多數目可能會分散模型的注意力。 此外,可以有效使用的檔數目上限取決於模型版本,因為每個檔都有不同的內容大小和處理檔的容量。 如果您發現回應遺漏重要內容,請嘗試增加此參數。 這是 topNDocuments API 中的參數,預設為 5。
嚴格 根據系統的相似度分數來決定篩選搜尋檔的主動性。 系統會查詢 Azure 搜尋服務或其他檔存放區,然後決定要提供給 ChatGPT 等大型語言模型的檔。 篩選出無關的檔可大幅提升端對端聊天機器人的效能。 如果有些檔在轉送至模型之前具有低相似度分數,則會從最上層 K 結果中排除。 這是由介於 1 到 5 的整數值所控制。 將此值設定為 1 表示系統會根據使用者查詢的搜尋相似度來篩選檔。 相反地,設定為 5 表示系統會積極篩選出檔,並套用非常高的相似度閾值。 如果您發現聊天機器人省略相關信息,請降低篩選條件的嚴格性(將值設定為接近 1),以包含更多檔。 相反地,如果無關的檔分散回應的注意力,請增加臨界值(將值設定為接近5)。 這是 strictness API 中的 參數,預設會設定為 3。

已修改的參考

模型可以針對從數據源擷取的檔,而不是"TYPE":CONTENT在 API 中傳回"TYPE":"UNCITED_REFERENCE",但不包含在引文中。 這對於偵錯很有用,而且您可以修改上述的嚴格性和擷取的文件運行時間參數來控制此行為。

系統訊息

您可以在使用 Azure OpenAI On Your Data 時定義系統訊息,以引導模型的回復。 此訊息可讓您在 Azure OpenAI On Data 使用的擷取增強世代 (RAG) 模式之上自定義回復。 除了內部基底提示之外,系統訊息也會用來提供體驗。 為了支援這項功能,我們會在特定數目的令牌之後截斷系統訊息,以確保模型可以使用您的數據回答問題。 如果您要在默認體驗之上定義額外的行為,請確定系統提示是詳細的,並說明確切的預期自定義。

選取 [新增數據集] 之後,您可以使用 Azure OpenAI Studio 中的 [系統訊息 ] 區段,或 roleInformationAPI 中的 參數。

顯示 Azure OpenAI Studio 中系統訊息選項的螢幕快照。

潛在的使用模式

定義角色

您可以定義您想要助理的角色。 例如,如果您要建置支援 Bot,您可以新增 「您是可協助使用者解決新問題的專家事件支援助理」

定義所擷取的數據類型

您也可以新增您提供給助理的數據本質。

  • 定義數據集的主題或範圍,例如「財務報告」、「學術論文」或「事件報告」。 例如,針對技術支援,您可以新增 「您可以使用所擷取文件中類似事件的資訊來回答查詢」
  • 如果您的資料具有特定特性,您可以將這些詳細資料新增至系統訊息。 例如,如果您的檔是日文,您可以新增 「您擷取日文檔,您應該在日文中仔細閱讀,並在日文中回答」
  • 如果您的檔案包含來自財務報告的數據表之類的結構化數據,您也可以在系統提示字元中新增此事實。 例如,如果您的數據具有數據表,您可以新增「您是以與財務結果相關的數據表形式提供的數據,而且您應該逐行讀取數據表行,以執行計算來回答用戶問題」。

定義輸出樣式

您也可以定義系統訊息來變更模型的輸出。 例如,如果您想要確保助理答案在法文中,您可以新增類似「您是 AI 助理,可協助瞭解法文尋找資訊的使用者」之類的提示。用戶的問題可以是英文或法文。請仔細閱讀擷取的檔,並以法文回答。請將文件的知識翻譯成法文,以確保所有答案都是法文的。

重申重要行為

Azure OpenAI On Your Data 的運作方式是透過以提示形式將指示傳送至大型語言模型,以使用您的數據回應用戶查詢。 如果某個行為對應用程式很重要,您可以重複系統訊息中的行為,以提高其精確度。 例如,若要引導模型只回答檔,您可以新增「請只使用擷取的檔回答」,而不需使用您的知識。請針對答案中的每個宣告產生引文,以擷取檔。如果無法使用擷取的檔回答用戶問題,請說明檔與使用者查詢相關的原因。在任何情況下,請勿使用您自己的知識回答。」

提示工程技巧

提示工程有許多技巧,您可以嘗試改善輸出。 其中一個範例是,您可以在這裡新增「讓我們逐步思考所擷取檔中的資訊,以響應用戶查詢。從檔逐步將相關知識擷取至用戶查詢,並從相關文件擷取的資訊形成答案。

注意

系統訊息可用來根據擷取的檔修改 GPT 小幫手如何回應用戶問題。 這不會影響擷取程式。 如果您想要提供擷取程式的指示,最好將它們包含在問題中。 系統訊息僅具指導作用。 模型可能不會遵守指定的每個指令,因為其已參考特定行為,例如客觀性,並避免使用爭議性語句。 如果系統訊息與這些行為相矛盾,可能會發生非預期的行為。

最大回應

設定每個模型回應的權杖數目限制。 Azure OpenAI On Your Data 的上限為 1500。 這相當於在 API 中設定 max_tokens 參數。

限制資料的回應

此選項鼓勵模型僅使用您的資料來回應,並預設為已選取。 如果您取消選取此選項,模型可能會更輕易地套用其內部知識來回應。 根據您的使用案例和情節來判斷正確的選取範圍。

與模型互動

使用下列做法在與模型聊天時獲得最佳結果。

交談記錄

  • 開始新的交談之前(或詢問與先前交談無關的問題),請清除聊天記錄。
  • 若在第一個交談回合和後續回合之間針對相同問題取得不同的回應,則可能是因為交談記錄會變更模型的目前狀態。 如果您收到不正確的回答,請將其回報為品質錯誤。

模型回應

  • 如果您對特定問題的模型回應不滿意,請嘗試讓問題更具體或更泛型,以查看模型如何回應,並據此重新建立問題框架。

  • 已顯示思維鏈提示,讓模型針對複雜問題/工作有效地產生所需的輸出。

問題長度

避免詢問過長的問題,並盡可能將問題細分成多個問題。 GPT 模型對於可接受的權杖數目具有限制。 權杖限制會計入:使用者問題、系統訊息、擷取的搜尋文件 (區塊)、內部提示、交談記錄 (若有),以及回應。 問題超過權杖限制時將會被截斷。

多語言支援

  • 目前,Azure OpenAI On Data 中的關鍵詞搜尋和語意搜尋支援查詢的語言與索引中的數據相同。 例如,如果您的數據是日文,則輸入查詢也必須在日文中。 若要擷取跨語言文件,建議您使用已啟用向量搜尋來建置索引

  • 為了協助改善資訊擷取和模型回應的質量,我們建議啟用 下列語言的語意搜尋 :英文、法文、西班牙文、葡萄牙文、義大利文、德國、中文(Zh)、日文、韓文、俄文、阿拉伯文

  • 建議您使用系統訊息來通知模型您的資料是另一種語言。 例如:

  • *“*您是 AI 助理,其設計目的是協助使用者從擷取的日文檔擷取資訊。請先仔細審查日本檔,再制定回應。用戶的查詢會以日文顯示,而且您也必須以日文回應。

  • 如果您有使用多種語言的文件,建議您為每個語言建置新的索引,並將其個別連線至 Azure OpenAI。

串流資料

您可以使用 stream 參數傳送串流要求,允許以累加方式傳送和接收資料,而不需要等待整個 API 回應。 這可以改善效能和使用者體驗,特別是針對大型或動態資料。

{
    "stream": true,
    "dataSources": [
        {
            "type": "AzureCognitiveSearch",
            "parameters": {
                "endpoint": "'$AZURE_AI_SEARCH_ENDPOINT'",
                "key": "'$AZURE_AI_SEARCH_API_KEY'",
                "indexName": "'$AZURE_AI_SEARCH_INDEX'"
            }
        }
    ],
    "messages": [
        {
            "role": "user",
            "content": "What are the differences between Azure Machine Learning and Azure AI services?"
        }
    ]
}

交談記錄可獲得更好的結果

當您與模型聊天時,提供聊天的記錄可協助模型傳回更高品質的結果。 您不需要在 context API 要求中包含小幫手訊息的 屬性,以提升響應品質。 如需範例,請參閱 API 參考檔

函數呼叫

某些 Azure OpenAI 模型可讓您定義 工具和tool_choice參數 ,以啟用函式呼叫。 您可以透過 REST API/chat/completions 設定函式呼叫。 tools如果 和數據源都在要求中,則會套用下列原則。

  1. 如果 tool_choicenone,則會忽略工具,而且只會使用數據源來產生答案。
  2. 否則,如果未 tool_choice 指定或指定為 auto 或物件,則會忽略數據源,而且回應會包含選取的函式名稱和自變數,如果有的話。 即使模型決定未選取任何函式,仍會忽略數據源。

如果上述原則不符合您的需求,請考慮其他選項,例如: 提示流程小幫手 API

Azure OpenAI On your Data 的令牌使用量估計

Azure OpenAI 在您的數據擷取增強產生 (RAG) 服務上,利用搜尋服務(例如 Azure AI 搜尋)和產生 #Azure OpenAI 模型,讓用戶根據提供的數據取得問題解答。

在此RAG管線中,高層級有三個步驟:

  1. 將用戶查詢重新格式化為搜尋意圖清單。 若要這麼做,請透過提示來呼叫模型,其中包含指示、用戶問題和交談歷程記錄。 讓我們將此稱為 意圖提示

  2. 針對每個意圖,會從搜尋服務擷取多個檔區塊。 根據使用者指定的嚴格閾值篩選掉不相關的區塊,並根據內部邏輯重新調整/匯總區塊之後,會選擇使用者指定的檔區塊數目。

  3. 這些文件區塊,以及用戶問題、交談歷程記錄、角色資訊和指示會傳送至模型,以產生最終的模型回應。 讓我們呼叫這個產生 提示

總共有兩個呼叫模型:

  • 若要處理意圖:意圖提示令牌估計包括用戶問題、交談歷程記錄,以及傳送至模型以產生意圖的指示。

  • 若要產生回應:產生提示令牌估計包括用戶問題、交談歷程記錄、擷取的檔區塊清單、角色資訊,以及傳送給它的指示以供產生。

模型產生的輸出令牌(意圖和回應)必須考慮到令牌估計總計。 總結下列所有四個數據行,可提供用於產生回應的平均總令牌。

模型 產生提示令牌計數 意圖提示令牌計數 回應令牌計數 意圖令牌計數
gpt-35-turbo-16k 4297 1366 111 25
gpt-4-0613 3997 1385 118 18
gpt-4-1106-preview 4538 811 119 27
gpt-35-turbo-1106 4854 1372 110 26

上述數位是以下欄數據集的測試為基礎:

  • 191 個交談
  • 250個問題
  • 每個問題10個平均令牌
  • 每個交談平均 4 個交談回合

以及下列 參數

設定
擷取的文件數目 5
嚴格 3
區塊大小 1024
限制內嵌數據的回應? True

這些估計值會根據上述參數所設定的值而有所不同。 例如,如果擷取的檔數目設定為10,且嚴格性設定為1,令牌計數將會上升。 如果傳回的回應不限於擷取的數據,則提供給模型的指示較少,令牌數目將會降低。

估計值也取決於文件的性質和被詢問的問題。 例如,如果問題為開放式,回應可能會較長。 同樣地,較長的系統訊息會導致耗用更多令牌的較長提示,而且如果交談歷程記錄很長,提示會更長。

模型 系統訊息的最大令牌 模型回應的最大令牌
GPT-35-0301 400 1500
GPT-35-0613-16K 1000 3200
GPT-4-0613-8K 400 1500
GPT-4-0613-32K 2000 6400

上表顯示可用於 系統訊息 和模型回應的令牌數目上限。 此外,下列專案也會取用令牌:

  • 中繼提示:如果您將模型回應限制為基礎數據內容(inScope=True 在 API 中),令牌數目上限。 否則(例如,如果 inScope=False)最大值較低。 此數位會根據用戶問題和交談歷程記錄的令牌長度而變動。 此估計值包含基底提示和查詢重寫提示以進行擷取。

  • 用戶問題和歷程記錄:變數,但上限為2,000個令牌。

  • 擷取的檔(區塊):所擷取的檔區塊所使用的令牌數目取決於多個因素。 這個的上限是擷取的檔區塊數目乘以區塊大小。 不過,它會根據計算其餘字段之後所使用之特定模型的令牌可用令牌來截斷。

    20% 的可用令牌會保留給模型回應。 其餘 80% 的可用令牌包括中繼提示、用戶問題和交談歷程記錄,以及系統訊息。 擷取的檔區塊會使用剩餘的令牌預算。

若要計算輸入所取用的令牌數目(例如您的問題、系統訊息/角色資訊),請使用下列程式代碼範例。

import tiktoken

class TokenEstimator(object):

    GPT2_TOKENIZER = tiktoken.get_encoding("gpt2")

    def estimate_tokens(self, text: str) -> int:
        return len(self.GPT2_TOKENIZER.encode(text))
      
token_output = TokenEstimator.estimate_tokens(input_text)

疑難排解

若要針對失敗的作業進行疑難解答,請一律查看 API 回應或 Azure OpenAI Studio 中指定的錯誤或警告。 以下是一些常見的錯誤和警告:

擷取作業失敗

配額限制問題

無法建立服務 Y 中名稱為 X 的索引。 此服務已超過索引配額。 您必須先刪除未使用的索引、新增索引建立要求之間的延遲,或升級服務以取得更高的限制。

此服務已超過 X 的標準索引器配額。 您目前有 X 標準索引器。 您必須先刪除未使用的索引器、變更索引器 『executionMode』,或升級服務以取得更高的限制。

解決方法:

升級至較高的定價層,或刪除未使用的資產。

前置處理逾時問題

無法執行技能,因為 Web API 要求失敗

無法執行技能,因為 Web API 技能回應無效

解決方法:

將輸入檔細分為較小的文件,然後再試一次。

權限問題

此要求未獲授權執行這項作業

解決方法:

這表示無法使用指定的認證來存取記憶體帳戶。 在此情況下,請檢閱傳遞至 API 的記憶體帳戶認證,並確定記憶體帳戶不會隱藏在私人端點後方(如果未為此資源設定私人端點)。

每個使用者訊息都可以轉譯成多個搜尋查詢,這些查詢全都會以平行方式傳送至搜尋資源。 當搜尋複本和數據分割數目很低時,這可能會產生節流行為。 單一分割區和單一複本可能支援的每秒查詢數目上限可能不足。 在此情況下,請考慮增加複本和分割區,或在應用程式中新增睡眠/重試邏輯。 如需詳細資訊, 請參閱 Azure AI 搜尋檔

區域可用性和模型支援

您可以在下列區域中搭配 Azure OpenAI 資源使用 Azure OpenAI On Data:

  • 澳大利亞東部
  • 巴西南部
  • 加拿大東部
  • 美國東部
  • 美國東部 2
  • 法國中部
  • 日本東部
  • 美國中北部
  • 挪威東部
  • 南非北部
  • 美國中南部
  • 印度南部
  • 瑞典中部
  • 瑞士北部
  • 英國南部
  • 西歐
  • 美國西部

支援的模型

  • gpt-4 (0314)
  • gpt-4 (0613)
  • gpt-4 (0125)
  • gpt-4-32k (0314)
  • gpt-4-32k (0613)
  • gpt-4 (1106-preview)
  • gpt-35-turbo-16k (0613)
  • gpt-35-turbo (1106)

如果您的 Azure OpenAI 資源位於另一個區域,您將無法使用 Azure OpenAI On Your Data。

下一步