この記事では、OpenAI Python SDK で Fabric で Azure OpenAI を使用する方法について説明します。 大規模なデータセットの分散処理については、「 SynapseML で OpenAI Azure使用するを参照してください。 Pandas AI Functions を使用する最も簡単な方法については、「 AI Functions で OpenAI Azure使用するを参照してください。
[前提条件]
既定のランタイムには OpenAI Python SDK が含まれていないため、インストールする必要があります。
%pip install -U openai
ファブリック認証クライアントを作成する
Fabric Azure OpenAI を使用するには、Fabric の認証を使用してクライアントを作成します。
from synapse.ml.fabric.credentials import get_openai_httpx_sync_client
import openai
client = openai.AzureOpenAI(
http_client=get_openai_httpx_sync_client(),
api_version="2025-04-01-preview",
)
このクライアントは、Fabric ノートブックで実行されている場合に認証を自動的に処理します。 後続のすべての API 呼び出しには、このクライアントを使用します。
チャットの完了
ここで示す例では、単純なチャット完了操作を紹介します。 完全な API リファレンスについては、「 Chat Completions API」を参照してください。
response = client.chat.completions.create(
model="gpt-4.1",
messages=[
{
"role": "user",
"content": """Analyze the following text and return a JSON array of issue insights.
Each item must include:
- issue_brief (1 sentence)
- scenario
- severity (high | medium | low)
- verbatim_quotes (list)
- recommended_fix
Text:
We booked the hotel room in advance for our family trip. The check-in the great however the room service was slow and pool was closed
Return JSON only.
"""
}
],
)
print(f"{response.choices[0].message.content}")
レスポンス API
応答 API は、新しい実装に対して OpenAI によって推奨されるアプローチです。 応答品質が向上し、構造化された出力の処理が向上します。 完全な API リファレンスについては、「 応答 API」を参照してください。
response = client.responses.create(
model="gpt-4.1",
input=[
{
"role": "user",
"content": "Explain quantum computing in simple terms."
}
],
store=False # Fabric LLM endpoint does not support storage
)
print(f"{response.output_text}")
注
Fabric LLM エンドポイントは、storeまたは True パラメーターに設定されたprevious_response_id パラメーターをサポートしていません。
埋め込み
埋め込みは、機械学習モデルやアルゴリズムが簡単に利用できる特殊なデータ表現形式です。 これには、浮動小数点数のベクトルで表される、情報が豊富な、テキストのセマンティックな意味が含まれています。 ベクトル空間内の 2 つの埋め込み間の距離は、2 つの元の入力間のセマンティック類似性に関連しています。 完全な API リファレンスについては、「 Embeddings API」を参照してください。
response = client.embeddings.create(
input="The food was delicious and the waiter...",
model="text-embedding-ada-002",
)
print(response.data[0].embedding)
利用可能なモデルと料金
使用可能なモデルと消費率の詳細については、「 Foundry Tools の消費率」を参照してください。
関連するコンテンツ
Fabric のドキュメント
- Azure OpenAI と AI Functions を使用して Fabric for Pandas または PySpark DataFrames で大規模なデータセット変換を行います
- Azure OpenAI と SynapseML を使用して、オーバーヘッドなしで Spark DataFrames を使用した分散処理を行います
- REST API を使用Azure OpenAI を使用して REST API を LLM エンドポイントに直接呼び出す
OpenAI Python SDK のドキュメント
- OpenAI Python SDK GitHub - 例とドキュメントを含む公式リポジトリ
- Chat Completions API - チャットの完了に関する完全な API リファレンス
- Responses API - 応答 エンドポイントの完全な API リファレンス
- エンベディング API - エンベディングの完全な API リファレンス