注
このドキュメントでは、 Microsoft Foundry (クラシック) ポータルを参照します。
🔍 新しいポータルの詳細については、Microsoft Foundry (新しい) ドキュメント を参照してください。
ヒント
別の Foundry プロジェクト のクイック スタートを利用できます 。クイック スタート: Microsoft Foundry (Foundry プロジェクト) の概要。
初期設定ガイドでは、ハブベースのプロジェクト用にローカル環境を設定し、モデルを展開し、追跡可能で評価できるチャットスクリプトを構築します。
[前提条件]
- Azure サブスクリプション。
- 既存のハブ プロジェクト (または 作成)。 そうでない場合は、Foundry プロジェクトのクイック スタートの使用を検討してください。
開発環境を設定する
- 前提条件 (Python、Azure CLI、ログイン) をインストールします。
- パッケージをインストールします。
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10
プロジェクトの種類が異なる場合は、異なる azure-ai-projects バージョンが必要です。 競合を回避するために、各プロジェクトを独自の分離された環境に保持します。
モデルをデプロイする
- ポータル: サインインし、ハブ プロジェクトを開きます。
- モデル カタログ: gpt-4o-mini を選択します。
- このモデルを使用して、> 既定のデプロイ名>「Deploy」を受け入れます。
- 成功した後:確認するためにプレイグラウンドで開きます。
チャット アプリをビルドする
サンプル コードを使用して chat.py を作成します。
from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential
project_connection_string = "<your-connection-string-goes-here>"
project = AIProjectClient.from_connection_string(
conn_str=project_connection_string, credential=DefaultAzureCredential()
)
chat = project.inference.get_chat_completions_client()
response = chat.complete(
model="gpt-4o-mini",
messages=[
{
"role": "system",
"content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
},
{"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
],
)
print(response.choices[0].message.content)
プロジェクトの [概要] ページからプロジェクト接続文字列を挿入します (コード内のプレースホルダーをコピーして置き換えます)。
走れ
python chat.py
プロンプト テンプレートの追加
口ひげテンプレートを使用してget_chat_responseを追加し (chat-template.py サンプルを参照)、ユーザー/コンテキスト メッセージを使用して呼び出します。
テンプレート化された応答を表示するには、もう一度実行します。
リソースをクリーンアップする
料金が発生しないように、完了したら配置またはプロジェクトを削除します。