次の方法で共有


Azure AI Foundry モデルからモデルを追加および構成する

Azure AI サービス リソース モデルの推論エンドポイントで推論に使用できるモデルを決定して構成できます。 特定のモデルが構成されたら、要求でそのモデル名またはデプロイ名を指定することで、そこから予測を生成できます。 これを使用するためにコードをさらに変更する必要はありません。

この記事では、Azure AI Foundry Models から新しいモデルを追加する方法について説明します。

[前提条件]

この記事を完了するには、以下が必要です。

モデルの追加

すべてのモデルが既に構成されている GitHub モデルとは反対に、Azure AI サービス リソースを使用すると、エンドポイントで利用できるモデルと構成を制御することができます。

エンドポイントに必要なすべてのモデルを追加するには、Azure AI Foundry for GitHub を使用します。 次の例では、サービスに Mistral-Large モデルを追加します。

  1. Azure AI Foundry for GitHub[モデルカタログ] セクションに移動します。

  2. 関心のあるモデルまでスクロールして選択します。

    モデル カタログ内のモデルを検索し、その 1 つを選択して詳細を表示する方法を示すアニメーション。

  3. モデル カードでモデルの詳細を確認できます。

  4. [デプロイ] を選択します。

  5. 追加の契約条件が必要なモデル プロバイダーの場合は、それらの条件に同意するように求められます。 たとえば、Mistral モデルがこのケースです。 [サブスクリプションとデプロイ] を選択して、これらのケースの使用条件に同意します。

    Mistral-Large モデルの契約条件に同意する方法を示すスクリーンショット。

  6. この時点でデプロイ設定を構成できます。 既定では、デプロイはデプロイするモデルの名前を受け取ります。 デプロイ名は、この特定のモデル デプロイにルーティングする要求の model パラメーターで使用されます。 これにより、特定の構成をアタッチする際に、そのモデルに特定の名前を構成することもできます。 たとえば、厳密なコンテンツ フィルターを使用するモデルの o1-preview-safe 。 Mistral などのサードパーティ製モデルを使用して、特定のバージョンのモデルを使用するようにデプロイを構成することもできます。

ヒント

各モデルはさまざまな種類のデプロイをサポートでき、異なるデータ所在地またはスループットの保証が提供されます。 詳細については、デプロイの種類に関するページを参照してください。

  1. [コンテンツ フィルター] などの設定を変更する必要がある場合は、[カスタマイズ] オプションを使用します。

必要に応じてデプロイをカスタマイズする方法を示すスクリーンショット。

  1. [デプロイ] を選択します。

  2. デプロイが完了すると、新しいモデルがページ内の一覧に表示され、使用する準備が整います。

モデルを使用する

Azure AI Foundry Models にデプロイされたモデルは、リソースに対する Azure AI モデルの推論エンドポイント を使用して使用できます。

使用方法:

  1. Azure AI モデルの推論エンドポイントの URL とキーは、[デプロイ] ページまたは概要ページから取得します。 Microsoft Entra ID 認証を使用している場合は、キーは必要ありません。

  2. 要求を作成するときに、パラメーター model を指定し、作成したモデル デプロイ名を挿入します。

    from azure.ai.inference.models import SystemMessage, UserMessage
    
    response = client.complete(
        messages=[
            SystemMessage(content="You are a helpful assistant."),
            UserMessage(content="Explain Riemann's conjecture in 1 paragraph"),
        ],
        model="mistral-large"
    )
    
    print(response.choices[0].message.content)
    
  3. エンドポイントを使用する場合は、model パラメーターをリソース内の使用可能な任意のモデル デプロイに変更できます。

さらに、Azure OpenAI モデルは、リソース 内の Azure AI Foundry Models エンドポイントで Azure OpenAI を 使用して使用できます。 このエンドポイントは、モデル デプロイごとに排他的であり、独自の URL を持っています。

モデル デプロイのカスタマイズ

モデル デプロイの作成時に、コンテンツのフィルター処理やレート制限など、追加の設定を構成できます。 デプロイ ウィザード内で [カスタマイズ] オプションを選択してそれを構成します。

構成は、デプロイするモデルによって異なる場合があります。