Databricks Apps リソースとして エンドポイントを提供するモデル を追加して、アプリが機械学習モデルに対して推論のクエリを実行できるようにします。 モデル サービス エンドポイントは、モデル予測を処理し、デプロイされたモデルにアクセスするための一貫したインターフェイスを提供します。
エンドポイント リソースを提供するモデルを追加する
リソースとしてエンドポイントを提供するモデルを追加する前に、 アプリ リソースの前提条件を確認します。
- アプリを作成または編集するときに、[ 構成 ] ステップに移動します。
- [ アプリ リソース ] セクションで、[ + リソースの追加] をクリックします。
- リソースの種類として [ サービス エンドポイント ] を選択します。
- ワークスペースで使用可能なエンドポイントから、エンドポイントを提供するモデルを選択します。
- アプリに適したアクセス許可レベルを選択します。
- 表示可能: モデル名、バージョン、ワークロード構成などのエンドポイント メタデータを表示します。 推論要求を送信できません。
- クエリを実行できます。 推論要求を送信し、メタデータを表示します。 これは、モデル予測を必要とするほとんどのアプリに使用します。
- 次の管理が可能です。 ビュー、編集、クエリ、削除、管理のアクセス許可を含む完全な管理コントロール。
- (省略可能)カスタム リソース キーを指定します。これは、アプリ構成でモデル サービス エンドポイントを参照する方法です。 既定のキーは
serving-endpointです。
注
アプリからの推論要求を処理するには、モデル サービス エンドポイントが READY 状態である必要があります。
環境変数
エンドポイント リソースを提供するモデルを使用してアプリをデプロイすると、Azure Databricks は、 valueFrom フィールドを使用して参照できる環境変数を介してサービス エンドポイント名を公開します。
例えば次が挙げられます。
SERVING_ENDPOINT=<your-serving-endpoint-name>
詳細については、「 環境変数を使用してリソースにアクセスする」を参照してください。
エンドポイント リソースを提供するモデルを削除する
アプリからエンドポイント リソースを提供するモデルを削除すると、アプリのサービス プリンシパルはエンドポイントへのアクセスを失います。 エンドポイント自体を提供するモデルは変更されず、適切なアクセス許可を持つ他のユーザーやアプリケーションでも引き続き使用できます。
ベスト プラクティス
エンドポイント リソースを提供するモデルを使用する場合は、次の点を考慮してください。
- 最小限のアクセス許可を付与します。 推論要求を送信する必要があるほとんどのアプリで、最小アクセスまたは
Can viewにCan queryを使用します。ただし、アプリがエンドポイントで管理タスクを実行する必要がある場合を除きます。 - 推論要求はタイムアウトする可能性があります。可能な場合は実行時間の長いクエリを避けてください。
- 要求を送信する前に、エンドポイントの状態を確認します。 クエリを処理するには、エンドポイントが
READY状態である必要があります。 - 特にトラフィックの多い期間中にエンドポイントが過負荷にならないように、推論要求のレート制限を検討してください。