Von Bedeutung
- Foundry Local はプレビューで利用できます。 パブリック プレビュー リリースでは、アクティブなデプロイ中の機能に早期にアクセスできます。
- 一般提供 (GA) の前は、機能、アプローチ、プロセスが変更されたり、機能が制限されたりする場合があります。
Foundry Local は、パフォーマンス、プライバシー、カスタマイズ、コストの利点を提供するデバイス上の AI 推論ソリューションです。 直感的な CLI、SDK、REST API を使用して、既存のワークフローとアプリケーションにシームレスに統合されます。
主な機能
デバイス上の推論: 独自のハードウェアでモデルをローカルに実行し、すべてのデータをデバイスに保持しながらコストを削減します。
モデルのカスタマイズ: プリセット モデルから選択するか、独自のモデルを使用して特定の要件とユース ケースを満たします。
コスト効率: 既存のハードウェアを使用してクラウド サービスの定期的なコストを排除し、AI のアクセシビリティを高めます。
シームレスな統合: SDK、API エンドポイント、または CLI を使用してアプリケーションと接続し、ニーズの拡大に合わせて Azure AI Foundry に簡単にスケーリングできます。
活用事例
Foundry Local は、次のようなシナリオに最適です。
- 機密データをデバイスに保持する必要があります。
- インターネット接続が制限されているか、またはない環境で動作する必要があります。
- クラウド推論コストを削減したいと考えています。
- リアルタイム アプリケーションには、待機時間の短い AI 応答が必要です。
- クラウド環境にデプロイする前に、AI モデルを試す必要があります。
Azure サブスクリプションは必要ですか?
いいえ - Foundry Local では、Azure サブスクリプションは必要ありません。 ローカル ハードウェアで実行されるため、クラウド サービスを必要とせずに既存のインフラストラクチャを使用できます。
作業の開始
Foundry Local の概要ガイドに従って、最初のモデルをインストールして実行します。 このガイドは、Foundry Local の設定、使用可能なモデルの検出、最初のローカル AI モデルの起動に役立ちます。