次の方法で共有


Foundry ローカル CLI リファレンス

Von Bedeutung

  • Foundry Local はプレビューで利用できます。 パブリック プレビュー リリースでは、デプロイ中の機能に早期にアクセスできます。
  • 一般提供 (GA) の前は、機能、アプローチ、プロセスが変更されたり、機能が制限されたりする場合があります。

この記事では、Foundry Local コマンド ライン インターフェイス (CLI) の包括的なリファレンスを提供します。 CLI は、モデルの管理、サービスの制御、ローカル キャッシュの維持に役立つコマンドを論理カテゴリに編成します。

概要

ヘルプ オプションを使用して、使用可能なすべてのコマンドを表示します。

foundry --help

CLI は、次の 3 つの主要なカテゴリにコマンドを整理します。

  • モデル: AI モデルを管理および実行するためのコマンド
  • サービス: Foundry Local サービスを制御するためのコマンド
  • キャッシュ: ローカル モデル ストレージを管理するためのコマンド

モデル コマンド

次の表は、モデルの管理と実行に関連するコマンドをまとめたものです。

model引数は、そのエイリアスまたはモデル ID で指定できます。 エイリアスの使用:

  • 使用可能なハードウェアに 最適なモデル を自動的に選択します。 たとえば、Nvidia GPU を使用できる場合、Foundry Local は最適な GPU モデルを選択します。 サポートされている NPU を使用できる場合は、Foundry Local によって NPU モデルが選択されます。
  • モデル ID を覚えておく必要なく、短い名前を使用できます。

特定のモデルを実行する場合は、モデル ID を使用します。 たとえば、使用可能なハードウェアに関係なく、CPU で qwen2.5-0.5b を実行するには、 foundry model run qwen2.5-0.5b-instruct-generic-cpuを使用します。

Windows 上に Intel NPU がある場合は、最適な NPU アクセラレーションのために Intel NPU ドライバー をインストールしてください。

命令 説明
foundry model --help 使用可能なすべてのモデル関連コマンドとその使用方法を表示します。
foundry model run <model> 指定したモデルを実行し、キャッシュされていない場合はダウンロードして、対話を開始します。
foundry model list ローカルで使用できるすべてのモデルを一覧表示します。 初回実行時には、ハードウェアの実行プロバイダー (EP) がダウンロードされます。
foundry model list --filter <key>=<value> 指定した条件 (デバイス、タスク、エイリアス、プロバイダー) でフィルター処理されたモデルを一覧表示します。
foundry model info <model> 特定のモデルに関する詳細情報を表示します。
foundry model info <model> --license 特定のモデルのライセンス情報を表示します。
foundry model download <model> モデルを実行せずにローカル キャッシュにダウンロードします。
foundry model load <model> サービスにモデルを読み込みます。
foundry model unload <model> サービスからモデルをアンロードします。

モデル リストの順序付け

エイリアスに使用できるモデル ID バリアントが複数ある場合、モデル一覧は優先順位で表示されます。 一覧の最初のモデルは、 aliasでモデルを指定したときに実行されるモデルです。

モデルリストのフィルタリング

foundry model list コマンドでは、--filter オプションを使用したモデルのフィルター処理がサポートされています。 キーと値のペアを使用して、1 つの属性に基づいてモデルをフィルター処理できます。

foundry model list --filter <key>=<value>

インストール後に foundry model list を初めて実行すると、Foundry Local によって、コンピューターのハードウェア構成に関連する実行プロバイダー (IP) が自動的にダウンロードされます。 モデルの一覧が表示される前に、ダウンロードの完了を示す進行状況バーが表示されます。

サポートされているフィルター キー:

デバイス - ハードウェア デバイスの種類

実行されているハードウェア デバイスによってモデルをフィルター処理します。

使用可能な値:

  • CPU - 中央処理装置モデル
  • GPU - グラフィックス処理装置モデル
  • NPU - ニューラル処理ユニット モデル

プロバイダー - 実行プロバイダー

実行プロバイダー/ランタイムによってモデルをフィルター処理します。

使用可能な値:

  • CPUExecutionProvider - CPU ベースの実行
  • CUDAExecutionProvider - NVIDIA CUDA GPU の実行
  • WebGpuExecutionProvider - WebGPU の実行
  • QNNExecutionProvider - Qualcomm ニューラルネットワーク処理 (NPU)
  • OpenVINOExecutionProvider - Intel OpenVINO の実行
  • NvTensorRTRTXExecutionProvider - NVIDIA TensorRT の実行
  • VitisAIExecutionProvider - AMD Vitis AI の実行

task - モデル タスクの種類

モデルを目的のユース ケース/タスクでフィルター処理します。

一般的な値:

  • chat-completion: 会話型 AI モデル
  • text-generation: テキスト生成モデル

alias - モデルエイリアス

エイリアス識別子でモデルをフィルター処理します。 * サフィックスを使用したワイルドカード 照合をサポートします。

サンプル値:

  • phi4-cpu
  • qwen2.5-coder-0.5b-instruct-generic-cpu
  • deepseek-r1-distill-qwen-1.5b-generic-cpu
  • phi-4-mini-instruct-generic-cpu

特殊なフィルター機能

否定のサポート: 一致するモデルを除外するには、 ! を使用して値のプレフィックスを付けます。

foundry model list --filter device=!GPU

ワイルドカード一致 (エイリアスのみ): エイリアスでフィルター処理するときにプレフィックスに一致する * を追加します。

foundry model list --filter alias=qwen*

例示

foundry model list --filter device=GPU
foundry model list --filter task=chat-completion
foundry model list --filter provider=CUDAExecutionProvider

  • すべての比較において大文字と小文字を区別しません。
  • コマンドごとに使用できるフィルターは 1 つだけです。
  • 認識できないフィルター キーを使用すると、エラーが発生します。

サービス命令

次の表は、Foundry Local サービスの管理と実行に関連するコマンドをまとめたものです。

命令 説明
foundry service --help 使用可能なすべてのサービス関連コマンドとその使用方法を表示します。
foundry service start Foundry Local サービスを開始します。
foundry service stop Foundry Local サービスを停止します。
foundry service restart Foundry Local サービスを再起動します。
foundry service status Foundry Local サービスの現在の状態を表示します。
foundry service ps Foundry Local サービスに現在読み込まれているすべてのモデルを一覧表示します。
foundry service diag Foundry Local サービスのログを表示します。
foundry service set <options> Foundry Local サービスの構成を設定します。

キャッシュ コマンド

次の表は、モデルが格納されているローカル キャッシュを管理するためのコマンドをまとめたものです。

命令 説明
foundry cache --help 使用可能なすべてのキャッシュ関連コマンドとその使用状況が表示されます。
foundry cache location 現在のキャッシュ ディレクトリを表示します。
foundry cache list ローカル キャッシュに格納されているすべてのモデルを一覧表示します。
foundry cache cd <path> キャッシュ ディレクトリを指定したパスに変更します。
foundry cache remove <model> ローカル キャッシュからモデルを削除します。

実行プロバイダー

実行プロバイダーは、デバイス上で可能な限り効率的にモデルを実行するハードウェア固有のアクセラレーション ライブラリです。

組み込みの実行プロバイダー

Foundry Local には、CPU 実行プロバイダー、WebGPU 実行プロバイダー、および CUDA 実行プロバイダーが含まれます。

CPU 実行プロバイダーは 、Microsoft Linear Algebra サブルーチン (MLAS) を使用して任意の CPU で実行され、Foundry Local の CPU フォールバックです。

WebGPU 実行プロバイダーは、Web ベースの API のネイティブ実装である Dawn を任意の GPU 上の高速化に使用し、Foundry Local の GPU フォールバックです。

CUDA 実行プロバイダーは、NVIDIA GPU、NVIDIA GeForce RTX 30XX 以降のアクセラレーションに NVIDIA CUDA を使用し、最小推奨ドライバー バージョン 32.0.15.5585 + Cuda バージョン 12.5 を使用し、ID は NVIDIA ソフトウェア開発キットのライセンス条項 (EULA) に従います。

プラグイン実行プロバイダー

表に示されている実行プロバイダーは、Windows での動的なダウンロードと登録に使用でき (デバイスとドライバーの互換性に応じて)、指定されたライセンス条項に従います。

Foundry Local では、最初の実行時にこれらの実行プロバイダーが自動的にダウンロードされます。 プラグイン実行プロバイダーは、新しいバージョンが使用可能になると自動的に更新されます。

名前 (ベンダー) Requirements ライセンス条項
"NvTensorRtRtxExecutionProvider" (Nvidia) 最小推奨ドライバー バージョン 32.0.15.5585 + Cuda バージョン 12.5 の NVIDIA GeForce RTX 30XX 以降 NVIDIA ソフトウェア開発キットの使用許諾契約書 - EULA
"OpenVINOExecutionProvider" (Intel) CPU: Intel TigerLake (第 11 世代) 以降 (最小推奨ドライバー 32.0.100.9565)
GPU: Intel AlderLake (第 12 世代) 以降 (最小推奨ドライバー 32.0.101.1029)
NPU: Intel ArrowLake (第 15 世代) 以降 (最小推奨ドライバー 32.0.100.4239)
Intel OBL Distribution Commercial Use License Agreement v2025.02.12
"QNNExecutionProvider" (Qualcomm) Snapdragon(R) X Elite - X1Exxxxx - Qualcomm(R) Hexagon(TM) NPU(最小要件: ドライバー バージョンは 30.0.140.0 以上)
Snapdragon(R) X Plus - X1Pxxxxx - Qualcomm(R) Hexagon(TM) NPU(ドライバーのバージョン30.0.140.0以上が必要)
QNN ライセンスを表示するには、Qualcomm® Neural Processing SDK をダウンロードし、ZIP を抽出して、LICENSE.pdf ファイルを開きます。
"VitisAIExecutionProvider" (AMD) 最小要件: Adrenalin Edition 25.6.3 (NPU ドライバー 32.00.0203.280)
Max: アドレナリン エディション 25.9.1 と NPU ドライバー 32.00.0203.297
追加のライセンスは必要ありません