Windows クライアント アプリに AI を統合するにはどうすればよいですか?
AI を Windows アプリケーションに統合するには、ローカル モデルとクラウドベース モデルの 2 つの主要な方法を使用します。 ローカル モデル オプションでは、既存のモデルを利用したり、TensorFlow や PyTorch などのプラットフォームを使用して独自のモデルをトレーニングしたりして、 OnnxRuntime 経由でアプリケーションに組み込むことができます。 Microsoft Foundry on Windows は、OCR や Phi Silica モデルの利用など、さまざまな機能の API を提供します。 一方、クラウドでモデルをホストし、REST API を使用してモデルにアクセスすると、リソースを集中的に使用するタスクをクラウドに委任することで、アプリケーションの合理化を維持できます。 詳細については、「 Windows アプリでMachine Learning モデルを使用するを参照してください。
AI 機能を使用するには、最新バージョンのWindows 11と NPU を使用したCopilot+ PCが必要ですか?
AI ワークロードを実行するには、さまざまな方法があります。 Windows デバイスにモデルをローカルにインストールして実行するか、クラウドベースのモデルを実行するか ( Windows で AI を開始する)、ただし、Windows AI API でサポートされている AI 機能には、現在、NPU を使用した Copilot+ PC が必要です。
Windows クライアント アプリで AI を開発するのに最適なプログラミング言語は何ですか?
お好みのプログラミング言語を使用できます。 たとえば、C# は、Windowsクライアント アプリの作成に広く使用されています。 低レベルの詳細をさらに制御する必要がある場合は、C++ が最適です。 または、Python の使用を検討することもできます。 Linux 用 Windows サブシステム (WSL) を使用して、Windowsで Linux ベースの AI ツールを実行することもできます。
Windows クライアント アプリに最適な AI フレームワークは何ですか?
OnnxRuntime を使用することをお勧めします。
Windows クライアント アプリで AI を使用する場合、データのプライバシーとセキュリティをどのように処理すればよいですか?
AI を利用したアプリケーションを開発する際には、ユーザー データのプライバシーとセキュリティを尊重することが不可欠です。 データを収集する前に、機密データの暗号化、セキュア接続の使用、ユーザー同意の取得など、データ処理のベスト プラクティスに従う必要があります。 また、データの使用方法を透過的にし、ユーザーが自分のデータを制御できるようにすることも必要です。 必ずWindows上での責任ある生成型AIアプリケーションと機能の開発も読んでください。
Windows クライアント アプリで AI を実行するためのシステム要件は何ですか?
AI を使用するWindows アプリのシステム要件は、AI モデルの複雑さと使用されるハードウェア アクセラレーションによって異なります。 単純なモデルの場合、最新の CPU で十分ですが、複雑なモデルの場合は、GPU か NPU が必要になることがあります。 また、アプリケーションのメモリとストレージの要件や、クラウドベースの AI サービスに必要なネットワーク帯域幅も考慮する必要があります。
Windows クライアント アプリで AI パフォーマンスを最適化する方法
Windows アプリで AI パフォーマンスを最適化するには、GPU や NPU などのハードウェア アクセラレーションを使用してモデルの推論を高速化することを検討する必要があります。 Windows Copilot+ ノート PC は AI ワークロード用に最適化されており、AI タスクのパフォーマンスを大幅に向上させることができます。 Foundry Toolkit for Visual Studio Codeの概要も参照してください。
Windows クライアント アプリで事前トレーニング済みの AI モデルを使用できますか?
はい。Windows アプリでは、事前トレーニング済みの AI モデルを使用できます。 事前トレーニング済みモデルは、インターネットからダウンロードすることも、クラウドベースの AI サービスを使ってアクセスすることもできます。 その後、それらのモデルは、OnnxRuntime などのフレームワークを使ってアプリケーションに統合できます。
DirectML とは
DirectML は、AMD、Intel、NVIDIA、Qualcomm などのベンダーのすべての DirectX 12 対応 GPU を含む、サポートされている幅広いハードウェアとドライバーに対応し、一般的な機械学習タスクに GPU アクセラレーションを提供する機械学習用の低レベル API です。
デバイスに搭載されている CPU、GPU、または NPU の種類を確認するにはどうすればよいですか?
Windows デバイスの CPU、GPU、または NPU の種類と実行方法を確認するには、タスク マネージャー (Ctrl + Shift + Esc) を開き、Performance タブを選択すると、コンピューターの CPU、メモリ、Wi-Fi、GPU、および/または NPU の速度に関する情報と共に表示されます。 使用率、およびその他のデータ。
Windows ML とは
Windows ML (Machine Learning) を使用すると、アプリでシステム全体で共有される ONNX Runtime (ORT) のコピーを利用できるほか、ベンダー固有の 実行プロバイダー (EP) を動的にダウンロードできるようになります。これにより、アプリ自体に重いランタイムや EP を含めることなく、Windows エコシステム内の多種多様な CPU、GPU、NPU にわたってモデル推論を最適化できます。