次の方法で共有


Azure AI Foundry プレイグラウンド

Von Bedeutung

この記事で "(プレビュー)" と付記されている項目は、現在、パブリック プレビュー段階です。 このプレビューはサービス レベル アグリーメントなしで提供されており、運用環境ではお勧めしません。 特定の機能はサポート対象ではなく、機能が制限されることがあります。 詳細については、「 Microsoft Azure プレビューの追加使用条件」を参照してください。

最新のモデルを使用して構築し、エージェントとアプリをビルドする際に、Azure AI Foundry プレイグラウンドは、1 行のコードを運用コードベースにコミットする前に、迅速なプロトタイプ作成、API 探索、および技術的検証用に設計された、オンデマンドのゼロセットアップ環境を提供します。

Azure AI Foundry プレイグラウンド エクスペリエンスのハイライト

Azure AI Foundry プレイグラウンド エクスペリエンスのハイライトには、次のようなものがあります。

  • AgentOps では、Agents プレイグラウンドでの評価とトレースがサポートされます
  • チャットとエージェントのプレイグラウンド用の [VS Code で開く]。 この機能を使用すると、多言語コード サンプル用にエンドポイントとキーを Azure AI Foundry から VS Code に自動的にインポートすることで、時間を節約できます。
  • gpt-image-1Stable Diffusion 3.5 LargeBria 2.3 Fast モデル用の Images Playground 2.0
  • gpt-4o-audiogpt-4o-transcribegpt-4o-mini-tts モデルのオーディオプレイグラウンド
  • Azure OpenAIOra のビデオプレイグラウンド

迅速なプロトタイプ作成と実験のための機能を示す Azure AI Foundry プレイグラウンドのランディング ページのスクリーンショット。ポータルの左側のウィンドウは、[プレイグラウンド] タブを表示するようにカスタマイズされています。

ヒント

プレイグラウンドのランディング ページのスクリーンショットでは、ポータルの左側のウィンドウがカスタマイズされ、[プレイグラウンド] タブが表示されています。左側のウィンドウに他の項目を表示する方法の詳細については、「 左側のウィンドウをカスタマイズする」を参照してください。

制作の前奏としての遊び場

最新の開発では、多くの場合、フレームワークへの完全なコミット、テストの記述、インフラストラクチャの起動の準備が整う前に、複数のシステム (API、サービス、SDK、データ モデル) で作業する必要があります。 ソフトウェア エコシステムの複雑さが増すにつれて、アイデアを検証するための安全で軽量な環境の必要性が重要になります。 遊び場は、このニーズを満たすために建てられました。

Azure AI Foundry プレイグラウンドでは、必要なすべてのツールと機能がプレインストールされたすぐに使用できる環境が提供されるため、プロジェクトの設定、依存関係の管理、互換性の問題の解決が不要になります。 プレイグラウンドは、API の動作を検証し、コードにすばやく移動し、実験のコストと出荷までの時間を削減し、統合を加速し、プロンプトを最適化することで、 開発者の速度を加速 させることができます。

プレイグラウンドでは、時間ではなく数秒で回答を提供し、大規模な構築にコミットする前にアイデアをテストして検証できるようにすることで、質問がある場合に すばやく明確 になります。 たとえば、プレイグラウンドは次のような質問にすばやく答えるのに最適です。

  • 必要な出力を取得するために必要な最小限のプロンプトは何ですか?
  • 完全な統合を記述する前に、このロジックは機能しますか?
  • 待機時間やトークンの使用は、構成によってどのように変化しますか?
  • エージェントに進化させる前に、最適な価格とパフォーマンスの比率を提供するモデルは何ですか?

VS Code 機能で開く

チャットプレイグラウンドエージェントプレイグラウンドを使用すると、VS Code の Azure AI Foundry 拡張機能で使用できる [VS Code で開く] ボタンを使用して、VS Code で作業できます。

多言語のサンプル コード サンプルで使用できる "VS Code で開く" を使用すると、コード サンプル、API エンドポイント、およびキーを、 /azure 環境の VS Code ワークスペースに自動インポートできます。 この機能により、Azure AI Foundry ポータルから VS Code IDE で簡単に作業できます。

チャットとエージェントのプレイグラウンドから "VS Code で開く" 機能を使用するには、次の手順に従います。

  1. [ チャットプレイグラウンドを試す ] を選択して開きます。 または、[エージェントの遊び場] カードで [ Let's go ]\(エージェントの遊び場に移動する\) を選択して、エージェントプレイグラウンドで次の手順を実行することもできます。

  2. デプロイがまだない場合は、[ 新しいデプロイの作成 ] を選択し、 gpt-4o-miniなどのモデルをデプロイします。

  3. デプロイメントボックスでデプロイメントが選択されていることを確認してください。

  4. [ コードの表示] を選択して、コード サンプルを表示します。

  5. [ VS Code で開く ] を選択して、ブラウザー ウィンドウの新しいタブで VS Code を開きます。

    シームレスなコード統合のために Azure AI Foundry プレイグラウンドの [VS Code で開く] ボタンを示すスクリーンショット。

  6. コード サンプル、API エンドポイント、キーが Azure AI Foundry プレイグラウンドから既にインポートされている VS Code の /azure 環境にリダイレクトされます。

    Azure AI Foundry プレイグラウンドからインポートされたコード サンプル、API エンドポイント、キーを示す VS Code 環境のスクリーンショット。

  7. READ.ME ファイルを参照して、モデルを実行する手順を確認します。

  8. run_model.pyでコード サンプルを表示します。

  9. requirements.txt ファイル内の関連する依存関係を表示します。

エージェントのプレイグラウンド

エージェントプレイグラウンドを使用すると、コードを実行することなく、エージェントを探索、プロトタイプ作成、テストできます。 このページから、新しいアイデアを簡単に反復して、実験できます。 Agents プレイグラウンドの使用を開始するには、「 クイック スタート: 新しいエージェントを作成する」を参照してください。

コードを使用せずにエージェントを探索、プロトタイプ作成、テストするためのエージェントプレイグラウンド インターフェイスのスクリーンショット。

チャット プレイグラウンド

チャットプレイグラウンドは、Azure OpenAI、DeepSeek、Meta の最新の推論モデルをテストする場所です。 チャットプレイグラウンドの詳細については、「 クイック スタート: Azure AI Foundry ポータルでチャットプレイグラウンドを使用する」を参照してください。

すべての推論モデルに対して、チャットプレイグラウンドには、モデルが出力を共有する前に応答を通じてどのように考えていたかを確認できる、考え方のチェーンの概要ドロップダウンが用意されています。

コードを使用せずにチャット モデルを探索、プロトタイプ作成、テストするためのチャットプレイグラウンド インターフェイスのスクリーンショット。

オーディオプレイグラウンド

オーディオ プレイグラウンド (プレビュー) を使用すると、Azure OpenAI の最新のオーディオ モデルでテキスト読み上げと文字起こしの機能を使用できます。

テキスト読み上げ機能を試すには、次の手順に従います。

  1. [ オーディオプレイグラウンドを試す ] を選択して開きます。

  2. デプロイがまだない場合は、[ 新しいデプロイの作成 ] を選択し、 gpt-4o-mini-ttsなどのモデルをデプロイします。

  3. [デプロイ] ボックス内でデプロイメントが選択されていることを確認してください。

  4. テキスト プロンプトを入力します。

  5. 音声や応答の形式などのモデル パラメーターを調整します。

  6. 再生、巻き戻し、転送、速度の調整、音量を含む再生コントロールを含む音声出力を受信するには、[ 生成] を選択します。

  7. オーディオ ファイルをローカル コンピューターにダウンロードします。

    再生コントロール付きのテキスト読み上げ機能を表示するオーディオ・プレイグラウンド・インターフェースのスクリーンショット。

文字起こし機能を試すには、次の手順に従います。

  1. デプロイがまだない場合は、[ 新しいデプロイの作成 ] を選択し、 gpt-4o-transcribeなどのモデルをデプロイします。

  2. (省略可能)オーディオ入力をガイドするテキスト メカニズムとしてフレーズ リストを含めます。

  3. 1 つをアップロードするか、プロンプト バーからオーディオを記録して、オーディオ ファイルを入力します。

  4. [ 文字起こしの生成] を選択して、オーディオ入力をモデルに送信し、テキスト形式と JSON 形式の両方で文字起こしされた出力を受け取ります。

    オーディオ入力からの文字起こし出力を示す Audio プレイグラウンド インターフェイスのスクリーンショット。

ビデオプレイグラウンド

ビデオ プレイグラウンド (プレビュー) は、生成ビデオ ワークフローを探索、調整、検証するための迅速な反復環境です。これは、精度、制御、速度を備えたアイデアからプロトタイプに移行する必要がある開発者向けに設計されています。 遊び場では、プロンプト構造のテスト、モーションの忠実性の評価、フレーム間のモデルの整合性の評価、モデル間の出力の比較を行う低摩擦インターフェイスが提供されます。定型句や計算サイクルを無駄にすることなく、モデル間で出力を比較できます。 また、最高製品責任者とエンジニアリングVPのための素晴らしいデモインターフェイスです。

すべてのモデル エンドポイントは、 Azure AI Content Safety と統合されます。 その結果、有害で安全でない画像は、ビデオの遊び場に表示される前に除外されます。 テキスト プロンプトとビデオ生成にコンテンツ モデレーション ポリシーのフラグが設定されている場合は、警告通知が表示されます。

Azure OpenAIOra モデルでは、ビデオプレイグラウンドを使用できます。

ヒント

業界別にエンタープライズ対応のユース ケースを変換する方法については、Azure OpenAIOra のビデオプレイグラウンドの 60 秒リールと DevBlog を参照してください。

ビデオプレイグラウンドを使用するには、次の手順に従います。

注意事項

生成されたビデオは、データのプライバシーのために 24 時間保持されます。 リテンション期間を長くするために、ビデオをローカル コンピューターにダウンロードします。

  1. [ ビデオプレイグラウンドを試す ] を選択して開きます。

  2. デプロイがまだない場合は、ホーム ページの右上にある [ 今すぐデプロイ ] を選択し、 sora モデルをデプロイします。

  3. ビデオプレイグラウンドのホームページでは、業界フィルターで並べ替えられた既存のプロンプトからヒントを得られます。 ここから、ビデオをフルディスプレイで表示し、プロンプトをコピーしてそこからビルドすることができます。

    [プロンプトを使用] ボタンを強調表示してプロンプトをコピーするビデオプレイグラウンドのスクリーンショット。

  4. プロンプトをコピーすると、プロンプト バーに貼り付けられます。 特定のモデルの応答性と制約を深く理解するために、キー コントロール (縦横比や解像度など) を調整します。

  5. コピーしたプロンプトに基づいてビデオを生成するには、[ 生成 ] を選択します。

  6. [AI を使用して書き直す] を使用して、gpt-4o でテキスト プロンプト構文を書き直します。

  7. 業界のシステム プロンプト機能でスタート画面をオンにし、業界を選択し、元のプロンプトに必要な変更を指定します。

  8. [ 更新] を選択してプロンプトを更新し、[ 生成 ] を選択して新しいビデオを作成します。

    AI を使用してプロンプトを書き換え、更新されたイメージを生成するために使用されるコントロールを示すスクリーンショット。

  9. [世代の履歴] タブに移動して、世代をグリッドまたはリスト ビューとして確認します。 ビデオを選択したら、全画面表示モードで開き、完全に没入します。 プロンプトの微調整やパラメーターの変更を通じて出力を視覚的に観察します。

  10. 全画面表示モードで、プロンプトを編集し、再生成のために送信します。

  11. 全画面表示モードで、またはビデオをポイントしたときに表示されるオプション ボタンを使用するか、ローカル コンピューターにビデオをダウンロードし、ビデオ生成情報タグを表示するか、コードを表示するか、ビデオを削除します。

    ダウンロード、詳細の表示、生成されたイメージの削除のオプション ボタンを示すスクリーンショット。

  12. オプション メニューから [ コードの表示 ] を選択すると、Python、JavaScript、C#、JSON、Curl、Go など、複数の言語でビデオ生成のコンテキスト サンプル コードが表示されます。

  13. VS Code にコピーして、コード サンプルを運用環境に移植します。

ビデオプレイグラウンドで実験するときに検証する内容

実稼働ワークロードを計画するときにビデオ プレイグラウンドを使用する場合は、次の属性を調べて検証できます。

  • プロンプトからモーションへの変換

    • ビデオ モデルは、論理的かつ一時的な意味を持つ方法でプロンプトを解釈しますか?
    • モーションは、記述されたアクションまたはシーンと一貫性がありますか?
  • フレームの整合性

    • 文字、オブジェクト、スタイルはフレーム間で一貫していますか?
    • 視覚的なアーティファクト、ジッター、または不自然な遷移はありますか?
  • シーン コントロール

    • シーンの構成、被写体の動作、カメラの角度をどの程度適切に制御できますか?
    • シーンの切り替えやバックグラウンド環境をガイドできますか?
  • 長さとタイミング

    • さまざまなプロンプト構造がビデオの長さとペーシングにどのように影響しますか?
    • ビデオの感じが速すぎるか、遅すぎるか、または短すぎますか?
  • マルチモーダル入力の統合

    • 参照画像、ポーズ データ、またはオーディオ入力を指定するとどうなりますか?
    • あるボイスオーバーにリップシンクを使用してビデオを生成できますか?
  • 後処理のニーズ

    • 編集ツールが必要となる前に、どのレベルの生の忠実性が期待できますか?
    • 運用環境で使用する前に、ビデオをアップスケール、安定化、またはリタッチする必要がありますか?
  • 待機時間とパフォーマンス

    • さまざまなプロンプトの種類や解像度に対するビデオの生成にはどのくらいの時間がかかりますか?
    • 5s と 15s クリップを生成する場合のコストパフォーマンスのトレードオフは何ですか?

画像プレイグラウンド

イメージの遊び場は、イメージ生成フローを構築する開発者に最適です。 このプレイグラウンドは、モデル固有の API が画像を生成および編集できるように設計された、忠実度の高い実験用のフル機能の制御された環境です。

ヒント

業界別にエンタープライズ対応のユース ケースを変換する方法については、gpt-image-1 の Images プレイグラウンドの 60 秒リールと DevBlog を参照してください。

イメージプレイグラウンドは、次のモデルで使用できます。

イメージプレイグラウンドを使用するには、次の手順に従います。

  1. [ イメージのプレイグラウンドを試す ] を選択して開きます。
  2. デプロイがまだない場合は、[ 新しいデプロイの作成 ] を選択し、 gpt-image-1などのモデルをデプロイします。
  3. 事前構築済みのテキスト プロンプトから開始する: プロンプト バーに自動的に入力される事前構築済みのテキスト プロンプトを開始するオプションを選択します。
  4. モデルデプロイ後のモデル API 固有の生成コントロールを調べる: 特定のモデルの応答性と制約を深く理解するために、キー コントロール (バリアントの数、品質、強度など) を調整します。
  5. グリッド ビューでの並べて表示: プロンプトの微調整やパラメーターの変更を通じて出力を視覚的に観察します。
  6. API ツールを使用した変換: gpt-image-1 では、テキスト変換によるインペイントを使用できます。 インペイント選択で元のイメージの一部を変更します。 テキスト プロンプトを使用して変更を指定します。
  7. 多言語コード サンプルを使用した運用環境への移植: "コードの表示" で Python、Java、JavaScript、C# コード サンプルを使用します。 イメージプレイグラウンドは、VS Code での開発作業のスタートパッドです。

画像プレイグラウンドで実験する際に検証すべきこと

イメージプレイグラウンドを使用すると、運用ワークロードを計画するときに次の内容を調べて検証できます。

  • プロンプトの有効性

    • このプロンプトでは、エンタープライズ ユース ケースに対してどのような種類のビジュアル出力が生成されますか?
    • 自分の言語はどのくらい具体的または抽象的であり、それでも良い結果を得ることができますか?
    • モデルは、"シュールレアリスト" や "サイバーパンク" などのスタイル参照を正確に理解していますか?
  • スタイルの一貫性

    • 複数の画像で同じ文字、スタイル、またはテーマを維持するにはどうすればよいですか?
    • ドリフトを最小限に抑えながら、同じベース プロンプトのバリエーションを反復処理できますか?
  • パラメーターのチューニング

    • ガイダンス スケール、シード、ステップなど、モデル パラメーターを変更した場合の影響は何ですか?
    • 創造性とプロンプトの忠実性のバランスを取る方法
  • モデルの比較

    • モデル間で結果がどのように異なるか (例えば、SDXL と DALL·E)?
    • 現実的な顔と芸術的な構成に対して、どのモデルの方がパフォーマンスが良いですか?
  • コンポジション コントロール

    • 境界ボックスや塗りつぶしマスクなどの空間制約を使用するとどうなりますか?
    • モデルを特定のレイアウトまたはフォーカル ポイントに導くことができますか?
  • 入力バリエーション

    • プロンプトの文言や構造のわずかな変更は、結果にどのように影響しますか?
    • 対称性、特定のカメラ角度、または感情を求める最良の方法は何ですか?
  • Integration Readiness

    • この画像は、製品の UI (縦横比、解像度、コンテンツの安全性) の制約を満たしていますか?
    • 出力はブランドガイドラインや顧客の期待に準拠していますか?