Azure OpenAI に関してよく寄せられる質問

データとプライバシー

会社のデータを使用してモデルをトレーニングしますか?

Azure OpenAI では、モデルの再トレーニングに顧客データは使用されません。 詳細については、「Azure OpenAI のデータ、プライバシー、セキュリティに関するガイドを参照してください。

一般

OpenAI Azureはカスタム API ヘッダーをサポートしていますか? API 要求に追加のカスタム ヘッダーを追加すると、HTTP 431 エラーが表示されます。

現在の API では、パイプラインを通過して返されるカスタム ヘッダーを最大 10 個使用できます。 一部のお客様がこのヘッダー数を超えたため、HTTP 431 エラーが発生しています。 ヘッダーボリュームを減らす以外に、このエラーの解決策はありません。 今後の API バージョンでは、カスタム ヘッダーを通過しなくなります。 今後のシステム アーキテクチャでは、カスタム ヘッダーに依存しないことをお勧めします。

Azure OpenAI は、OpenAI によってリリースされた最新のPython ライブラリ (バージョン>=1.0) で動作しますか?

Azure OpenAI は、OpenAI Python ライブラリ (バージョン>=1.0) の最新リリースでサポートされています。 ただし、openai migrate を使用したコードベースの移行はサポートされておらず、Azure OpenAI を対象とするコードでは動作しないことに注意することが重要です。

Azure OpenAI の機能と OpenAI の比較

Azure OpenAI は、最新の OpenAI モデルを備えた高度な言語 AI を提供し、Azureのセキュリティとエンタープライズの約束を提供します。 Azure OpenAI は OpenAI と共同で API を開発し、互換性を確保して一方から他方へのスムーズな移行を実現します。

Azure OpenAI を使用すると、お客様は OpenAI と同じモデルを実行しながら、Microsoft Azureのセキュリティ機能を利用できます。

Azure OpenAI は VNET とプライベート エンドポイントをサポートしていますか?

はい。Azure OpenAI では VNET とプライベート エンドポイントがサポートされます。 詳細については、 仮想ネットワークのガイダンスを参照してください。

新しいユース ケースに申し込む方法

以前は、新しいユース ケースを追加するプロセスでは、顧客がサービスに再適用する必要がありました。 これで、サービスの使用に新しいユース ケースをすばやく追加できる新しいプロセスがリリースされます。 このプロセスは、Azure OpenAI 内で確立された制限付きアクセスプロセスに従います。 既存のお客様は、ここで、すべての新しいユース ケースを証明できます。 これは、最初に申請しなかった新しいユース ケースにサービスを使用する場合は、いつでも必要であることに注意してください。

埋め込みを使用しようとしていますが、"InvalidRequestError: 入力が多すぎます。"というエラーが発生しました。 入力の最大数は 16 です。 これを修正するにはどうすればよいですか?

このエラーは、通常、1 つの API 要求に配列として埋め込むテキストのバッチを送信しようとしたときに発生します。 現在Azure OpenAI では、text-embedding-ada-002 バージョン 2 モデルに対して複数の入力を持つ埋め込みの配列のみがサポートされています。 このモデル バージョンでは、API 要求あたり最大 16 個の入力で構成される配列がサポートされています。 text-embedding-ada-002 (バージョン 2) モデルを使用する場合、配列の長さは最大 8,191 トークンです。

実行しているモデルを尋ねると、別のバージョンが実行されていると通知されます。 なぜこれが起こるのですか?

Azure実行中のモデルを正しく識別できない OpenAI モデルは、想定される動作です。

なぜこれが起こるのですか?

最終的に、モデルは質問に応じて次のトークン予測を実行します。 モデルには、現在実行されているモデル バージョンにクエリを実行して質問に答えるネイティブ機能はありません。 この質問に答えるために、 常に Microsoft Foundry>Deployments または Models + endpoints> に移動して、特定のデプロイ名に現在関連付けられているモデルを確認できます。

「どのモデルを実行していますか」または「OpenAI の最新モデルは何ですか」という質問は、今日の天気をモデルに尋ねるのと同様の品質の結果を生み出します。 正しい結果が返される可能性がありますが、純粋に偶然です。 モデル自体には、トレーニング/トレーニング データの一部であったもの以外の実際の情報はありません。 GPT-4 の場合、2023 年 8 月の時点で、基になるトレーニング データは 2021 年 9 月までです。 GPT-4 は 2023 年 3 月までリリースされていなかったため、OpenAI が更新されたトレーニング データを含む新しいバージョン、またはこれらの特定の質問に答えるために微調整された新しいバージョンをリリースしないようにすると、GPT-4 が OpenAI からの最新モデル リリースであることを GPT-4 が応答することが期待されます。

GPT ベースのモデルが「どのモデルを実行していますか」という質問に正確に答えるのを助けたい場合は、その情報をモデルに提供する必要があります。そのためには、モデルのシステムメッセージのプロンプトエンジニアリングリトリーバル強化生成 (RAG) の手法を使用して、Azure OpenAI がデータに基づいて最新の情報をクエリ時にシステムメッセージに挿入する、またはファインチューニングを通じて、特定のモデルバージョンを微調整し、その質問に特定の方法で答えることができます。

GPT モデルのトレーニング方法と動作の詳細については、 GpT の状態に関する Andrej Apathy のビルド 2023 からの講演を見てお勧めします。

特定の言語でモデルを応答させる方法を教えてください。

プロンプトが明確で具体的に言語要件を明示していることを確認してください。 問題が解決しない場合は、コンテキストを追加するか、プロンプトを言い換えて言語の指示を強化することを検討してください。

プロンプトの例:

  • 「英語のみで対応してください。
  • 「英語で次の質問に答える:フレズノの天気は何ですか?

私はモデルに知識のカットオフがいつあるかを尋ねたが、それは私にAzure OpenAIモデルのページにあるものとは異なる答えを与えた。 なぜこれが起こるのですか?

これは予期される動作です。 モデルは、それ自体に関する質問に答えることはできません。 モデルのトレーニング データのナレッジ カットオフがいつ発生するかを知りたい場合は、 モデル ページを参照してください。

私はモデルに、知識のカットオフより前に最近起こったことについて質問しましたが、モデルの答えが誤っていました。 なぜこれが起こるのですか?

これは予期される動作です。 最初に、最近のすべてのイベントがモデルのトレーニング データの一部であったという保証はありません。 また、情報がトレーニング データの一部であった場合でも、モデルの応答を根拠にするのに役立つ検索拡張生成 (RAG) などの追加の手法を使用せずに、常に根拠のない応答が発生する可能性があります。 Azure OpenAIのデータの使用機能Bing Chatの両方が、Azure OpenAIモデルと検索拡張生成を組み合わせて使用し、より基礎的かつ根拠のあるモデル応答を支援します。

トレーニング データに特定の情報が表示される頻度は、モデルが特定の方法で応答する可能性にも影響する可能性があります。

「ニュージーランドの首相は誰か」のように最近変わったことをモデルに尋ねると、 Jacinda Ardernで製作された応答が得られる可能性があります。 しかし、「Jacinda Ardern がいつ首相を辞任したか」とモデルに尋ねると、正確な応答が得られる傾向があります。この応答は少なくとも2023年1月までのトレーニングデータの知識を示しています。

そのため、モデルに質問を投げかけてトレーニングデータの知識のカットオフを推測することは可能ですが、モデルのページを確認することが、モデルの知識カットオフをチェックするための最良の方法です。

新しいデプロイでは使用できなくなったレガシ モデルの価格情報にアクセスする場所

従来の価格情報は、ダウンロード可能な PDF ファイルを介して入手できます。 その他すべてのモデルについては、 公式の価格ページを参照してください。

InternalServerError - 500 - モデルが無効な Unicode 出力を生成したため、処理を完了できませんでした。

プロンプトの温度を 1 未満に減らし、再試行ロジックでクライアントを使用していることを確認することで、これらのエラーの発生を最小限に抑えることができます。 要求を再試行すると、多くの場合、応答が成功します。

サーバー エラー (500): 予期しない特別なトークンを修正する方法

これは既知の問題です。 プロンプトの温度を 1 未満に減らし、再試行ロジックでクライアントを使用していることを確認することで、これらのエラーの発生を最小限に抑えることができます。 要求を再試行すると、多くの場合、応答が成功します。

温度を 1 未満に下げてもこのエラーの頻度が減らない場合は、代替回避策としてプレゼンス/周波数ペナルティを設定し、バイアスを既定値にロジットします。 場合によっては、 top_p を既定以外の低い値に設定して、より低い確率トークンを持つサンプリング トークンを回避するようにモデルを推奨する場合があります。

状態コード 400 で完了できなかった API 呼び出しに関連する料金に気付きました。 失敗した API 呼び出しで料金が発生する理由

サービスが処理を実行する場合、状態コードが成功しなかった場合でも課金されます (200 ではありません)。 一般的な例として、コンテンツフィルターによる400エラーや、タイムアウトによる408エラーが挙げられます。status 200finish_reasonでありcontent_filterを受け取ると、料金が発生することもあります。 この場合、プロンプトに問題はありませんでしたが、モデルによって生成された完了がコンテンツ フィルター規則に違反することが検出され、結果として完了がフィルター処理されます。 サービスが処理を実行しない場合、課金されません。 たとえば、認証による 401 エラーや、レート制限を超えた場合の 429 エラーなどです。

すべてのAzure OpenAI モデルは、チャット補完 API で「max_completion_tokens」をサポートしていますか?

いいえ。すべてのAzure OpenAI モデルは、max_completion_tokensをサポートしていません。 このパラメーターは、gpt-4 (turbo-2024-04-09) などの古いモデルではサポートされていません。

Azure OpenAI Serviceへのアクセスの取得

Azure OpenAI にアクセスするにはどうすればよいですか?

ほとんどのAzure OpenAI モデルにアクセスするには、制限付きアクセス登録フォームは必要ありません。 詳細については、Azure OpenAI の制限付きアクセスページを参照してください。

ゲスト アカウントに Azure OpenAI リソースへのアクセス権が付与されていますが、[Microsoft Foundry portal](https://ai.azure.com/?cid=learnDocs).でそのリソースにアクセスできません アクセスを有効にする方法

これは、Microsoft Foundry の既定のサインイン エクスペリエンスを使用する場合に想定される動作です。

Azure OpenAI リソースへのアクセスが許可されているゲスト アカウントから Microsoft Foundry にアクセスするには:

  1. プライベート ブラウザー セッションを開き、 https://ai.azure.comに移動します。
  2. ゲスト アカウントの資格情報をすぐに入力するのではなく、Sign-in options を選択してください。
  3. [組織にサインイン] を選択します
  4. Azure OpenAI リソースへのゲスト アカウントアクセスを許可した組織のドメイン名を入力します。
  5. 次に、ゲスト アカウントの資格情報でサインインします。

これで、Microsoft Foundry ポータルを使用してリソースにアクセスできるようになります。

または、Azure OpenAI リソースの [概要] ウィンドウから Azure ポータルにサインインしている場合は、[Go to Microsoft Foundry を選択して、適切な組織コンテキストで自動的にサインインできます。

詳細情報と質問する場所

Azure OpenAI の最新の更新プログラムについては、どこで確認できますか?

毎月の更新プログラムについては、 新機能に関するページを参照してください。

Azure OpenAI に関する学習を開始してスキルを身に付けるために、どこでトレーニングを受けることができますか?

Azure OpenAI トレーニング コース紹介をご確認いただけます。

質問を投稿して、他の一般的な質問に対する回答を確認できる場所

  • Microsoft Q&A に質問を投稿することをお勧めします。
  • または、 Stack Overflow に質問を投稿することもできます。

Azure および OpenAI のカスタマーサポートはどこに問い合わせればいいですか?

Azure OpenAI のすべてのサポート オプションについては、 サポート オプション ガイドを参照してください。

モデルと微調整

使用可能なモデルは何ですか?

Azure OpenAI model の可用性ガイドを参照してください。

モデルが利用できるリージョンはどこで確認できますか?

リージョンの可用性については、Azure OpenAI model 可用性ガイドを参照してください。

Azure OpenAI の SLA (サービス レベル アグリーメント) は何ですか?

すべてのリソースには可用性SLAが提供され、プロビジョニング管理デプロイには待機時間SLAが提供されています。 Azure OpenAI Serviceの SLA の詳細については、オンライン サービスのサービス レベル アグリーメント (SLA) に関するページを参照してください。

微調整を有効にする方法 [Microsoft Foundry portal](https://ai.azure.com/?cid=learnDocs). でカスタムモデルを作成する機能がグレーアウトされています。

微調整に正常にアクセスするには、「Azure AI ユーザー ロール」が割り当てられている必要があります。 高度なサービス管理者のアクセス許可を持つユーザーでも、微調整にアクセスするためにこのアカウントを明示的に設定する必要があります。 詳細については、 ロールベースのアクセス制御ガイダンスを確認してください。

基本モデルと微調整されたモデルの違いは何ですか?

基本モデルは、特定のユース ケースに合わせてカスタマイズまたは微調整されていないモデルです。 微調整されたモデルは、モデルの重み付けが一意のプロンプトセットでトレーニングされる、カスタマイズされたバージョンのベースモデルです。 微調整されたモデルを使用すると、完了プロンプトの一部としてコンテキスト内学習の詳細な例を提供する必要なく、より多くのタスクでより良い結果を得られます。 詳細については、 微調整ガイドを参照してください。

作成できる微調整済みモデルの最大数はいくつですか?

100

微調整されたモデルのデプロイが削除されたのはなぜですか?

カスタマイズされた (微調整された) モデルが 15 日を超えてデプロイされ、完了またはチャットの完了の呼び出しが行われなかった場合、デプロイは自動的に削除されます (そのデプロイに対するホスティング料金は発生しません)。 基になるカスタマイズされたモデルは引き続き使用可能であり、いつでも再デプロイできます。 詳細については、 ハウツー記事を参照してください。

REST API を使用してモデルをデプロイするにはどうすればよいですか?

現在、モデルのデプロイを許可する 2 つの異なる REST API があります。 text-embedding-ada-002 バージョン 2 などのモデルのデプロイ時にモデル バージョンを指定する機能など、最新のモデル デプロイ機能については、 Deployments - Create または Update REST API 呼び出しを使用します。

クォータを使用して、モデルの最大トークン制限を引き上げることはできますか?

いいえ。クォータ トークン -Per-Minute (TPM) の割り当ては、モデルの最大入力トークン制限とは関係ありません。 モデル入力トークンの制限は モデル テーブル で定義され、TPM に加えられた変更の影響を受けません。

GPT-4 Turbo with Vision

アップロードできるファイルの種類

現在、PNG (.png)、JPEG (.jpegと .jpg)、WEBP (.webp)、およびアニメーション化されていない GIF (.gif) がサポートされています。

アップロードできる画像のサイズに制限はありますか?

はい。画像のアップロードはイメージあたり 50 MB に制限されています。

アップロードした画像を削除できますか?

いいえ。モデルによって処理された後、イメージは自動的に削除されます。

GPT-4 Turbo with Vision のレート制限はどのように機能しますか?

イメージはトークン レベルで処理されるため、処理する各イメージは、1 分あたりのトークン数 (TPM) の制限にカウントされます。 イメージごとの トークン 数を決定するために使用される数式の詳細については、「概要」の「イメージ トークン」セクションを参照してください。

GPT-4 Turbo with Vision は画像メタデータを理解できますか?

いいえ。モデルは画像メタデータを受け取りません。

画像が不明な場合はどうなりますか?

画像があいまいまたは不明瞭な場合、モデルはそれを解釈するために最善を尽くします。 ただし、結果の精度が低下する可能性があります。 経験則として、平均的な人間が低/高解像度モードで使用されている解像度で画像の情報を見ることができない場合、モデルも表示できないということです。

GPT-4 Turbo with Vision の既知の制限事項は何ですか?

GPT-4 Turbo with Vision の概念ガイドの 制限事項 セクションを参照してください。

GPT-4ターボビジョンモデルを使用すると、応答が途中で途切れるので困っています。 なぜこれが起こっているのか。

既定では、GPT-4 vision-preview と GPT-4 turbo-2024-04-09max_tokens 値は 16 です。 ご要望に応じては、この値が低すぎることが多く、応答が途中で切り捨てられる可能性があります。 この問題を解決するには、チャット完了 API 要求の一部として、より大きな max_tokens 値を渡します。 GPT-4o の既定値は 4096 max_tokensです。

アシスタント

Assistants API で使用されるデータを格納していますか?

はい。 Chat Completions API とは異なり、Azure OpenAI Assistants はステートフル API です。つまり、データが保持されます。 Assistants API には、次の 2 種類のデータが格納されます。

  • ステートフル エンティティ: アシスタントの使用中に作成されたスレッド、メッセージ、および実行。
  • ファイル: アシスタントのセットアップ中またはメッセージの一部としてアップロードされます。

このデータはどこに格納されますか?

データは、論理的に分離された、セキュリティで保護されたMicrosoft管理されたストレージ アカウントに格納されます。

このデータはどのくらいの期間保存されますか?

このデータを明示的に削除しない限り、使用されているすべてのデータはこのシステムに保持されます。 削除するスレッドのスレッド ID で delete 関数を使用します。 Assistants Playground で実行をクリアしてもスレッドは削除されませんが、delete 関数を使用してスレッドを削除しても、スレッド ページに一覧表示されません。

アシスタントで使用する独自のデータ ストアを持ち込むことはできますか?

いいえ。 現在、Assistants では、Assistants で管理されるストレージにアップロードされたローカル ファイルのみがサポートされています。 アシスタントでプライベート ストレージ アカウントを使用することはできません。

アシスタント機能はカスタマー マネージド キー暗号化 (CMK) をサポートしていますか?

現在、アシスタントのスレッドとファイルの CMK がサポートされています。

データはモデルのトレーニングにMicrosoftによって使用されますか?

いいえ。 データは、Microsoftのモデルのトレーニングには使用されません。 詳細については、 責任ある AI のドキュメント を参照してください。

データは地理的にどこに格納されますか?

Azure OpenAI Assistants エンドポイントはリージョンであり、データはエンドポイントと同じリージョンに格納されます。 詳細については、Azure データ所在地のドキュメントを参照してください。

アシスタントの料金はどのように請求されますか?

  • 各アシスタントで使用している基本モデルの推論コスト (入力と出力) (gpt-4-0125 など)。 複数のアシスタントを作成した場合は、各アシスタントにアタッチされている基本モデルに対して課金されます。
  • コード インタープリター ツールを有効にしている場合。 たとえば、アシスタントが 2 つの異なるスレッドでコード インタープリターを同時に呼び出すと、2 つのコード インタープリター セッションが作成され、それぞれが課金されます。 各セッションは既定で 1 時間アクティブです。つまり、ユーザーが同じスレッドで最大 1 時間、コード インタープリターに指示を与え続ける場合は、この料金を 1 回だけ支払います。
  • ファイル検索は、使用されたベクター ストレージに基づいて課金されます。

詳細については、 価格ページを参照してください。

アシスタントを使用するための追加の価格またはクォータはありますか?

いいえ。 すべての クォータは、 アシスタントでのモデルの使用に適用されます。

Assistants API は、Azure以外の OpenAI モデルをサポートしていますか?

Assistants API では、Azure OpenAI モデルのみがサポートされます。

Assistants API は一般提供されていますか?

Assistants API は現在パブリック プレビュー段階です。 定期的に新着情報ページにアクセスして、最新 製品更新情報を入手してください。

アシスタントについて学習するために使用できる例や他のリソースは何ですか?

アシスタントの概要と使用方法については、 概念に関する ハウツー 記事を参照してください。 GitHubで Azure OpenAI Assistants のコードサンプルを見ることもできます。

Web アプリ

発行した Web アプリをカスタマイズするにはどうすればよいですか?

発行した Web アプリは、Azure ポータルでカスタマイズできます。 発行された Web アプリのソース コードは GitHub で使用でき、アプリ フロントエンドの変更に関する情報と、アプリのビルドとデプロイの手順を確認できます。

[Microsoft Foundry ポータル](https://ai.azure.com/?cid=learnDocs)? からアプリを再デプロイすると、Web アプリは上書きされますか?

アプリを更新しても、アプリ コードは上書きされません。 アプリは、Azure OpenAI リソース、Azure AI 検索インデックス (データで Azure OpenAI を使用している場合)、および Microsoft Foundry ポータル で選択されたモデル設定を使用するように更新されます。外観や機能は変更されません。

データの使用

データにおけるAzure OpenAIとは何ですか。

Azure OpenAI on your dataは、組織が指定したデータ ソースを使用してカスタマイズされた分析情報、コンテンツ、検索を生成するのを支援するAzure OpenAIの機能です。 これは、Azure OpenAI の OpenAI モデルの機能と連携して、自然言語でのユーザー クエリに対してより正確で関連性の高い応答を提供します。 データに対する Azure OpenAI は、顧客の既存のアプリケーションやワークフローと統合でき、主要業績評価指標に関する分析情報を提供し、ユーザーとシームレスに対話できます。

Azure OpenAI をあなたのデータで使用するにはどうすればよいですか?

Azure OpenAI のすべてのお客様は、Microsoft Foundry ポータル および Rest API を使用して、データに対して Azure OpenAI を使用できます。

Azure OpenAI がサポートするデータ ソースは何ですか?

データ上の Azure OpenAI では、Azure AI 検索からのインジェスト、Azure Blob Storage、ローカル ファイルのアップロードがサポートされます。 Azure OpenAI のデータに関する詳細については、conceptual article および quickstart を参照してください。

データに対して OpenAI Azureを使用する場合、どのくらいのコストがかかりますか?

Azure OpenAI をデータ上で使用する場合、Azure AI 検索、Azure Blob Storage、Azure Web App サービス、セマンティック検索、およびAzure OpenAI モデルを使用するとコストが発生します。 Microsoft Foundry ポータルで "データ" 機能を使用する場合、追加料金は発生しません。

インデックス作成プロセスをカスタマイズまたは自動化するにはどうすればよいですか?

GitHub で提供されている script を使用して、インデックスを自分で準備できます。 このスクリプトを使用すると、データをより適切に使用するために必要なすべての情報を含むAzure AI 検索インデックスが作成され、ドキュメントが管理可能なチャンクに分割されます。 実行方法の詳細については、README ファイルとデータ準備コードを参照してください。

インデックスを更新するにはどうすればよいですか?

インデックスの自動更新をスケジュールしたり、Azure BLOB コンテナーに追加のデータをアップロードしたり、新しいインデックスを作成するときにデータ ソースとして使用することができます。 新しいインデックスには、コンテナー内のすべてのデータが含まれます。

Azure OpenAI はどのようなファイル種類をデータでサポートしていますか?

サポートされているファイルの種類の詳細については、 データの使用 を参照してください。

データに対する Azure OpenAI によって責任ある AI がサポートされていますか?

はい。データのAzure OpenAI は Azure OpenAI の一部であり、Azure OpenAI で使用できる models で動作します。 Azure OpenAI のコンテンツフィルタリングおよび不正使用の監視機能は引き続き適用されます。 詳細については、 OpenAI モデルの責任ある AI Azure プラクティスの概要に関するAzure OpenAI をデータに対して責任を持って使用する方法に関する追加のガイダンスを参照してください。

システム メッセージにトークンの制限はありますか?

はい。システム メッセージのトークン制限は 400 です。 システム メッセージが 400 を超えるトークンの場合、最初の 400 を超える残りのトークンは無視されます。 この制限は、Azure OpenAI のお客様のデータ機能にのみ適用されます。

あなたのデータ上のAzure OpenAIは関数呼び出しをサポートしていますか?

Azureデータに対する OpenAI は、現在、関数呼び出しをサポートしていません。

クエリ言語とデータ ソース言語は同じである必要がありますか?

データの同じ言語でクエリを送信する必要があります。 データは、Azure AI 検索 でサポートされている任意の言語にすることができます。

Azure AI 検索 リソースでセマンティック検索が有効になっている場合、それは [Microsoft Foundry portal](https://ai.azure.com/?cid=learnDocs)? 内のデータの Azure OpenAI に自動的に適用されますか?

データ ソースとして [Azure AI 検索] を選択すると、セマンティック検索を適用できます。 データ ソースとして [Azure BLOB コンテナー] または [ファイルのアップロード] を選択した場合は、通常どおりインデックスを作成できます。 その後、"Azure AI 検索" オプションを使用してデータを再読み込みし、同じインデックスを選択し、セマンティック検索を適用します。 その後、セマンティック検索を適用してデータをチャットする準備が整います。

データのインデックスを作成するときにベクター埋め込みを追加するにはどうすればよいですか?

データ ソースとして "Azure BLOB コンテナー"、"Azure AI 検索"、または "ファイルのアップロード" を選択すると、データの取り込み時に使用する Ada 埋め込みモデルデプロイを選択することもできます。 これにより、ベクター埋め込みを含むAzure AI 検索インデックスが作成されます。

埋め込みモデルを追加した後にインデックスの作成が失敗するのはなぜですか?

Ada 埋め込みモデルのデプロイのレート制限が低すぎる場合、またはドキュメントのセットが非常に大きい場合、インデックスに埋め込みを追加すると、インデックスの作成が失敗する可能性があります。 GitHubスクリプトを使用して>埋め込みを使用してインデックスを手動で作成できます。

顧客の著作権コミットメント

顧客著作権コミットメントに基づくカバレッジを取得するにはどうすればよいですか?

お客様の著作権コミットメントは、2023 年 12 月 1 日Microsoft製品使用条件に含まれる規定であり、出力コンテンツに関連する特定の第三者の知的財産クレームから顧客を保護するMicrosoftの義務が記載されています。 要求の対象が、Azure OpenAI (またはお客様が安全システムを構成できるその他の対象製品) から生成された出力コンテンツである場合、対象範囲を受け取るために、出力コンテンツを提供するオファリングでAzure OpenAI ドキュメントに必要なすべての軽減策を実装している必要があります。 必要な軽減策については、 ここに 記載し、継続的に更新します。 新しいサービス、機能、モデル、またはユース ケースの場合、新しい CCC 要件が投稿され、そのようなサービス、機能、モデル、ユース ケースの立ち上げ時または発売後に有効になります。 それ以外の場合、顧客は公開から 6 か月後に、CCC の対象範囲を維持するための新しい軽減策を実装します。 顧客が請求を入札した場合、顧客は関連する要件への準拠を示す必要があります。 これらの軽減策は、お客様がAzure OpenAI Serviceを含む安全システムを構成できるようにする対象製品に必要です。他の対象製品を使用するお客様のカバレッジには影響しません。