Azure OpenAI Service に関してよく寄せられる質問

このドキュメントで質問に対する回答が見つからず、さらにサポートが必要な場合は、Azure AI サービスのサポート オプションのガイドを確認してください。 Azure OpenAI は Azure AI サービスの一部です。

データとプライバシー

モデルのトレーニングには自社のデータが使用されますか?

Azure OpenAI では、モデルの再トレーニングに顧客データは使用されません。 詳細については、Azure OpenAI のデータ、プライバシー、セキュリティのガイドを参照してください。

全般

Azure OpenAI は、OpenAI によってリリースされた最新の Python ライブラリ (バージョン>=1.0) で動作しますか?

Azure OpenAI は、OpenAI Python ライブラリの最新リリース (バージョン>=1.0) でサポートされています。 ただし、openai migrate を使用したコードベースの移行はサポートされておらず、Azure OpenAI を対象とするコードでは動作しないことに注意してください。

GPT-4 Turbo Preview が見つかりません。どこにありますか。

GPT-4 Turbo (プレビュー) は、gpt-4 (1106-preview) モデルです。 このモデルをデプロイするには、[デプロイ] でモデル gpt-4 を選択します。 [モデル バージョン] には、1106-preview を選択します。 このモデルを利用できるリージョンを確認するには、モデルのページをご覧ください。

Azure OpenAI では GPT-4 がサポートされていますか?

Azure OpenAI では、最新の GPT-4 モデルがサポートされています。 GPT-4 と GPT-4-32K の両方をサポートしています。

Azure OpenAI の機能を OpenAI と比較するとどうですか?

Azure OpenAI Service では、OpenAI GPT-3、Codex、DALL-E モデルを使用した高度な言語 AI を顧客に提供し、Azure のセキュリティとエンタープライズの約束を実現します。 Azure OpenAI は OpenAI と共に API を共同開発し、互換性を確保し、一方から他方へのスムーズな移行を保証します。

Azure OpenAI を使用すると、顧客は OpenAI と同じモデルを実行しながら、Microsoft Azure のセキュリティ機能を使用できます。

Azure OpenAI は VNET とプライベート エンドポイントをサポートしていますか?

はい。Azure AI サービスの一部として、Azure OpenAI は VNET とプライベート エンドポイントをサポートしています。 詳細については、Azure AI サービス仮想ネットワークに関するガイダンスを参照してください

現在、GPT-4 モデルで画像入力はサポートされていますか?

いいえ、GPT-4 は OpenAI によってマルチモーダルになるように設計されていますが、現在サポートされているのはテキストの入出力のみです。

新しいユースケースを申請するにはどうすればよいですか?

以前は、新しいユース ケースを追加するプロセスで、お客様がサービスに再適用する必要がありました。 現在、サービスの使用に新しいユース ケースを迅速に追加できる、新しいプロセスをリリースしています。 このプロセスは、Azure AI サービス内で確立されている制限付きアクセス プロセスに従っています。 既存のお客様は、こちらからすべての新しいユース ケースを証明できます。 これは、最初に申請しなかった新しいユース ケースでサービスを使用するときに必ず必要になるので注意してください。

埋め込みを使用しようとしていますが、「InvalidRequestError: 入力が多すぎます。 入力の最大数は 16 です。」というエラーが表示されました。 これをどのように修正すればよいですか?

このエラーは通常、テキストのバッチを送信して単一の API 要求に配列として埋め込もうとしたときに発生します。 現在、Azure OpenAI では、text-embedding-ada-002 バージョン 2 モデルに対して、複数の入力を含む埋め込みの配列のみがサポートされています。 このモデル バージョンでは、API 要求あたり最大 16 個の入力で構成される配列がサポートされています。 text-embedding-ada-002 (バージョン 2) モデルを使用する場合、配列の長さは最大 8191 トークンです。

Azure OpenAI を使用してサービスから必要な応答を取得するより良い方法については、どこで確認できますか?

プロンプト エンジニアリングの概要」を参照してください。 これらのモデルは強力ですが、その動作はユーザーから受け取るプロンプトの影響も大きく受けます。 このため、プロンプトの構築が開発のための重要なスキルになります。 概要を完了したら、高度なプロンプト エンジニアリング手法に関する記事をご確認ください。

ゲスト アカウントに Azure OpenAI リソースへのアクセス権が付与されましたが、Azure OpenAI Studio でそのリソースにアクセスできません。 どのようにしてアクセスを有効にできますか。

これは、Azure OpenAI Studio の既定のサインイン エクスペリエンスを使用する場合に想定される動作です。

Azure OpenAI リソースへのアクセスが許可されているゲスト アカウントから Azure OpenAI Studio にアクセスするには:

  1. プライベート ブラウザー セッションを開き、https://oai.azure.com に移動します。
  2. ゲスト アカウントの資格情報をすぐに入力するのではなく、Sign-in options を選択してください
  3. 次に、[組織へのサインイン] を選びます。
  4. ゲスト アカウントに Azure OpenAI リソースへのアクセス権を付与した組織のドメイン名を入力します。
  5. ここで、ゲスト アカウントの資格情報でサインインします。

これで、Azure OpenAI Studio を使用してリソースにアクセスできるようになりました。

または、Azure OpenAI リソースの [概要] ペインから Azure portal にサインインしている場合は、[Azure OpenAI Studio に移動する] を選択して、適切な組織のコンテキストで自動的にサインインできます。

私が GPT-4 に実行中のモデルを尋ねると、GPT-3 を実行していると答えます。 なぜこのようになるのですか?

Azure OpenAI モデル (GPT-4 を含む) が実行されているモデルを正しく識別できないのは、想定される動作です。

この問題が発生する理由

最終的に、モデルは質問に応じて次の トークン 予測を行います。 このモデルには、質問に答えるために現在実行されているバージョンについてクエリを実行するネイティブ機能がありません。 この質問に答えるには、いつでも [Azure OpenAI Studio]>[管理]>[デプロイ]> に移動し、モデル名列を参照して、特定のデプロイ名に現在関連付けられているモデルを確認することができます。

"どのモデルを実行していますか?" または "OpenAI の最新モデルは何ですか" という質問では、今日の天気をモデルに尋ねるのと同様の品質の結果が得られます。 正しい結果が返される可能性はありますが、単なる偶然です。 それ自体では、モデルには、トレーニングまたはトレーニング データの一部であったもの以外の実際の情報はありません。 GPT-4 の場合、2023 年 8 月の時点で、基になるトレーニング データは 2021 年 9 月までしかありません。 GPT-4 は 2023 年 3 月までリリースされませんでした。したがって、OpenAI が更新されたトレーニング データを含む新しいバージョン、またはそれらの特定の質問に答えるために微調整された新しいバージョンをリリースしない限り、「GPT-3 が OpenAI の最新モデル リリースである」と GPT-4 が応答するのは、想定される動作です。

GPT ベースのモデルが "どのモデルを実行しますか?" という質問に正確に対応できるようにしたい場合は、モデルのシステム メッセージのプロンプト エンジニアリングデータに対して Azure OpenAI によって使用される手法であり、クエリの実行時に最新の情報がシステム メッセージに挿入される取得確認生成 (RAG) などの手法を使用して、モデルにその情報を提供する必要があります。 または微調整を使用して、モデルの特定のバージョンを微調整して、モデルのバージョンに基づいて特定の方法でその質問に答えることができます。

GPT モデルのトレーニングと動作のしくみの詳細については、 GPT の状態に関する Build 2023 の Andrej Karpathy の話をご覧になることをお勧めします。

モデルにナレッジ カットオフがいつか尋ねたところ、Azure OpenAI モデルのページで示されているものとは異なる答えが返りました。 なぜこのようになるのですか?

これは正しい動作です。 モデルは、それ自体に関する質問に答えることはできません。 モデルのトレーニング データのナレッジ カットオフがいつか知りたい場合は、モデルのページをご覧ください。

ナレッジ カットオフより前の最近起こったことについてモデルに質問したら、間違った答えが返りました。 なぜこのようになるのですか?

これは正しい動作です。 まず、最近のすべてのイベントがモデルのトレーニング データの一部であるという保証はありません。 また、情報がトレーニング データの一部であったとしても、Retrieval Augmented Generation (RAG) などの追加の手法を使ってモデルの応答の根拠にしないと、常に根拠のない応答が発生する可能性があります。 Azure OpenAI の独自データ使用機能Bing チャットの両方で、Azure OpenAI モデルと Retrieval Augmented Generation を組み合わせて使って、モデルの応答の根拠がさらに強化されます。

特定の情報がトレーニング データに出現した頻度も、モデルが特定の方法で応答する可能性に影響する場合があります。

"ニュージーランドの首相は誰か" のような最近変わった事柄について最新の GPT-4 Turbo (プレビュー) モデルに尋ねると、Jacinda Ardern という正しくない応答になる可能性があります. 一方、モデルに "Jacinda Ardern はいつ首相を退陣したか?" と尋ねると、トレーニング データの知識が少なくとも 2023 年 1 月まで進んでいることを示す正しい応答を生成する傾向があります。

そのため、質問によってモデルを調査して、トレーニング データのナレッジ カットオフを推測することは可能ですが、モデルのナレッジ カットオフを調べるには、モデルのページが最善の場所です。

新規にデプロイできなくなったレガシ モデルの価格情報については、どこにアクセスすればよいですか?

従来の価格情報は、ダウンロード可能な PDF ファイルから入手できます。 その他のすべてのモデルについては、公式の価格ページを参照してください。

Azure OpenAI Service へのアクセス

Azure OpenAI にアクセスするにはどうすればよいですか?

高い需要、今後の製品の機能強化、Microsoft の責任ある AI へのコミットメントを考慮し、現在、アクセスは制限されています。 現在のところ、Microsoft と既存のパートナーシップ関係があるお客様、リスクの低いユース ケース、軽減策の取り入れに取り組んでいるお客様を対象としています。 初めてアクセスする場合は、こちらの [今すぐ申請する] から申請してください。

アクセスを申請した後で、承認されるまでにどれくらい待つ必要がありますか?

現在、アクセス承認のタイムラインは提供されていません。

詳細情報の入手先と質問先

Azure OpenAI の最新情報はどこで確認できますか?

毎月の最新情報については、新着情報に関するページを参照してください。

Azure OpenAI に関する基本的な学習とスキルの習得のためのトレーニングはどこで受けられますか?

質問を投稿し、他の一般的な質問に対する回答を確認することができるのはどこですか?

Azure OpenAI カスタマー サポートはどこで受けられますか?

Azure OpenAI は Azure AI サービスの一部です。 Azure AI サービスのすべてのサポート オプションについては、サポート オプションとヘルプ オプションのガイドを参照してください。

モデルと微調整

使用可能なモデルは何ですか?

Azure OpenAI の使用可能なモデルに関するガイドを参照してください。

モデルがどのリージョンで使用できるかはどこで確認できますか?

どのリージョンで使用できるかについては、Azure OpenAI の使用可能なモデルに関するガイドを参照してください。

微調整はどのように有効にしますか? Azure OpenAI Studio で [カスタム モデルの作成] がグレー表示されています。

微調整に正常にアクセスするには、Cognitive Services OpenAI 共同作成者が割り当てられている必要があります。 高度なサービス管理者のアクセス許可を持つユーザーでも、微調整にアクセスするためにはこのアカウントを明示的に設定する必要があります。 詳細については、ロールベースのアクセス制御のガイダンスに関するページを参照してください。

基本モデルと微調整されたモデルの違いは何ですか?

基本モデルは、特定のユース ケースに合わせてカスタマイズまたは微調整されていないモデルです。 微調整されたモデルは、基本モデルのカスタマイズされたバージョンであり、モデルの重みがプロンプトの一意のセットに基づいてトレーニングされます。 微調整されたモデルを使用すると、完了プロンプトの一部としてコンテキスト内学習のために詳細な例を提供しなくても、より多くのタスクでより良い結果を得ることができます。 詳細については、微調整のガイドを参照してください。

作成できる微調整されたモデルの最大数はいくつですか?

100

Azure OpenAI での API 応答の SLA はどのようになっていますか?

現時点では、API 応答時間サービス レベル アグリーメント (SLA) は定義されていません。 Azure OpenAI Service の SLA の詳細については、オンライン サービスのサービス レベル アグリーメント (SLA) ページを参照してください。

微調整されたモデル デプロイが削除されたのはなぜですか?

カスタマイズされた (微調整された) モデルが 15 日間を超えてデプロイされ、候補呼び出しやチャット候補呼び出しが行われなかった場合、デプロイは自動的に削除されます (そのデプロイに対するホスティング料金は発生しません)。 基になるカスタマイズされたモデルは引き続き使用でき、いつでも再デプロイできます。 詳しくは、操作方法に関する記事をご覧ください。

REST API を使用してモデルをデプロイするにはどうすればよいですか?

現在、モデル デプロイが可能な 2 つの異なる REST API があります。 モデルのデプロイ時に text-embedding-ada-002 Version 2 のようにモデル バージョンを指定する機能などの最新のモデル デプロイ機能については、「デプロイ - Create または Update」の REST API 呼び出しを使用してください。

クォータを使用して、モデルの最大トークン制限を引き上げることはできますか?

いいえ、クォータ TPM (Tokens-per-Minute) 割り当ては、モデルの最大入力トークン制限とは関係ありません。 モデル入力トークンの制限はモデル テーブルで定義され、TPM に加えられた変更の影響を受けません。

GPT-4 Turbo with Vision

GPT-4 で画像機能を微調整できますか。

いいえ。現時点では、GPT-4 の画像機能の微調整はサポートされていません。

GPT-4 を使用して画像を生成できますか。

いいえ。dall-e-3 を使用して画像を生成し、gpt-4-visual-preview を使用して画像を理解できます。

どのような種類のファイルをアップロードできますか。

現在のところ、PNG (.png)、JPEG (.jpeg と .jpg)、WEBP (.webp)、アニメーションのない GIF (.gif) がサポートされています。

アップロードできる画像のサイズに制限はありますか。

はい。画像のアップロードは、画像あたり 20 MB に制限されています。

アップロードした画像を削除できますか。

いいえ。モデルによって処理された後、画像は自動的に削除されます。

GPT-4 Turbo with Vision のレート制限はどのようなしくみになっていますか。

画像はトークン レベルで処理します。そのため、画像は処理されるたびに、TPM (1 分あたりのトークン数) 制限に到達するまで数えられます。 画像あたりのトークン数の決定に使用される数式の詳細については、「概要」の「画像トークン」セクションを参照してください。

GPT-4 Turbo with Vision は画像メタデータを理解できますか。

いいえ。モデルは画像メタデータを受け取りません。

画像が不明瞭な場合はどうなりますか。

画像があいまいであったり、不明瞭であったりする場合、モデルはそれを解釈するために最善を尽くします。 ただし、結果の精度が低下する可能性があります。 経験則として、低または高解像度モードで使用されている解像度で普通の人が画像から情報を読み取れない場合、モデルも読み取れません。

GPT-4 Turbo with Vision には既知の制限事項がありますか。

GPT-4 Turbo with Vision 概念ガイドの「制限事項」セクションを参照してください。

Web アプリケーション

発行した Web アプリをカスタマイズするにはどうすればよいですか。

発行した Web アプリは、Azure portal でカスタマイズできます。 発行された Web アプリのソース コードは GitHub で入手できます。ここでは、アプリ フロントエンドの変更に関する情報と、アプリのビルドとデプロイの手順を確認できます。

Azure AI Studio からアプリをもう一度デプロイすると、Web アプリは上書きされますか。

アプリを更新しても、アプリ コードは上書きされません。 アプリは、Azure OpenAI リソース、Azure AI Search インデックス (データで Azure OpenAI を使用している場合)、Azure OpenAI Studio で選択されたモデル設定を使用するように更新されます。外観や機能は変更されません。

データの使用

独自のデータに基づく Azure OpenAI とは

独自のデータに基づく Azure OpenAI は Azure OpenAI サービスの機能であり、組織が指定されたデータ ソースを使用してカスタマイズされた分析情報、コンテンツ、検索を生成するのに役立ちます。 Azure OpenAI の OpenAI モデルの機能と連携することで、自然言語のユーザー クエリに対するより正確で関連性の高い応答が提供されます。 独自のデータに基づく Azure OpenAI を使用すると、お客様の既存のアプリケーションやワークフローと統合でき、主要業績評価指標に関する分析情報が提供され、ユーザーとシームレスに対話できます。

独自のデータに基づく Azure OpenAI にアクセスするにはどうすればよいですか。

すべての Azure OpenAI のお客様は、Azure AI Studio と REST API を介して、独自のデータに基づく Azure OpenAI を使用できます。

独自のデータに基づく Azure OpenAI でサポートされているデータ ソースは何ですか。

独自のデータに基づく Azure OpenAI では、Azure AI Search、Azure Blob Storage、およびローカル ファイルのアップロードからのインジェストがサポートされます。 独自のデータに基づく Azure OpenAI の詳細については、概念に関する記事クイックスタートを参照してください。

独自のデータに基づく Azure OpenAI を使用する場合のコストはどれくらいですか。

独自のデータに基づく Azure OpenAI を使用する場合、Azure AI Search、Azure Blob Storage、Azure Web App Service、セマンティック検索、OpenAI モデルを使用するとコストが発生します。 Azure AI Studio での "独自のデータ" 機能の使用については追加コストはかかりません。

インデックス作成プロセスをカスタマイズまたは自動化するにはどうすればよいですか。

GitHub で提供されているスクリプトを使用して、インデックスを自分で準備できます。 このスクリプトを使用すると、データをより適切に活用するために必要なすべての情報を含む Azure AI Search インデックスが作成され、ドキュメントは管理可能なチャンクに分割されます。 実行方法の詳細については、README ファイルとデータ準備コードを参照してください。

インデックスを更新するにはどうすればよいですか。

インデックスの自動更新をスケジュールするか、または、Azure BLOB コンテナーに追加のデータをアップロードし、新しいインデックスを作成するときにデータ ソースとして使用できます。 新しいインデックスには、コンテナー内のすべてのデータが含まれます。

独自のデータに基づく Azure OpenAI でサポートされているファイルの種類は何ですか。

サポートされているファイルの種類の詳細については、「データの使用」を参照してください。

責任ある AI は、独自のデータに基づく Azure OpenAI でサポートされていますか。

はい。独自のデータに基づく Azure OpenAI は Azure OpenAI Service の一部であり、Azure OpenAI で使用可能なモデルと連携します。 Azure OpenAI のコンテンツのフィルター処理と不正使用の監視機能は引き続き適用されます。 詳細については、「Azure OpenAI モデルに対する責任ある AI プラクティスの概要」を参照してください。独自のデータに基づく Azure OpenAI の責任ある使用に関するその他のガイダンスについては、Azure OpenAI の透過性のためのメモに関するページを参照してください。

システム メッセージのトークン制限はありますか。

はい、システム メッセージのトークン制限は 400 です。 システム メッセージのトークンが 400 を超える場合、最初の 400 を超えた残りのトークンは無視されます。 この制限は、データ機能の Azure OpenAI にのみ適用されます。

データ上の Azure OpenAI は関数呼び出しをサポートしていますか?

現在、データ上の Azure OpenAI は関数呼び出しをサポートしていません。

クエリ言語とデータ ソース言語は同じである必要がありますか?

独自のデータと同じ言語でクエリを送信する必要があります。 データは、Azure AI Search でサポートされている任意の言語にすることができます。

Azure AI Search リソースに対してセマンティック検索が有効になっている場合、Azure OpenAI Studio でデータ上の Azure OpenAI に対して自動的に適用されますか?

データ ソースに [Azure AI Search] を選択すると、セマンティック検索を適用することができます。 データ ソースに [Azure BLOB コンテナー] または [ファイルのアップロード] を選択した場合は、通常どおりインデックスを作成できます。 その後、[Azure AI Search] オプションを使用してデータを再取り込みし、同じインデックスを選択して、セマンティック検索を適用します。 そうすることで、セマンティック検索が適用された状態でデータをチャットする準備が整います。

データのインデックスを作成するときにベクトル埋め込みを追加するにはどうすればよいですか?

データ ソースとして "Azure BLOB コンテナー"、"Azure AI Search"、または "ファイルのアップロード" を選択するとき、データの取り込み時に使用する Ada 埋め込みモデル デプロイを選択することもできます。 これにより、ベクトル埋め込みを含む Azure AI Search インデックスが作成されます。

埋め込みモデルの追加後にインデックス作成に失敗するのはなぜですか?

Ada 埋め込みモデル デプロイのレート制限が低すぎる場合、またはドキュメント セットが非常に大きい場合、インデックスに埋め込みを追加するときインデックスの作成が失敗する可能性があります。 GitHub で提供されているこのスクリプトを使用すると、埋め込みありでインデックスを手動で作成できます。

Customer Copyright Commitment は、2023 年 12 月 1 日の Microsoft の製品条項に含まれる規定であり、出力コンテンツに関連する特定のサードパーティの知的財産権に関するクレームから顧客を保護するための Microsoft の義務を説明するものです。 クレームの対象が Azure OpenAI Service (または顧客が安全システムを構成できる他の対象製品) から生成された出力コンテンツである場合は、カバレッジを受けるために、顧客は出力コンテンツを提供するオファリングで Azure OpenAI Service ドキュメントで必要とされるすべての軽減策を実装している必要があります。 必要な軽減策については、こちらに記載されており、継続的に更新されています。 新しいサービス、機能、モデル、またはユース ケースの場合、新しい CCC 要件が投稿され、そのようなサービス、機能、モデル、またはユース ケースの開始時または開始後に有効になります。 それ以外の場合、CCC のカバレッジを維持するために、顧客は公開から 6 か月以内に新しい軽減策を実装することになります。 顧客がクレームを申し立てる場合、その顧客は関連する要件への準拠を示す必要があります。 これらの軽減策は、Azure OpenAI Service を含め、顧客が安全システムを構成できる対象製品に必要です。他の対象製品を使っている顧客のカバレッジには影響しません。