OpenAI (独立発行者) (プレビュー)
OpenAI API に接続し、GPT3 の機能を利用します。API キーは、"Bearer YOUR_API_KEY" として入力する必要があります
このコネクタは、次の製品および地域で利用可能です:
サービス | クラス | 地域 |
---|---|---|
Logic Apps | 標準 | 以下を除くすべての Logic Apps 地域 : - Azure 政府の地域 - Azure 中国の地域 - 国防総省 (DoD) |
Power Automate | プレミアム | 以下を除くすべての Power Automate 地域 : - US Government (GCC) - US Government (GCC High) - 21 Vianet が運用する中国のクラウド - 米国国防総省 (DoD) |
Power Apps | プレミアム | 以下を除くすべての Power Apps 地域 : - US Government (GCC) - US Government (GCC High) - 21 Vianet が運用する中国のクラウド - 米国国防総省 (DoD) |
お問い合わせ先 | |
---|---|
件名 | Robin Rosengrün |
[URL] | https://linktr.ee/r2power |
メール | robin@r2power.de |
Connector Metadata | |
---|---|
発行者 | Robin Rosengrün |
Web サイト | https://openai.com/ |
プライバシー ポリシー | https://openai.com/api/policies/terms/ |
カテゴリー | AI |
コネクタは、次の認証タイプをサポートしています:
既定 | 接続を作成するためのパラメーター。 | すべての地域 | 共有不可 |
適用できるもの: すべての領域
接続を作成するためのパラメーター。
これは共有可能な接続ではありません。 パワー アプリが別のユーザーと共有されている場合、別のユーザーは新しい接続を明示的に作成するように求められます。
件名 | タイプ | 説明設定 | Required |
---|---|---|---|
API Key | securestring | 「BearerYOUR_API_KEY」として API キーを入力します | はい |
名前 | 呼び出し | 更新期間 |
---|---|---|
接続ごとの API 呼び出し | 100 | 60 秒 |
GPT3 がプロンプトを完了します [非推奨] |
GPT3 がプロンプトを完成します (OpenAI では非推奨 - Completion_New を使用) |
GPT3 がプロンプトを終了します |
GPT3 がプロンプトを終了します |
チャットの完了 |
ChatGPT や GPT4 などのモデルを使用して会話する |
埋め込み |
指定された入力のベクトル表現を取得する |
画像を作成する |
DallE2 はプロンプトから画像を作成します |
GPT3 がプロンプトを完成します (OpenAI では非推奨 - Completion_New を使用)
パラメーター
名前 | キー | 必須 | 型 | 説明 |
---|---|---|---|---|
エンジン
|
engine | True | string |
使用するエンジン。text-davinci-002/003、text-curie-001、text-babbage-001、text-ada-001 から選択します |
prompt
|
prompt | True | string |
GPT3 で完成するテキスト |
n
|
n | integer |
プロンプトごとに生成する完了の数 |
|
best_of
|
best_of | integer |
1 を超える値に設定すると、サーバー側で複数の補完が生成され、「最良」が返されます。 "n" 以上でなくてはいけません。 多くのトークンを消費する可能性があるため、注意して使用してください。 |
|
温度
|
temperature | float |
値が高いほど、モデルがより多くのリスクを負うことを意味します。 より創造的なアプリケーションには 0.9 を、明確に定義された答えを持つアプリケーションには 0 (argmax サンプリング) を試してください。 これを使用するか、トップ p を使用する |
|
最大トークン
|
max_tokens | integer |
1 つのトークンは約 4 文字のテキストに相当します (プロンプトから完了までの間に最大 4000 トークン) |
|
トップ p
|
top_p | float |
温度によるサンプリングに代わる核サンプリングと呼ばれるもので、モデルは top_p の確率質量を持つトークンの結果を考慮します。 したがって、0.1 は、上位 10% の確率質量を構成するトークンのみが考慮されることを意味します。 |
|
周波数ペナルティ
|
frequency_penalty | float |
-2.0 ~ 2.0 の数。 正の値は、これまでのテキストにおける既存の頻度に基づいて新しいトークンにペナルティを与え、モデルが同じ行をそのまま繰り返す可能性を減少させます。 |
|
プレゼンス ペナルティ
|
presence_penalty | float |
-2.0 ~ 2.0 の数。 正の値は、新しいトークンがこれまでのテキストに表示されているかどうかに基づいてペナルティを課し、モデルが新しいトピックについて話す可能性を高めます。 |
|
user
|
user | string |
エンド ユーザーを表す一意の識別子で、OpenAI が不正利用を監視および検出するのに役立ちます |
|
停止
|
stop | array of string |
API が以降のトークンの生成を停止する最大 4 つのシーケンス。 返されるテキストには停止シーケンスは含まれません |
戻り値
名前 | パス | 型 | 説明 |
---|---|---|---|
id
|
id | string |
id |
オブジェクト
|
object | string |
オブジェクト |
created
|
created | integer |
created |
choices
|
choices | array of object |
返された完了 |
Text
|
choices.text | string |
完了テキスト |
Index
|
choices.index | integer |
完了した数 |
Logprobs
|
choices.logprobs | string |
選択したトークンだけでなく、logprobs の最も可能性の高いトークンにログ確率を含めます。 たとえば、logprobs が 3 の場合、API は最も可能性の高い 3 つのトークンのリストを返します。 |
終了理由
|
choices.finish_reason | string |
テキストが終了した理由 (停止条件/自然終了/長さ) |
GPT3 がプロンプトを終了します
パラメーター
名前 | キー | 必須 | 型 | 説明 |
---|---|---|---|---|
エンジン
|
model | True | string |
使用するモデルは、text-davinci-002、text-curie-001、text-babbage-001、text-ada-001 から選択します |
prompt
|
prompt | True | string |
GPT3 で完成するテキスト |
n
|
n | integer |
プロンプトごとに生成する完了の数 |
|
best_of
|
best_of | integer |
1 を超える値に設定すると、サーバー側で複数の補完が生成され、「最良」が返されます。 "n" 以上でなくてはいけません。 多くのトークンを消費する可能性があるため、注意して使用してください。 |
|
温度
|
temperature | float |
値が高いほど、モデルがより多くのリスクを負うことを意味します。 より創造的なアプリケーションには 0.9 を、明確に定義された答えを持つアプリケーションには 0 (argmax サンプリング) を試してください。 これを使用するか、トップ p を使用する |
|
最大トークン
|
max_tokens | integer |
1 つのトークンは約 4 文字のテキストに相当します (プロンプトから完了までの間に最大 4000 トークン) |
|
トップ p
|
top_p | float |
温度によるサンプリングに代わる核サンプリングと呼ばれるもので、モデルは top_p の確率質量を持つトークンの結果を考慮します。 したがって、0.1 は、上位 10% の確率質量を構成するトークンのみが考慮されることを意味します。 |
|
周波数ペナルティ
|
frequency_penalty | float |
-2.0 ~ 2.0 の数。 正の値は、これまでのテキストにおける既存の頻度に基づいて新しいトークンにペナルティを与え、モデルが同じ行をそのまま繰り返す可能性を減少させます。 |
|
プレゼンス ペナルティ
|
presence_penalty | float |
-2.0 ~ 2.0 の数。 正の値は、新しいトークンがこれまでのテキストに表示されているかどうかに基づいてペナルティを課し、モデルが新しいトピックについて話す可能性を高めます。 |
|
停止
|
stop | array of string |
API が以降のトークンの生成を停止する最大 4 つのシーケンス。 返されるテキストには停止シーケンスは含まれません |
戻り値
名前 | パス | 型 | 説明 |
---|---|---|---|
id
|
id | string |
id |
オブジェクト
|
object | string |
オブジェクト |
created
|
created | integer |
created |
choices
|
choices | array of object |
返された完了 |
Text
|
choices.text | string |
完了テキスト |
Index
|
choices.index | integer |
完了した数 |
終了理由
|
choices.finish_reason | string |
テキストが終了した理由 (停止条件/自然終了/長さ) |
プロンプト トークン
|
choices.usage.prompt_tokens | integer |
プロンプトのトークン数 |
完了トークン
|
choices.usage.completion_tokens | integer |
完了したトークン数 |
総トークン数
|
choices.usage.total_tokens | integer |
プロンプトと完了のトークンの合計数 |
ChatGPT や GPT4 などのモデルを使用して会話する
パラメーター
名前 | キー | 必須 | 型 | 説明 |
---|---|---|---|---|
モデル
|
model | True | string |
使用モデルは、gpt-3.5-turbo、gpt-4 などから選びます |
role
|
role | True | string |
このメッセージの作成者の役割。 システム、ユーザー、アシスタントのいずれか。 |
コンテント
|
content | True | string |
メッセージのコンテンツ。 |
n
|
n | integer |
プロンプトごとに生成する完了の数 |
|
温度
|
temperature | float |
値が高いほど、モデルがより多くのリスクを負うことを意味します。 より創造的なアプリケーションには 0.9 を、明確に定義された答えを持つアプリケーションには 0 (argmax サンプリング) を試してください。 これを使用するか、トップ p を使用する |
|
最大トークン
|
max_tokens | integer |
1 つのトークンは約 4 文字のテキストに相当します (モデルに応じて、プロンプトから完了までの間に最大 4000 かそれ以上のトークン) |
|
トップ p
|
top_p | float |
温度によるサンプリングに代わる核サンプリングと呼ばれるもので、モデルは top_p の確率質量を持つトークンの結果を考慮します。 したがって、0.1 は、上位 10% の確率質量を構成するトークンのみが考慮されることを意味します。 |
|
周波数ペナルティ
|
frequency_penalty | float |
-2.0 ~ 2.0 の数。 正の値は、これまでのテキストにおける既存の頻度に基づいて新しいトークンにペナルティを与え、モデルが同じ行をそのまま繰り返す可能性を減少させます。 |
|
プレゼンス ペナルティ
|
presence_penalty | float |
-2.0 ~ 2.0 の数。 正の値は、新しいトークンがこれまでのテキストに表示されているかどうかに基づいてペナルティを課し、モデルが新しいトピックについて話す可能性を高めます。 |
|
停止
|
stop | array of string |
API が以降のトークンの生成を停止する最大 4 つのシーケンス。 返されるテキストには停止シーケンスは含まれません |
戻り値
名前 | パス | 型 | 説明 |
---|---|---|---|
id
|
id | string |
id |
オブジェクト
|
object | string |
オブジェクト |
created
|
created | integer |
created |
choices
|
choices | array of object |
choices |
index
|
choices.index | integer |
index |
role
|
choices.message.role | string |
role |
コンテント
|
choices.message.content | string |
コンテント |
finish_reason
|
choices.finish_reason | string |
finish_reason |
prompt_tokens
|
usage.prompt_tokens | integer |
prompt_tokens |
completion_tokens
|
usage.completion_tokens | integer |
completion_tokens |
total_tokens
|
usage.total_tokens | integer |
total_tokens |
指定された入力のベクトル表現を取得する
パラメーター
名前 | キー | 必須 | 型 | 説明 |
---|---|---|---|---|
モデル
|
model | True | string |
モデル |
input
|
input | True | string |
input |
戻り値
名前 | パス | 型 | 説明 |
---|---|---|---|
オブジェクト
|
object | string |
オブジェクト |
データ
|
data | array of object |
データ |
オブジェクト
|
data.object | string |
オブジェクト |
埋め込み
|
data.embedding | array of float |
埋め込み |
index
|
data.index | integer |
index |
モデル
|
model | string |
モデル |
prompt_tokens
|
usage.prompt_tokens | integer |
prompt_tokens |
total_tokens
|
usage.total_tokens | integer |
total_tokens |
DallE2 はプロンプトから画像を作成します
パラメーター
名前 | キー | 必須 | 型 | 説明 |
---|---|---|---|---|
prompt
|
prompt | True | string |
画像を説明するプロンプト |
画像数
|
n | integer |
1 から 10 までの画像の数 |
|
size
|
size | string |
生成された画像のサイズ。 256x256、512x512 または 1024x1024 (既定: 1024x1024) |
|
format
|
response_format | string |
画像の URL を取得するか、base64 形式で受け取ります (既定: URL) |
戻り値
名前 | パス | 型 | 説明 |
---|---|---|---|
データ
|
data | array of object |
データ |
url
|
data.url | string |
作成された画像の URL |
b64image
|
data.b64_json | byte |
base64 形式の画像 |