Freigeben über


OpenAIAsyncClient Klasse

  • java.lang.Object
    • com.azure.ai.openai.OpenAIAsyncClient

public final class OpenAIAsyncClient

Initialisiert eine neue instance des asynchronen OpenAIClient-Typs.

Methodenzusammenfassung

Modifizierer und Typ Methode und Beschreibung
Mono<AudioTranscription> getAudioTranscription(String deploymentOrModelName, String fileName, AudioTranscriptionOptions audioTranscriptionOptions)

Ruft transkribierten Text und zugeordnete Metadaten aus den bereitgestellten Audiodateidaten ab.

Mono<String> getAudioTranscriptionAsPlainText(String deploymentOrModelName, AudioTranscriptionOptions audioTranscriptionOptions)

Ruft transkribierten Text und zugeordnete Metadaten aus den bereitgestellten gesprochenen Audiodaten ab.

Mono<Response<BinaryData>> getAudioTranscriptionAsPlainTextWithResponse(String deploymentOrModelName, BinaryData audioTranscriptionOptions, RequestOptions requestOptions)

Ruft transkribierten Text und zugeordnete Metadaten aus den bereitgestellten gesprochenen Audiodaten ab.

Mono<AudioTranscription> getAudioTranscriptionAsResponseObject(String deploymentOrModelName, AudioTranscriptionOptions audioTranscriptionOptions)

Ruft transkribierten Text und zugeordnete Metadaten aus den bereitgestellten gesprochenen Audiodaten ab.

Mono<Response<BinaryData>> getAudioTranscriptionAsResponseObjectWithResponse(String deploymentOrModelName, BinaryData audioTranscriptionOptions, RequestOptions requestOptions)

Ruft transkribierten Text und zugeordnete Metadaten aus den bereitgestellten gesprochenen Audiodaten ab.

Mono<String> getAudioTranscriptionText(String deploymentOrModelName, String fileName, AudioTranscriptionOptions audioTranscriptionOptions)

Ruft transkribierten Text und zugeordnete Metadaten aus den bereitgestellten Audiodateidaten ab.

Mono<Response<String>> getAudioTranscriptionTextWithResponse(String deploymentOrModelName, String fileName, AudioTranscriptionOptions audioTranscriptionOptions, RequestOptions requestOptions)

Ruft transkribierten Text und zugeordnete Metadaten aus den bereitgestellten Audiodateidaten ab.

Mono<Response<AudioTranscription>> getAudioTranscriptionWithResponse(String deploymentOrModelName, String fileName, AudioTranscriptionOptions audioTranscriptionOptions, RequestOptions requestOptions)

Ruft transkribierten Text und zugeordnete Metadaten aus den bereitgestellten Audiodateidaten ab.

Mono<AudioTranslation> getAudioTranslation(String deploymentOrModelName, String fileName, AudioTranslationOptions audioTranslationOptions)

Ruft transkribierten englischsprachigen Text und zugeordnete Metadaten aus den bereitgestellten Gesprochenen Audiodateidaten ab.

Mono<String> getAudioTranslationAsPlainText(String deploymentOrModelName, AudioTranslationOptions audioTranslationOptions)

Ruft transkribierten englischsprachigen Text und zugeordnete Metadaten aus den bereitgestellten gesprochenen Audiodaten ab.

Mono<Response<BinaryData>> getAudioTranslationAsPlainTextWithResponse(String deploymentOrModelName, BinaryData audioTranslationOptions, RequestOptions requestOptions)

Ruft transkribierten englischsprachigen Text und zugeordnete Metadaten aus den bereitgestellten gesprochenen Audiodaten ab.

Mono<AudioTranslation> getAudioTranslationAsResponseObject(String deploymentOrModelName, AudioTranslationOptions audioTranslationOptions)

Ruft transkribierten englischsprachigen Text und zugeordnete Metadaten aus den bereitgestellten gesprochenen Audiodaten ab.

Mono<Response<BinaryData>> getAudioTranslationAsResponseObjectWithResponse(String deploymentOrModelName, BinaryData audioTranslationOptions, RequestOptions requestOptions)

Ruft transkribierten englischsprachigen Text und zugeordnete Metadaten aus den bereitgestellten gesprochenen Audiodaten ab.

Mono<String> getAudioTranslationText(String deploymentOrModelName, String fileName, AudioTranslationOptions audioTranslationOptions)

Ruft transkribierten englischsprachigen Text und zugeordnete Metadaten aus den bereitgestellten Gesprochenen Audiodateidaten ab.

Mono<Response<String>> getAudioTranslationTextWithResponse(String deploymentOrModelName, String fileName, AudioTranslationOptions audioTranslationOptions, RequestOptions requestOptions)

Ruft transkribierten englischsprachigen Text und zugeordnete Metadaten aus den bereitgestellten Gesprochenen Audiodateidaten ab.

Mono<Response<AudioTranslation>> getAudioTranslationWithResponse(String deploymentOrModelName, String fileName, AudioTranslationOptions audioTranslationOptions, RequestOptions requestOptions)

Ruft transkribierten englischsprachigen Text und zugeordnete Metadaten aus den bereitgestellten Gesprochenen Audiodateidaten ab.

Mono<ChatCompletions> getChatCompletions(String deploymentOrModelName, ChatCompletionsOptions chatCompletionsOptions)

Ruft Chatabschlusse für die bereitgestellten Chatnachrichten ab.

Flux<ChatCompletions> getChatCompletionsStream(String deploymentOrModelName, ChatCompletionsOptions chatCompletionsOptions)

Ruft Chatabschlusse für die bereitgestellten Chatnachrichten ab.

Mono<Response<ChatCompletions>> getChatCompletionsWithResponse(String deploymentOrModelName, ChatCompletionsOptions chatCompletionsOptions, RequestOptions requestOptions)

Ruft Chatabschlusse für die bereitgestellten Chatnachrichten ab.

Mono<Response<BinaryData>> getChatCompletionsWithResponse(String deploymentOrModelName, BinaryData chatCompletionsOptions, RequestOptions requestOptions)

Ruft Chatabschlusse für die bereitgestellten Chatnachrichten ab.

Mono<Completions> getCompletions(String deploymentOrModelName, CompletionsOptions completionsOptions)

Ruft Vervollständigungen für die bereitgestellten Eingabeeingabeaufforderungen ab.

Mono<Completions> getCompletions(String deploymentOrModelName, String prompt)

Ruft Vervollständigungen für die bereitgestellte Eingabeeingabeaufforderung ab.

Flux<Completions> getCompletionsStream(String deploymentOrModelName, CompletionsOptions completionsOptions)

Ruft Vervollständigungen als Stream für die bereitgestellten Eingabeeingabeaufforderungen ab.

Mono<Response<Completions>> getCompletionsWithResponse(String deploymentOrModelName, CompletionsOptions completionsOptions, RequestOptions requestOptions)

Ruft Vervollständigungen für die bereitgestellten Eingabeeingabeaufforderungen ab.

Mono<Response<BinaryData>> getCompletionsWithResponse(String deploymentOrModelName, BinaryData completionsOptions, RequestOptions requestOptions)

Ruft Vervollständigungen für die bereitgestellten Eingabeeingabeaufforderungen ab.

Mono<Embeddings> getEmbeddings(String deploymentOrModelName, EmbeddingsOptions embeddingsOptions)

Zurückgeben der Einbettungen für eine bestimmte Eingabeaufforderung

Mono<Response<Embeddings>> getEmbeddingsWithResponse(String deploymentOrModelName, EmbeddingsOptions embeddingsOptions, RequestOptions requestOptions)

Zurückgeben der Einbettungen für eine bestimmte Eingabeaufforderung

Mono<Response<BinaryData>> getEmbeddingsWithResponse(String deploymentOrModelName, BinaryData embeddingsOptions, RequestOptions requestOptions)

Zurückgeben der Einbettungen für eine bestimmte Eingabeaufforderung

Mono<ImageResponse> getImages(ImageGenerationOptions imageGenerationOptions)

Startet die Generierung eines Batches von Bildern aus einem Text Untertitel.

Geerbte Methoden von java.lang.Object

Details zur Methode

getAudioTranscription

public Mono getAudioTranscription(String deploymentOrModelName, String fileName, AudioTranscriptionOptions audioTranscriptionOptions)

Ruft transkribierten Text und zugeordnete Metadaten aus den bereitgestellten Audiodateidaten ab. Audio wird in der geschriebenen Sprache transkribiert, die der Sprache entspricht, in der es gesprochen wurde.

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
fileName - Der Dateiname, der file im Feld von AudioTranscriptionOptions
audioTranscriptionOptions - Die Konfigurationsinformationen für eine Audiotranskriptionsanforderung.

Returns:

AudioTranscription Transkribierter Text und die zugehörigen Metadaten aus den bereitgestellten Gesprochenen Audiodaten nach erfolgreichem Abschluss von Mono.

getAudioTranscriptionAsPlainText

public Mono getAudioTranscriptionAsPlainText(String deploymentOrModelName, AudioTranscriptionOptions audioTranscriptionOptions)

Ruft transkribierten Text und zugeordnete Metadaten aus den bereitgestellten gesprochenen Audiodaten ab. Audio wird in der geschriebenen Sprache transkribiert, die der Sprache entspricht, in der es gesprochen wurde.

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
audioTranscriptionOptions - Die Konfigurationsinformationen für eine Audiotranskriptionsanforderung.

Returns:

Transkribierter Text und die zugehörigen Metadaten aus den bereitgestellten Gesprochenen Audiodaten nach erfolgreichem Abschluss von Mono.

getAudioTranscriptionAsPlainTextWithResponse

public Mono> getAudioTranscriptionAsPlainTextWithResponse(String deploymentOrModelName, BinaryData audioTranscriptionOptions, RequestOptions requestOptions)

Ruft transkribierten Text und zugeordnete Metadaten aus den bereitgestellten gesprochenen Audiodaten ab. Audio wird in der geschriebenen Sprache transkribiert, die der Sprache entspricht, in der es gesprochen wurde.

Anforderungstextschema

{
     file: byte[] (Required)
     response_format: String(json/verbose_json/text/srt/vtt) (Optional)
     language: String (Optional)
     prompt: String (Optional)
     temperature: Double (Optional)
     model: String (Optional)
 }

Antworttextschema

String

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
audioTranscriptionOptions - Die Konfigurationsinformationen für eine Audiotranskriptionsanforderung.
requestOptions - Die Optionen zum Konfigurieren der HTTP-Anforderung, bevor der HTTP-Client sie sendet.

Returns:

Transkribierten Text und die zugehörigen Metadaten aus den bereitgestellten gesprochenen Audiodaten zusammen mit Response<T> nach erfolgreichem Abschluss von Mono.

getAudioTranscriptionAsResponseObject

public Mono getAudioTranscriptionAsResponseObject(String deploymentOrModelName, AudioTranscriptionOptions audioTranscriptionOptions)

Ruft transkribierten Text und zugeordnete Metadaten aus den bereitgestellten gesprochenen Audiodaten ab. Audio wird in der geschriebenen Sprache transkribiert, die der Sprache entspricht, in der es gesprochen wurde.

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
audioTranscriptionOptions - Die Konfigurationsinformationen für eine Audiotranskriptionsanforderung.

Returns:

Transkribierter Text und die zugehörigen Metadaten aus den bereitgestellten Gesprochenen Audiodaten nach erfolgreichem Abschluss von Mono.

getAudioTranscriptionAsResponseObjectWithResponse

public Mono> getAudioTranscriptionAsResponseObjectWithResponse(String deploymentOrModelName, BinaryData audioTranscriptionOptions, RequestOptions requestOptions)

Ruft transkribierten Text und zugeordnete Metadaten aus den bereitgestellten gesprochenen Audiodaten ab. Audio wird in der geschriebenen Sprache transkribiert, die der Sprache entspricht, in der es gesprochen wurde.

Anforderungstextschema

{
     file: byte[] (Required)
     response_format: String(json/verbose_json/text/srt/vtt) (Optional)
     language: String (Optional)
     prompt: String (Optional)
     temperature: Double (Optional)
     model: String (Optional)
 }

Antworttextschema

{
     text: String (Required)
     task: String(transcribe/translate) (Optional)
     language: String (Optional)
     duration: Double (Optional)
     segments (Optional): [
          (Optional){
             id: int (Required)
             start: double (Required)
             end: double (Required)
             text: String (Required)
             temperature: double (Required)
             avg_logprob: double (Required)
             compression_ratio: double (Required)
             no_speech_prob: double (Required)
             tokens (Required): [
                 int (Required)
             ]
             seek: int (Required)
         }
     ]
 }

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
audioTranscriptionOptions - Die Konfigurationsinformationen für eine Audiotranskriptionsanforderung.
requestOptions - Die Optionen zum Konfigurieren der HTTP-Anforderung, bevor der HTTP-Client sie sendet.

Returns:

Transkribierten Text und die zugehörigen Metadaten aus den bereitgestellten gesprochenen Audiodaten zusammen mit Response<T> nach erfolgreichem Abschluss von Mono.

getAudioTranscriptionText

public Mono getAudioTranscriptionText(String deploymentOrModelName, String fileName, AudioTranscriptionOptions audioTranscriptionOptions)

Ruft transkribierten Text und zugeordnete Metadaten aus den bereitgestellten Audiodateidaten ab. Audio wird in der geschriebenen Sprache transkribiert, die der Sprache entspricht, in der es gesprochen wurde.

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
fileName - Der Dateiname, der file im Feld von AudioTranscriptionOptions
audioTranscriptionOptions - Die Konfigurationsinformationen für eine Audiotranskriptionsanforderung.

Returns:

Transkribierter Text und die zugehörigen Metadaten aus den bereitgestellten Gesprochenen Audiodaten nach erfolgreichem Abschluss von Mono.

getAudioTranscriptionTextWithResponse

public Mono> getAudioTranscriptionTextWithResponse(String deploymentOrModelName, String fileName, AudioTranscriptionOptions audioTranscriptionOptions, RequestOptions requestOptions)

Ruft transkribierten Text und zugeordnete Metadaten aus den bereitgestellten Audiodateidaten ab. Audio wird in der geschriebenen Sprache transkribiert, die der Sprache entspricht, in der es gesprochen wurde.

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
fileName - Der Dateiname, der file im Feld von AudioTranscriptionOptions
audioTranscriptionOptions - Die Konfigurationsinformationen für eine Audiotranskriptionsanforderung.
requestOptions - Die Optionen zum Konfigurieren der HTTP-Anforderung, bevor der HTTP-Client sie sendet.

Returns:

Transkribierter Text und die zugehörigen Metadaten aus den bereitgestellten Audiodateidaten zusammen mit Response<T> nach erfolgreichem Abschluss von Mono.

getAudioTranscriptionWithResponse

public Mono> getAudioTranscriptionWithResponse(String deploymentOrModelName, String fileName, AudioTranscriptionOptions audioTranscriptionOptions, RequestOptions requestOptions)

Ruft transkribierten Text und zugeordnete Metadaten aus den bereitgestellten Audiodateidaten ab. Audio wird in der geschriebenen Sprache transkribiert, die der Sprache entspricht, in der es gesprochen wurde.

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
fileName - Der Dateiname, der file im Feld von AudioTranscriptionOptions
audioTranscriptionOptions - Die Konfigurationsinformationen für eine Audiotranskriptionsanforderung.
requestOptions - Die Optionen zum Konfigurieren der HTTP-Anforderung, bevor der HTTP-Client sie sendet.

Returns:

AudioTranscription Transkribierter Text und die zugehörigen Metadaten aus den bereitgestellten Gesprochenen Audiodaten nach erfolgreichem Abschluss von Mono.

getAudioTranslation

public Mono getAudioTranslation(String deploymentOrModelName, String fileName, AudioTranslationOptions audioTranslationOptions)

Ruft transkribierten englischsprachigen Text und zugeordnete Metadaten aus den bereitgestellten Gesprochenen Audiodateidaten ab.

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
fileName - Der Dateiname, der file im Feld von AudioTranslationOptions
audioTranslationOptions - Die Konfigurationsinformationen für eine Audioübersetzungsanforderung.

Returns:

AudioTranslation In englischer Sprache transkribierten Text und zugehörige Metadaten aus den bereitgestellten Audiodateidaten nach erfolgreichem Abschluss von Mono.

getAudioTranslationAsPlainText

public Mono getAudioTranslationAsPlainText(String deploymentOrModelName, AudioTranslationOptions audioTranslationOptions)

Ruft transkribierten englischsprachigen Text und zugeordnete Metadaten aus den bereitgestellten gesprochenen Audiodaten ab.

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
audioTranslationOptions - Die Konfigurationsinformationen für eine Audioübersetzungsanforderung.

Returns:

Englischsprachiger transkribierter Text und zugehörige Metadaten aus den bereitgestellten Gesprochenen Audiodaten beim erfolgreichen Abschluss von Mono.

getAudioTranslationAsPlainTextWithResponse

public Mono> getAudioTranslationAsPlainTextWithResponse(String deploymentOrModelName, BinaryData audioTranslationOptions, RequestOptions requestOptions)

Ruft transkribierten englischsprachigen Text und zugeordnete Metadaten aus den bereitgestellten gesprochenen Audiodaten ab.

Anforderungstextschema

{
     file: byte[] (Required)
     response_format: String(json/verbose_json/text/srt/vtt) (Optional)
     prompt: String (Optional)
     temperature: Double (Optional)
     model: String (Optional)
 }

Antworttextschema

String

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
audioTranslationOptions - Die Konfigurationsinformationen für eine Audioübersetzungsanforderung.
requestOptions - Die Optionen zum Konfigurieren der HTTP-Anforderung, bevor der HTTP-Client sie sendet.

Returns:

Englischsprachiger transkribierter Text und zugehörige Metadaten aus den bereitgestellten Audiodaten zusammen mit Response<T> nach erfolgreichem Abschluss von Mono.

getAudioTranslationAsResponseObject

public Mono getAudioTranslationAsResponseObject(String deploymentOrModelName, AudioTranslationOptions audioTranslationOptions)

Ruft transkribierten englischsprachigen Text und zugeordnete Metadaten aus den bereitgestellten gesprochenen Audiodaten ab.

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
audioTranslationOptions - Die Konfigurationsinformationen für eine Audioübersetzungsanforderung.

Returns:

Englischsprachiger transkribierter Text und zugehörige Metadaten aus den bereitgestellten Gesprochenen Audiodaten beim erfolgreichen Abschluss von Mono.

getAudioTranslationAsResponseObjectWithResponse

public Mono> getAudioTranslationAsResponseObjectWithResponse(String deploymentOrModelName, BinaryData audioTranslationOptions, RequestOptions requestOptions)

Ruft transkribierten englischsprachigen Text und zugeordnete Metadaten aus den bereitgestellten gesprochenen Audiodaten ab.

Anforderungstextschema

{
     file: byte[] (Required)
     response_format: String(json/verbose_json/text/srt/vtt) (Optional)
     prompt: String (Optional)
     temperature: Double (Optional)
     model: String (Optional)
 }

Antworttextschema

{
     text: String (Required)
     task: String(transcribe/translate) (Optional)
     language: String (Optional)
     duration: Double (Optional)
     segments (Optional): [
          (Optional){
             id: int (Required)
             start: double (Required)
             end: double (Required)
             text: String (Required)
             temperature: double (Required)
             avg_logprob: double (Required)
             compression_ratio: double (Required)
             no_speech_prob: double (Required)
             tokens (Required): [
                 int (Required)
             ]
             seek: int (Required)
         }
     ]
 }

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
audioTranslationOptions - Die Konfigurationsinformationen für eine Audioübersetzungsanforderung.
requestOptions - Die Optionen zum Konfigurieren der HTTP-Anforderung, bevor der HTTP-Client sie sendet.

Returns:

Englischsprachiger transkribierter Text und zugehörige Metadaten aus den bereitgestellten Audiodaten zusammen mit Response<T> nach erfolgreichem Abschluss von Mono.

getAudioTranslationText

public Mono getAudioTranslationText(String deploymentOrModelName, String fileName, AudioTranslationOptions audioTranslationOptions)

Ruft transkribierten englischsprachigen Text und zugeordnete Metadaten aus den bereitgestellten Gesprochenen Audiodateidaten ab.

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
fileName - Der Dateiname, der file im Feld von AudioTranslationOptionsdargestellt wird.
audioTranslationOptions - Die Konfigurationsinformationen für eine Audioübersetzungsanforderung.

Returns:

In englischer Sprache transkribierten Text und zugehörige Metadaten aus den bereitgestellten Audiodateidaten nach erfolgreichem Abschluss von Mono.

getAudioTranslationTextWithResponse

public Mono> getAudioTranslationTextWithResponse(String deploymentOrModelName, String fileName, AudioTranslationOptions audioTranslationOptions, RequestOptions requestOptions)

Ruft transkribierten englischsprachigen Text und zugeordnete Metadaten aus den bereitgestellten Gesprochenen Audiodateidaten ab.

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
fileName - Der Dateiname, der file im Feld von AudioTranslationOptionsdargestellt wird.
audioTranslationOptions - Die Konfigurationsinformationen für eine Audioübersetzungsanforderung.
requestOptions - Die Optionen zum Konfigurieren der HTTP-Anforderung, bevor der HTTP-Client sie sendet.

Returns:

In englischer Sprache transkribierten Text und zugehörige Metadaten aus den bereitgestellten Audiodateidaten nach erfolgreichem Abschluss von Mono.

getAudioTranslationWithResponse

public Mono> getAudioTranslationWithResponse(String deploymentOrModelName, String fileName, AudioTranslationOptions audioTranslationOptions, RequestOptions requestOptions)

Ruft transkribierten englischsprachigen Text und zugeordnete Metadaten aus den bereitgestellten Gesprochenen Audiodateidaten ab.

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
fileName - Der Dateiname, der file im Feld von AudioTranslationOptions
audioTranslationOptions - Die Konfigurationsinformationen für eine Audioübersetzungsanforderung.
requestOptions - Die Optionen zum Konfigurieren der HTTP-Anforderung, bevor der HTTP-Client sie sendet.

Returns:

AudioTranslation In englischer Sprache transkribierten Text und die zugehörigen Metadaten aus den bereitgestellten Audiodateidaten zusammen mit Response<T> nach erfolgreichem Abschluss von Mono.

getChatCompletions

public Mono getChatCompletions(String deploymentOrModelName, ChatCompletionsOptions chatCompletionsOptions)

Ruft Chatabschlusse für die bereitgestellten Chatnachrichten ab. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der aus den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
chatCompletionsOptions - Die Konfigurationsinformationen für eine Chatabschlussanforderung. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der aus den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.

Returns:

Chat-Vervollständigungen für die bereitgestellten Chatnachrichten. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der von den bereitgestellten Eingabeaufforderungsdaten über den erfolgreichen Abschluss von Monofortgesetzt oder "abgeschlossen" wird.

getChatCompletionsStream

public Flux getChatCompletionsStream(String deploymentOrModelName, ChatCompletionsOptions chatCompletionsOptions)

Ruft Chatabschlusse für die bereitgestellten Chatnachrichten ab. Chat-Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der von bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
chatCompletionsOptions - Die Konfigurationsinformationen für eine Chatabschlussanforderung. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der aus den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.

Returns:

Chatabschlussstream für die bereitgestellten Chatnachrichten. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der aus den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.

getChatCompletionsWithResponse

public Mono> getChatCompletionsWithResponse(String deploymentOrModelName, ChatCompletionsOptions chatCompletionsOptions, RequestOptions requestOptions)

Ruft Chatabschlusse für die bereitgestellten Chatnachrichten ab. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der aus den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.

Anforderungstextschema

{
     messages (Required): [
          (Required){
             role: String(system/assistant/user) (Required)
             content: String (Optional)
         }
     ]
     max_tokens: Integer (Optional)
     temperature: Double (Optional)
     top_p: Double (Optional)
     logit_bias (Optional): {
         String: int (Optional)
     }
     user: String (Optional)
     n: Integer (Optional)
     stop (Optional): [
         String (Optional)
     ]
     presence_penalty: Double (Optional)
     frequency_penalty: Double (Optional)
     stream: Boolean (Optional)
     model: String (Optional)
 }

Antworttextschema

{
     id: String (Required)
     created: int (Required)
     choices (Required): [
          (Required){
             message (Optional): {
                 role: String(system/assistant/user) (Required)
                 content: String (Optional)
             }
             index: int (Required)
             finish_reason: String(stopped/tokenLimitReached/contentFiltered) (Required)
             delta (Optional): {
                 role: String(system/assistant/user) (Optional)
                 content: String (Optional)
             }
         }
     ]
     usage (Required): {
         completion_tokens: int (Required)
         prompt_tokens: int (Required)
         total_tokens: int (Required)
     }
 }

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
chatCompletionsOptions - Die Konfigurationsinformationen für eine Chatabschlussanforderung. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der aus den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.
requestOptions - Die Optionen zum Konfigurieren der HTTP-Anforderung, bevor der HTTP-Client sie sendet.

Returns:

Chat-Vervollständigungen für die bereitgestellten Chatnachrichten. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der von den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird, zusammen mit Response<T> nach erfolgreichem Abschluss von Mono.

getChatCompletionsWithResponse

public Mono> getChatCompletionsWithResponse(String deploymentOrModelName, BinaryData chatCompletionsOptions, RequestOptions requestOptions)

Ruft Chatabschlusse für die bereitgestellten Chatnachrichten ab. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der aus den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.

Anforderungstextschema

{
     messages (Required): [
          (Required){
             role: String(system/assistant/user) (Required)
             content: String (Optional)
         }
     ]
     max_tokens: Integer (Optional)
     temperature: Double (Optional)
     top_p: Double (Optional)
     logit_bias (Optional): {
         String: int (Optional)
     }
     user: String (Optional)
     n: Integer (Optional)
     stop (Optional): [
         String (Optional)
     ]
     presence_penalty: Double (Optional)
     frequency_penalty: Double (Optional)
     stream: Boolean (Optional)
     model: String (Optional)
 }

Antworttextschema

{
     id: String (Required)
     created: int (Required)
     choices (Required): [
          (Required){
             message (Optional): {
                 role: String(system/assistant/user) (Required)
                 content: String (Optional)
             }
             index: int (Required)
             finish_reason: String(stopped/tokenLimitReached/contentFiltered) (Required)
             delta (Optional): {
                 role: String(system/assistant/user) (Optional)
                 content: String (Optional)
             }
         }
     ]
     usage (Required): {
         completion_tokens: int (Required)
         prompt_tokens: int (Required)
         total_tokens: int (Required)
     }
 }

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
chatCompletionsOptions - Die Konfigurationsinformationen für eine Chatabschlussanforderung. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der aus den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.
requestOptions - Die Optionen zum Konfigurieren der HTTP-Anforderung, bevor der HTTP-Client sie sendet.

Returns:

Chat-Vervollständigungen für die bereitgestellten Chatnachrichten. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der von den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird, zusammen mit Response<T> nach erfolgreichem Abschluss von Mono.

getCompletions

public Mono getCompletions(String deploymentOrModelName, CompletionsOptions completionsOptions)

Ruft Vervollständigungen für die bereitgestellten Eingabeeingabeaufforderungen ab. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der aus den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
completionsOptions - Die Konfigurationsinformationen für eine Vervollständigungsanforderung. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der aus den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.

Returns:

Vervollständigungen für die bereitgestellten Eingabeeingabeaufforderungen. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der von den bereitgestellten Eingabeaufforderungsdaten über den erfolgreichen Abschluss von Monofortgesetzt oder "abgeschlossen" wird.

getCompletions

public Mono getCompletions(String deploymentOrModelName, String prompt)

Ruft Vervollständigungen für die bereitgestellte Eingabeeingabeaufforderung ab. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der aus den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
prompt - Die Eingabeaufforderung zum Generieren von Vervollständigungstext.

Returns:

Vervollständigungen für die bereitgestellten Eingabeeingabeaufforderungen. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der von den bereitgestellten Eingabeaufforderungsdaten über den erfolgreichen Abschluss von Monofortgesetzt oder "abgeschlossen" wird.

getCompletionsStream

public Flux getCompletionsStream(String deploymentOrModelName, CompletionsOptions completionsOptions)

Ruft Vervollständigungen als Stream für die bereitgestellten Eingabeeingabeaufforderungen ab. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der aus den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
completionsOptions - Die Konfigurationsinformationen für eine Vervollständigungsanforderung. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der aus den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.

Returns:

eine Flux der Vervollständigungen für die bereitgestellten Eingabeeingabeaufforderungen. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der aus den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.

getCompletionsWithResponse

public Mono> getCompletionsWithResponse(String deploymentOrModelName, CompletionsOptions completionsOptions, RequestOptions requestOptions)

Ruft Vervollständigungen für die bereitgestellten Eingabeeingabeaufforderungen ab. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der aus den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.

Anforderungstextschema

{
     prompt (Required): [
         String (Required)
     ]
     max_tokens: Integer (Optional)
     temperature: Double (Optional)
     top_p: Double (Optional)
     logit_bias (Optional): {
         String: int (Optional)
     }
     user: String (Optional)
     n: Integer (Optional)
     logprobs: Integer (Optional)
     echo: Boolean (Optional)
     stop (Optional): [
         String (Optional)
     ]
     presence_penalty: Double (Optional)
     frequency_penalty: Double (Optional)
     best_of: Integer (Optional)
     stream: Boolean (Optional)
     model: String (Optional)
 }

Antworttextschema

{
     id: String (Required)
     created: int (Required)
     choices (Required): [
          (Required){
             text: String (Required)
             index: int (Required)
             logprobs (Required): {
                 tokens (Required): [
                     String (Required)
                 ]
                 token_logprobs (Required): [
                     double (Required)
                 ]
                 top_logprobs (Required): [
                      (Required){
                         String: double (Required)
                     }
                 ]
                 text_offset (Required): [
                     int (Required)
                 ]
             }
             finish_reason: String(stopped/tokenLimitReached/contentFiltered) (Required)
         }
     ]
     usage (Required): {
         completion_tokens: int (Required)
         prompt_tokens: int (Required)
         total_tokens: int (Required)
     }
 }

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
completionsOptions - Die Konfigurationsinformationen für eine Vervollständigungsanforderung. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der aus den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.
requestOptions - Die Optionen zum Konfigurieren der HTTP-Anforderung, bevor der HTTP-Client sie sendet.

Returns:

Vervollständigungen für die bereitgestellten Eingabeeingabeaufforderungen. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der von den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird, zusammen mit Response<T> nach erfolgreichem Abschluss von Mono.

getCompletionsWithResponse

public Mono> getCompletionsWithResponse(String deploymentOrModelName, BinaryData completionsOptions, RequestOptions requestOptions)

Ruft Vervollständigungen für die bereitgestellten Eingabeeingabeaufforderungen ab. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der aus den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.

Anforderungstextschema

{
     prompt (Required): [
         String (Required)
     ]
     max_tokens: Integer (Optional)
     temperature: Double (Optional)
     top_p: Double (Optional)
     logit_bias (Optional): {
         String: int (Optional)
     }
     user: String (Optional)
     n: Integer (Optional)
     logprobs: Integer (Optional)
     echo: Boolean (Optional)
     stop (Optional): [
         String (Optional)
     ]
     presence_penalty: Double (Optional)
     frequency_penalty: Double (Optional)
     best_of: Integer (Optional)
     stream: Boolean (Optional)
     model: String (Optional)
 }

Antworttextschema

{
     id: String (Required)
     created: int (Required)
     choices (Required): [
          (Required){
             text: String (Required)
             index: int (Required)
             logprobs (Required): {
                 tokens (Required): [
                     String (Required)
                 ]
                 token_logprobs (Required): [
                     double (Required)
                 ]
                 top_logprobs (Required): [
                      (Required){
                         String: double (Required)
                     }
                 ]
                 text_offset (Required): [
                     int (Required)
                 ]
             }
             finish_reason: String(stopped/tokenLimitReached/contentFiltered) (Required)
         }
     ]
     usage (Required): {
         completion_tokens: int (Required)
         prompt_tokens: int (Required)
         total_tokens: int (Required)
     }
 }

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
completionsOptions - Die Konfigurationsinformationen für eine Vervollständigungsanforderung. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der aus den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.
requestOptions - Die Optionen zum Konfigurieren der HTTP-Anforderung, bevor der HTTP-Client sie sendet.

Returns:

Vervollständigungen für die bereitgestellten Eingabeeingabeaufforderungen. Vervollständigungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der von den bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird, zusammen mit Response<T> nach erfolgreichem Abschluss von Mono.

getEmbeddings

public Mono getEmbeddings(String deploymentOrModelName, EmbeddingsOptions embeddingsOptions)

Zurückgeben der Einbettungen für eine bestimmte Eingabeaufforderung

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
embeddingsOptions - Die Konfigurationsinformationen für eine Einbettungsanforderung. Einbettungen messen die Verwandtschaft von Textzeichenfolgen und werden häufig für Suche, Clustering, Empfehlungen und andere ähnliche Szenarien verwendet.

Returns:

Darstellung der Antwortdaten aus einer Einbettungsanforderung. Einbettungen messen die Verwandtschaft von Textzeichenfolgen und werden häufig für Suche, Clustering, Empfehlungen und andere ähnliche Szenarien nach erfolgreichem Abschluss von Monoverwendet.

getEmbeddingsWithResponse

public Mono> getEmbeddingsWithResponse(String deploymentOrModelName, EmbeddingsOptions embeddingsOptions, RequestOptions requestOptions)

Zurückgeben der Einbettungen für eine bestimmte Eingabeaufforderung

Anforderungstextschema

{
     user: String (Optional)
     model: String (Optional)
     input (Required): [
         String (Required)
     ]
 }

Antworttextschema

{
     data (Required): [
          (Required){
             embedding (Required): [
                 double (Required)
             ]
             index: int (Required)
         }
     ]
     usage (Required): {
         prompt_tokens: int (Required)
         total_tokens: int (Required)
     }
 }

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
embeddingsOptions - Die Konfigurationsinformationen für eine Einbettungsanforderung. Einbettungen messen die Verwandtschaft von Textzeichenfolgen und werden häufig für Suche, Clustering, Empfehlungen und andere ähnliche Szenarien verwendet.
requestOptions - Die Optionen zum Konfigurieren der HTTP-Anforderung, bevor der HTTP-Client sie sendet.

Returns:

Darstellung der Antwortdaten aus einer Einbettungsanforderung. Einbettungen messen die Verwandtschaft von Textzeichenfolgen und werden häufig für Suche, Clustering, Empfehlungen und andere ähnliche Szenarien zusammen mit Response<T> bei erfolgreichem Abschluss von Monoverwendet.

getEmbeddingsWithResponse

public Mono> getEmbeddingsWithResponse(String deploymentOrModelName, BinaryData embeddingsOptions, RequestOptions requestOptions)

Zurückgeben der Einbettungen für eine bestimmte Eingabeaufforderung

Anforderungstextschema

{
     user: String (Optional)
     model: String (Optional)
     input (Required): [
         String (Required)
     ]
 }

Antworttextschema

{
     data (Required): [
          (Required){
             embedding (Required): [
                 double (Required)
             ]
             index: int (Required)
         }
     ]
     usage (Required): {
         prompt_tokens: int (Required)
         total_tokens: int (Required)
     }
 }

Parameters:

deploymentOrModelName - Gibt entweder den Modellbereitstellungsnamen (bei Verwendung von Azure OpenAI) oder den Modellnamen (bei Verwendung von Nicht-Azure OpenAI) an, der für diese Anforderung verwendet werden soll.
embeddingsOptions - Die Konfigurationsinformationen für eine Einbettungsanforderung. Einbettungen messen die Verwandtschaft von Textzeichenfolgen und werden häufig für Suche, Clustering, Empfehlungen und andere ähnliche Szenarien verwendet.
requestOptions - Die Optionen zum Konfigurieren der HTTP-Anforderung, bevor der HTTP-Client sie sendet.

Returns:

Darstellung der Antwortdaten aus einer Einbettungsanforderung. Einbettungen messen die Verwandtschaft von Textzeichenfolgen und werden häufig für Suche, Clustering, Empfehlungen und andere ähnliche Szenarien zusammen mit Response<T> bei erfolgreichem Abschluss von Monoverwendet.

getImages

public Mono getImages(ImageGenerationOptions imageGenerationOptions)

Startet die Generierung eines Batches von Bildern aus einem Text Untertitel.

Parameters:

imageGenerationOptions - Stellt die Anforderungsdaten dar, die zum Generieren von Bildern verwendet werden.

Returns:

mit Mono dem Ergebnis der Imagegenerierung

Gilt für: