Partager via


ConversationTranscriber Classe

Objet qui effectue des opérations de transcription de conversation. Si vous devez spécifier des informations sur la langue source, spécifiez uniquement l’un de ces trois paramètres, language, source_language_config ou auto_detect_source_language_config.

Héritage
ConversationTranscriber

Constructeur

ConversationTranscriber(speech_config: SpeechConfig, audio_config: AudioConfig = None, language: str = None, source_language_config: SourceLanguageConfig = None, auto_detect_source_language_config: AutoDetectSourceLanguageConfig = None)

Paramètres

Nom Description
speech_config
Obligatoire

Configuration du transcriber de conversation

audio_config

Configuration de l’entrée audio

valeur par défaut: None
language

Langue source

valeur par défaut: None
source_language_config

Configuration de la langue source

valeur par défaut: None
auto_detect_source_language_config

Configuration de la langue source de détection automatique

valeur par défaut: None

Méthodes

recognize_once

Effectue la reconnaissance en mode bloquant (synchrone). Retourne après la reconnaissance d’un énoncé unique. La fin d’un énoncé unique est déterminée par la détection du silence à la fin, ou après que 15 secondes d’audio ont été traitées. La tâche retourne le texte de reconnaissance comme résultat. Pour une reconnaissance à plusieurs énoncés de longue durée, utilisez start_continuous_recognition_async à la place.

recognize_once_async

Effectue la reconnaissance en mode non bloquant (asynchrone). Cela permet de reconnaître un énoncé unique. La fin d’un énoncé unique est déterminée par la détection du silence à la fin, ou après que 15 secondes d’audio ont été traitées. Pour une reconnaissance à plusieurs énoncés de longue durée, utilisez start_continuous_recognition_async à la place.

start_continuous_recognition

Lance de manière synchrone une opération de reconnaissance continue. L’utilisateur doit se connecter à EventSignal pour recevoir les résultats de la reconnaissance. Appelez stop_continuous_recognition_async pour arrêter la reconnaissance.

start_continuous_recognition_async

Lance de manière asynchrone l’opération de reconnaissance continue. L’utilisateur doit se connecter à EventSignal pour recevoir les résultats de la reconnaissance. Appelez stop_continuous_recognition_async pour arrêter la reconnaissance.

start_keyword_recognition

Configure de manière synchrone le module de reconnaissance avec le modèle mot clé donné. Après avoir appelé cette méthode, le module de reconnaissance écoute le mot clé pour démarrer la reconnaissance. Appelez stop_keyword_recognition() pour mettre fin à la reconnaissance initiée par le mot clé.

start_keyword_recognition_async

Configure de manière asynchrone le module de reconnaissance avec le modèle mot clé donné. Après avoir appelé cette méthode, le module de reconnaissance écoute le mot clé pour démarrer la reconnaissance. Appelez stop_keyword_recognition_async() pour mettre fin à la reconnaissance initiée par l’mot clé.

start_transcribing_async

Démarre de manière asynchrone la transcription de conversation.

stop_continuous_recognition

Arrête de façon synchrone l’opération de reconnaissance continue en cours.

stop_continuous_recognition_async

Arrête de façon asynchrone l’opération de reconnaissance continue en cours.

stop_keyword_recognition

Met fin de façon synchrone à la reconnaissance initiée par le mot clé.

stop_keyword_recognition_async

Met fin de manière asynchrone à la reconnaissance lancée par le mot clé.

stop_transcribing_async

Arrête de façon asynchrone la transcription de conversation.

recognize_once

Effectue la reconnaissance en mode bloquant (synchrone). Retourne après la reconnaissance d’un énoncé unique. La fin d’un énoncé unique est déterminée par la détection du silence à la fin, ou après que 15 secondes d’audio ont été traitées. La tâche retourne le texte de reconnaissance comme résultat. Pour une reconnaissance à plusieurs énoncés de longue durée, utilisez start_continuous_recognition_async à la place.

recognize_once() -> SpeechRecognitionResult

Retours

Type Description

Valeur de résultat de la reconnaissance synchrone.

recognize_once_async

Effectue la reconnaissance en mode non bloquant (asynchrone). Cela permet de reconnaître un énoncé unique. La fin d’un énoncé unique est déterminée par la détection du silence à la fin, ou après que 15 secondes d’audio ont été traitées. Pour une reconnaissance à plusieurs énoncés de longue durée, utilisez start_continuous_recognition_async à la place.

recognize_once_async() -> ResultFuture

Retours

Type Description

Un futur contenant la valeur de résultat de la reconnaissance asynchrone.

start_continuous_recognition

Lance de manière synchrone une opération de reconnaissance continue. L’utilisateur doit se connecter à EventSignal pour recevoir les résultats de la reconnaissance. Appelez stop_continuous_recognition_async pour arrêter la reconnaissance.

start_continuous_recognition()

start_continuous_recognition_async

Lance de manière asynchrone l’opération de reconnaissance continue. L’utilisateur doit se connecter à EventSignal pour recevoir les résultats de la reconnaissance. Appelez stop_continuous_recognition_async pour arrêter la reconnaissance.

start_continuous_recognition_async()

Retours

Type Description

Un avenir qui se réalise une fois la reconnaissance initialisée.

start_keyword_recognition

Configure de manière synchrone le module de reconnaissance avec le modèle mot clé donné. Après avoir appelé cette méthode, le module de reconnaissance écoute le mot clé pour démarrer la reconnaissance. Appelez stop_keyword_recognition() pour mettre fin à la reconnaissance initiée par le mot clé.

start_keyword_recognition(model: KeywordRecognitionModel)

Paramètres

Nom Description
model
Obligatoire

le modèle de reconnaissance mot clé qui spécifie le mot clé à reconnaître.

start_keyword_recognition_async

Configure de manière asynchrone le module de reconnaissance avec le modèle mot clé donné. Après avoir appelé cette méthode, le module de reconnaissance écoute le mot clé pour démarrer la reconnaissance. Appelez stop_keyword_recognition_async() pour mettre fin à la reconnaissance initiée par l’mot clé.

start_keyword_recognition_async(model: KeywordRecognitionModel)

Paramètres

Nom Description
model
Obligatoire

le modèle de reconnaissance mot clé qui spécifie le mot clé à reconnaître.

Retours

Type Description

Un avenir qui se réalise une fois la reconnaissance initialisée.

start_transcribing_async

Démarre de manière asynchrone la transcription de conversation.

start_transcribing_async() -> ResultFuture

Retours

Type Description

Un avenir qui est réalisé une fois la transcription de conversation démarrée.

stop_continuous_recognition

Arrête de façon synchrone l’opération de reconnaissance continue en cours.

stop_continuous_recognition()

stop_continuous_recognition_async

Arrête de façon asynchrone l’opération de reconnaissance continue en cours.

stop_continuous_recognition_async()

Retours

Type Description

Un avenir qui se réalise une fois la reconnaissance arrêtée.

stop_keyword_recognition

Met fin de façon synchrone à la reconnaissance initiée par le mot clé.

stop_keyword_recognition()

stop_keyword_recognition_async

Met fin de manière asynchrone à la reconnaissance lancée par le mot clé.

stop_keyword_recognition_async()

Retours

Type Description

Un avenir qui se réalise une fois la reconnaissance arrêtée.

stop_transcribing_async

Arrête de façon asynchrone la transcription de conversation.

stop_transcribing_async() -> ResultFuture

Retours

Type Description

Un avenir qui est réalisé une fois la transcription de conversation arrêtée.

Attributs

authorization_token

Jeton d’autorisation qui sera utilisé pour la connexion au service.

Notes

L’appelant doit s’assurer que le jeton d’autorisation est valide. Avant le

le jeton d’autorisation expire, l’appelant doit l’actualiser en appelant ce setter avec un

nouveau jeton valide. Comme les valeurs de configuration sont copiées lors de la création d’un nouveau module de reconnaissance, le

la nouvelle valeur de jeton ne s’applique pas aux générateurs de reconnaissance qui ont déjà été créés. For

reconnaissants qui ont été créés auparavant, vous devez définir le jeton d’autorisation du

l’outil de reconnaissance correspondant pour actualiser le jeton. Dans le cas contraire, les modules de reconnaissance rencontreront

erreurs pendant la transcription.

canceled

Signal pour les événements contenant des résultats de transcription annulés (indiquant une tentative de transcription qui a été annulée en tant que résultat ou une demande d’annulation directe ou, sinon, une défaillance de transport ou de protocole).

Les rappels connectés à ce signal sont appelés avec un ConversationTranscriptionCanceledEventArgs, instance comme argument unique.

endpoint_id

ID de point de terminaison d’un modèle vocal personnalisé utilisé pour la reconnaissance ou modèle vocal personnalisé pour la synthèse vocale.

properties

Collection de propriétés et leurs valeurs définies pour ce Participant.

recognized

Signal pour les événements contenant les résultats finaux de la reconnaissance (indiquant une tentative de reconnaissance réussie).

Les rappels connectés à ce signal sont appelés avec un SpeechRecognitionEventArgs, TranslationRecognitionEventArgs ou IntentRecognitionEventArgs instance comme argument unique, dépendant du type de module de reconnaissance.

recognizing

Signal pour les événements contenant des résultats de reconnaissance intermédiaires.

Les rappels connectés à ce signal sont appelés avec un SpeechRecognitionEventArgs, TranslationRecognitionEventArgs ou IntentRecognitionEventArgs instance comme argument unique, dépendant du type de module de reconnaissance.

session_started

Signal pour les événements indiquant le début d’une session de reconnaissance (opération).

Les rappels connectés à ce signal sont appelés avec un SessionEventArgs instance comme argument unique.

session_stopped

Signal pour les événements indiquant la fin d’une session de reconnaissance (opération).

Les rappels connectés à ce signal sont appelés avec un SessionEventArgs instance comme argument unique.

speech_end_detected

Signal pour les événements indiquant la fin de la parole.

Les rappels connectés à ce signal sont appelés avec un RecognitionEventArgs instance comme argument unique.

speech_start_detected

Signal pour les événements indiquant le début de la parole.

Les rappels connectés à ce signal sont appelés avec un RecognitionEventArgs instance comme argument unique.

transcribed

Signal pour les événements contenant les résultats de la transcription finale (indiquant une tentative de transcription réussie).

Les rappels connectés à ce signal sont appelés avec un ConversationTranscriptionEventArgs, instance comme argument unique.

transcribing

Signal pour les événements contenant des résultats de transcription intermédiaires.

Les rappels connectés à ce signal sont appelés avec un ConversationTranscriptionEventArgs, instance comme argument unique.