ConversationTranscriber Classe
Objet qui effectue des opérations de transcription de conversation. Si vous devez spécifier des informations sur la langue source, spécifiez uniquement l’un de ces trois paramètres, language, source_language_config ou auto_detect_source_language_config.
- Héritage
-
ConversationTranscriber
Constructeur
ConversationTranscriber(speech_config: SpeechConfig, audio_config: AudioConfig = None, language: str = None, source_language_config: SourceLanguageConfig = None, auto_detect_source_language_config: AutoDetectSourceLanguageConfig = None)
Paramètres
Nom | Description |
---|---|
speech_config
Obligatoire
|
Configuration du transcriber de conversation |
audio_config
|
Configuration de l’entrée audio valeur par défaut: None
|
language
|
Langue source valeur par défaut: None
|
source_language_config
|
Configuration de la langue source valeur par défaut: None
|
auto_detect_source_language_config
|
Configuration de la langue source de détection automatique valeur par défaut: None
|
Méthodes
recognize_once |
Effectue la reconnaissance en mode bloquant (synchrone). Retourne après la reconnaissance d’un énoncé unique. La fin d’un énoncé unique est déterminée par la détection du silence à la fin, ou après que 15 secondes d’audio ont été traitées. La tâche retourne le texte de reconnaissance comme résultat. Pour une reconnaissance à plusieurs énoncés de longue durée, utilisez start_continuous_recognition_async à la place. |
recognize_once_async |
Effectue la reconnaissance en mode non bloquant (asynchrone). Cela permet de reconnaître un énoncé unique. La fin d’un énoncé unique est déterminée par la détection du silence à la fin, ou après que 15 secondes d’audio ont été traitées. Pour une reconnaissance à plusieurs énoncés de longue durée, utilisez start_continuous_recognition_async à la place. |
start_continuous_recognition |
Lance de manière synchrone une opération de reconnaissance continue. L’utilisateur doit se connecter à EventSignal pour recevoir les résultats de la reconnaissance. Appelez stop_continuous_recognition_async pour arrêter la reconnaissance. |
start_continuous_recognition_async |
Lance de manière asynchrone l’opération de reconnaissance continue. L’utilisateur doit se connecter à EventSignal pour recevoir les résultats de la reconnaissance. Appelez stop_continuous_recognition_async pour arrêter la reconnaissance. |
start_keyword_recognition |
Configure de manière synchrone le module de reconnaissance avec le modèle mot clé donné. Après avoir appelé cette méthode, le module de reconnaissance écoute le mot clé pour démarrer la reconnaissance. Appelez stop_keyword_recognition() pour mettre fin à la reconnaissance initiée par le mot clé. |
start_keyword_recognition_async |
Configure de manière asynchrone le module de reconnaissance avec le modèle mot clé donné. Après avoir appelé cette méthode, le module de reconnaissance écoute le mot clé pour démarrer la reconnaissance. Appelez stop_keyword_recognition_async() pour mettre fin à la reconnaissance initiée par l’mot clé. |
start_transcribing_async |
Démarre de manière asynchrone la transcription de conversation. |
stop_continuous_recognition |
Arrête de façon synchrone l’opération de reconnaissance continue en cours. |
stop_continuous_recognition_async |
Arrête de façon asynchrone l’opération de reconnaissance continue en cours. |
stop_keyword_recognition |
Met fin de façon synchrone à la reconnaissance initiée par le mot clé. |
stop_keyword_recognition_async |
Met fin de manière asynchrone à la reconnaissance lancée par le mot clé. |
stop_transcribing_async |
Arrête de façon asynchrone la transcription de conversation. |
recognize_once
Effectue la reconnaissance en mode bloquant (synchrone). Retourne après la reconnaissance d’un énoncé unique. La fin d’un énoncé unique est déterminée par la détection du silence à la fin, ou après que 15 secondes d’audio ont été traitées. La tâche retourne le texte de reconnaissance comme résultat. Pour une reconnaissance à plusieurs énoncés de longue durée, utilisez start_continuous_recognition_async à la place.
recognize_once() -> SpeechRecognitionResult
Retours
Type | Description |
---|---|
Valeur de résultat de la reconnaissance synchrone. |
recognize_once_async
Effectue la reconnaissance en mode non bloquant (asynchrone). Cela permet de reconnaître un énoncé unique. La fin d’un énoncé unique est déterminée par la détection du silence à la fin, ou après que 15 secondes d’audio ont été traitées. Pour une reconnaissance à plusieurs énoncés de longue durée, utilisez start_continuous_recognition_async à la place.
recognize_once_async() -> ResultFuture
Retours
Type | Description |
---|---|
Un futur contenant la valeur de résultat de la reconnaissance asynchrone. |
start_continuous_recognition
Lance de manière synchrone une opération de reconnaissance continue. L’utilisateur doit se connecter à EventSignal pour recevoir les résultats de la reconnaissance. Appelez stop_continuous_recognition_async pour arrêter la reconnaissance.
start_continuous_recognition()
start_continuous_recognition_async
Lance de manière asynchrone l’opération de reconnaissance continue. L’utilisateur doit se connecter à EventSignal pour recevoir les résultats de la reconnaissance. Appelez stop_continuous_recognition_async pour arrêter la reconnaissance.
start_continuous_recognition_async()
Retours
Type | Description |
---|---|
Un avenir qui se réalise une fois la reconnaissance initialisée. |
start_keyword_recognition
Configure de manière synchrone le module de reconnaissance avec le modèle mot clé donné. Après avoir appelé cette méthode, le module de reconnaissance écoute le mot clé pour démarrer la reconnaissance. Appelez stop_keyword_recognition() pour mettre fin à la reconnaissance initiée par le mot clé.
start_keyword_recognition(model: KeywordRecognitionModel)
Paramètres
Nom | Description |
---|---|
model
Obligatoire
|
le modèle de reconnaissance mot clé qui spécifie le mot clé à reconnaître. |
start_keyword_recognition_async
Configure de manière asynchrone le module de reconnaissance avec le modèle mot clé donné. Après avoir appelé cette méthode, le module de reconnaissance écoute le mot clé pour démarrer la reconnaissance. Appelez stop_keyword_recognition_async() pour mettre fin à la reconnaissance initiée par l’mot clé.
start_keyword_recognition_async(model: KeywordRecognitionModel)
Paramètres
Nom | Description |
---|---|
model
Obligatoire
|
le modèle de reconnaissance mot clé qui spécifie le mot clé à reconnaître. |
Retours
Type | Description |
---|---|
Un avenir qui se réalise une fois la reconnaissance initialisée. |
start_transcribing_async
Démarre de manière asynchrone la transcription de conversation.
start_transcribing_async() -> ResultFuture
Retours
Type | Description |
---|---|
Un avenir qui est réalisé une fois la transcription de conversation démarrée. |
stop_continuous_recognition
Arrête de façon synchrone l’opération de reconnaissance continue en cours.
stop_continuous_recognition()
stop_continuous_recognition_async
Arrête de façon asynchrone l’opération de reconnaissance continue en cours.
stop_continuous_recognition_async()
Retours
Type | Description |
---|---|
Un avenir qui se réalise une fois la reconnaissance arrêtée. |
stop_keyword_recognition
Met fin de façon synchrone à la reconnaissance initiée par le mot clé.
stop_keyword_recognition()
stop_keyword_recognition_async
Met fin de manière asynchrone à la reconnaissance lancée par le mot clé.
stop_keyword_recognition_async()
Retours
Type | Description |
---|---|
Un avenir qui se réalise une fois la reconnaissance arrêtée. |
stop_transcribing_async
Arrête de façon asynchrone la transcription de conversation.
stop_transcribing_async() -> ResultFuture
Retours
Type | Description |
---|---|
Un avenir qui est réalisé une fois la transcription de conversation arrêtée. |
Attributs
authorization_token
Jeton d’autorisation qui sera utilisé pour la connexion au service.
Notes
L’appelant doit s’assurer que le jeton d’autorisation est valide. Avant le
le jeton d’autorisation expire, l’appelant doit l’actualiser en appelant ce setter avec un
nouveau jeton valide. Comme les valeurs de configuration sont copiées lors de la création d’un nouveau module de reconnaissance, le
la nouvelle valeur de jeton ne s’applique pas aux générateurs de reconnaissance qui ont déjà été créés. For
reconnaissants qui ont été créés auparavant, vous devez définir le jeton d’autorisation du
l’outil de reconnaissance correspondant pour actualiser le jeton. Dans le cas contraire, les modules de reconnaissance rencontreront
erreurs pendant la transcription.
canceled
Signal pour les événements contenant des résultats de transcription annulés (indiquant une tentative de transcription qui a été annulée en tant que résultat ou une demande d’annulation directe ou, sinon, une défaillance de transport ou de protocole).
Les rappels connectés à ce signal sont appelés avec un ConversationTranscriptionCanceledEventArgs, instance comme argument unique.
endpoint_id
ID de point de terminaison d’un modèle vocal personnalisé utilisé pour la reconnaissance ou modèle vocal personnalisé pour la synthèse vocale.
properties
Collection de propriétés et leurs valeurs définies pour ce Participant.
recognized
Signal pour les événements contenant les résultats finaux de la reconnaissance (indiquant une tentative de reconnaissance réussie).
Les rappels connectés à ce signal sont appelés avec un SpeechRecognitionEventArgs, TranslationRecognitionEventArgs ou IntentRecognitionEventArgs instance comme argument unique, dépendant du type de module de reconnaissance.
recognizing
Signal pour les événements contenant des résultats de reconnaissance intermédiaires.
Les rappels connectés à ce signal sont appelés avec un SpeechRecognitionEventArgs, TranslationRecognitionEventArgs ou IntentRecognitionEventArgs instance comme argument unique, dépendant du type de module de reconnaissance.
session_started
Signal pour les événements indiquant le début d’une session de reconnaissance (opération).
Les rappels connectés à ce signal sont appelés avec un SessionEventArgs instance comme argument unique.
session_stopped
Signal pour les événements indiquant la fin d’une session de reconnaissance (opération).
Les rappels connectés à ce signal sont appelés avec un SessionEventArgs instance comme argument unique.
speech_end_detected
Signal pour les événements indiquant la fin de la parole.
Les rappels connectés à ce signal sont appelés avec un RecognitionEventArgs instance comme argument unique.
speech_start_detected
Signal pour les événements indiquant le début de la parole.
Les rappels connectés à ce signal sont appelés avec un RecognitionEventArgs instance comme argument unique.
transcribed
Signal pour les événements contenant les résultats de la transcription finale (indiquant une tentative de transcription réussie).
Les rappels connectés à ce signal sont appelés avec un ConversationTranscriptionEventArgs, instance comme argument unique.
transcribing
Signal pour les événements contenant des résultats de transcription intermédiaires.
Les rappels connectés à ce signal sont appelés avec un ConversationTranscriptionEventArgs, instance comme argument unique.
Azure SDK for Python