Vue d’ensemble du Centre d’appels

Azure AI Language et Azure AI Speech peuvent vous aider à réaliser une automatisation partielle ou complète des interactions client basées sur la téléphonie, ainsi qu’à fournir une accessibilité multicanal. Avec les services Language et Speech, vous pouvez analyser plus en détail les transcriptions du centre d’appels, extraire et rédiger les informations d’identification personnelle d’une conversation, résumer la transcription et détecter le sentiment.

Voici quelques exemples de scénarios pour l’implémentation d’Azure AI services dans les centres d’appels et de contacts :

  • Agents virtuels : bots vocaux intégrés à la téléphonie et basés sur l’IA conversationnelle et chatbots prenant en charge la voix
  • Assistance à l’agent : transcription et analyse en temps réel d’un appel pour améliorer l’expérience client en fournissant des insights et en suggérant des actions aux agents
  • Analyse post-appel : analyse post-appel permettant de créer des insights sur les conversations client afin d’améliorer la compréhension et de prendre en charge l’amélioration continue de la gestion des appels, l’optimisation du contrôle de la qualité et de la conformité, ainsi que d’autres optimisations basées sur les insights.

Conseil

Essayez Language Studio ou Speech Studio pour une démonstration de l’utilisation des services Language et Speech visant à analyser les conversations de centre d’appels.

Pour déployer une solution de transcription de centre d’appels dans Azure avec une approche sans code, essayez le client d’ingestion.

Fonctionnalités Azure AI services pour les centres d’appels

Une implémentation holistique du centre d’appels incorpore généralement des technologies provenant des services Language et Speech.

Les données audio qui sont généralement utilisées dans les centres d’appels et générées via des lignes fixes, des téléphones mobiles et des radios passent souvent par une bande étroite (fréquence de 8 KHz), ce qui peut vous causer des difficultés lorsque vous convertissez la parole en texte. Les modèles de reconnaissance du service Speech sont entraînés pour vous garantir des transcriptions de haute qualité, quelle que soit la manière dont vous capturez l’audio.

Après avoir transcrit votre audio avec le service Speech, vous pouvez utiliser le service Language pour exécuter des requêtes d’analytique sur les données du centre d’appels dans le but d’obtenir une analyse des sentiments, un résumé de la raison de l’appel client, la façon dont le problème a été résolu, l’extraction et la rédaction des informations d’identification personnelle de la conversation, etc.

Service Speech

Le service Speech offre les fonctionnalités suivantes, que vous pouvez utiliser pour les cas d’usage du centre d’appels :

  • Reconnaissance vocale en temps réel  : reconnaître et transcrire l’audio en temps réel à partir de plusieurs entrées. Par exemple, avec les agents virtuels ou l’assistance à l’agent, vous pouvez reconnaître en continu les entrées audio et contrôler la façon de traiter les résultats en fonction de plusieurs événements.
  • Reconnaissance vocale par lot : permet de transcrire de grandes quantités de fichiers audio de manière asynchrone, y compris la diarisation de l’orateur, et est généralement utilisée dans les scénarios d’analytique post-appel. La diarisation est le processus de reconnaissance et de séparation des orateurs dans les données audio monocanal.
  • Synthèse vocale : la synthèse vocale permet à vos applications, outils ou appareils de convertir du texte en message humain synthétisé.
  • Identification de l’orateur : vous aide à déterminer l’identité d’un orateur inconnu au sein d’un groupe d’orateurs inscrits et est généralement utilisée pour les scénarios de vérification client via un centre d’appels ou la détection des fraudes.
  • Identification de la langue : identifie les langues parlées de l’audio? Peut être utilisée en temps réel et en analyse post-appel pour obtenir des insights ou pour contrôler l’environnement (par exemple, la langue de sortie d’un agent virtuel).

Le service Speech fonctionne bien avec des modèles prédéfinis. Toutefois, vous pouvez avoir envie de personnaliser et d’adapter l’expérience selon votre produit ou environnement. Voici quelques exemples typiques de personnalisation de Speech :

Personnalisation de Speech Description
Custom speech Fonctionnalité de reconnaissance vocale qui vous permet d’évaluer et d’améliorer l’exactitude de la reconnaissance vocale d’entités propres au cas d’usage (par exemple, les ID client alphanumériques, les ID d’incident et les ID de contrat, les plaques d’immatriculation et les noms). Vous pouvez également entraîner un modèle personnalisé avec vos propres noms de produits et la terminologie de votre secteur.
Voix neuronale personnalisée Fonctionnalité de synthèse vocale qui vous permet de créer une voix de synthèse personnalisée unique pour vos applications.

Service Language

Le service Language offre les fonctionnalités suivantes, que vous pouvez utiliser pour les cas d’usage du centre d’appels :

Même si le service Language fonctionne bien avec les modèles prédéfinis, vous pouvez personnaliser et paramétrer davantage les modèles afin d’extraire davantage d’informations de vos données. Voici quelques exemples typiques de personnalisation Language :

Personnalisation de la langue Description
Reconnaissance d’entité nommée personnalisée (NER) Améliore la détection et l’extraction d’entités dans les transcriptions.
Classification de texte personnalisée Classifie et étiquette les énoncés transcrits avec des classifications uniques ou multiples.

Vous trouverez ici une vue d’ensemble de toutes les fonctionnalités et options de personnalisation du service Language .

Étapes suivantes