Installare ed eseguire contenitori Docker per le API del servizio Voce

Usando i contenitori, è possibile eseguire alcune delle API del servizio Riconoscimento vocale di Servizi cognitivi di Azure nel proprio ambiente. I contenitori sono ottimi per requisiti specifici di sicurezza e governance dei dati. In questo articolo si apprenderà come scaricare, installare ed eseguire un contenitore Voce.

Con i contenitori voce è possibile creare un'architettura dell'applicazione vocale ottimizzata sia per funzionalità cloud affidabili che per la localizzazione perimetrale. Sono disponibili diversi contenitori, che usano gli stessi prezzi dei servizi Di riconoscimento vocale basati sul cloud.

Contenitori voce disponibili

Importante

Abbiamo ritirato le voci di sintesi vocale standard e il contenitore di sintesi vocale da testo al 31 agosto 2021. È consigliabile eseguire la migrazione delle applicazioni per usare invece il contenitore neurale da testo a riconoscimento vocale. Per altre informazioni sull'aggiornamento dell'applicazione, vedere Eseguire la migrazione dalla voce standard alla voce neurale predefinita.

Contenitore Funzionalità Versioni e impostazioni locali supportate
Riconoscimento vocale Analizza il sentiment e trascrive la voce in tempo reale continuo o le registrazioni audio batch con risultati intermedi. Ultima: 3.12.0

Per tutte le versioni e le impostazioni locali supportate, vedere i tag Microsoft Container Registry (MCR) e JSON.
Riconoscimento vocale personalizzato Usando un modello personalizzato dal portale di riconoscimento vocale personalizzato, trascrive la voce in tempo reale continuo o le registrazioni audio batch nel testo con risultati intermedi. Ultima: 3.12.0

Per tutte le versioni e le impostazioni locali supportate, vedere i tag Microsoft Container Registry (MCR) e JSON.
Identificazione del linguaggio vocale Rileva la lingua parlata nei file audio. Ultima: 1.11.01

Per tutte le versioni e le impostazioni locali supportate, vedere i tag Microsoft Container Registry (MCR) e JSON.
Sintesi vocale neurale Converte il testo in sintesi vocale naturale usando la tecnologia di rete neurale profonda, che consente la sintesi vocale più naturale. Ultima: 2.11.0

Per tutte le versioni e le impostazioni locali supportate, vedere i tag Microsoft Container Registry (MCR) e JSON.

1 Il contenitore è disponibile in anteprima pubblica. I contenitori in anteprima sono ancora in fase di sviluppo e non soddisfano i requisiti di stabilità e supporto microsoft.

Prerequisiti

Importante

Per usare i contenitori Voce, è necessario inviare una richiesta online e averla approvata. Per altre informazioni, vedere la sezione "Richiedere l'approvazione per eseguire il contenitore".

Prima di usare i contenitori del servizio Voce, è necessario soddisfare i prerequisiti seguenti. Se non si ha una sottoscrizione di Azure, creare un account gratuito prima di iniziare. È necessario:

  • Docker installato in un computer host. Docker deve essere configurato per consentire ai contenitori di connettersi ai dati di fatturazione e inviarli ad Azure.
    • In Windows, è anche necessario configurare Docker per supportare i contenitori Linux.
    • È consigliabile avere una conoscenza di base dei concetti di Docker.
  • Una con il piano tariffario gratuito (F0) o standard (S).

Raccogliere i parametri necessari

Sono necessari tre parametri primari per tutti i contenitori di Servizi cognitivi. Le condizioni di licenza software Microsoft devono essere presenti con un valore di accettazione. Sono necessari anche un URI dell'endpoint e una chiave API.

URI endpoint

Il {ENDPOINT_URI} valore è disponibile nella pagina Panoramica portale di Azure della risorsa Servizi cognitivi corrispondente. Passare alla pagina Panoramica , passare il puntatore del mouse sull'endpoint e viene visualizzata un'icona Copia negli Appunti . Copiare e usare l'endpoint in caso di necessità.

Screenshot che mostra la raccolta dell'URI dell'endpoint per un uso successivo.

Chiavi

Il {API_KEY} valore viene usato per avviare il contenitore ed è disponibile nella pagina Chiavi di portale di Azure della risorsa Servizi cognitivi corrispondente. Passare alla pagina Chiavi e selezionare l'icona Copia negli Appunti .

Screenshot che mostra il recupero di una delle due chiavi per un uso successivo.

Importante

Queste chiavi di sottoscrizione vengono usate per accedere all'API Servizi cognitivi. Non condividere le chiavi. Archiviarli in modo sicuro. Ad esempio, usare Azure Key Vault. È anche consigliabile rigenerare regolarmente queste chiavi. Per effettuare una chiamata API è necessaria una sola chiave. Quando si rigenera la prima chiave, è possibile usare la seconda chiave per l'accesso continuo al servizio.

Requisiti e raccomandazioni del computer host

L'host è un computer basato su x64 che esegue il contenitore Docker. Può essere un computer dell'ambiente locale o un servizio di hosting Docker in Azure, tra cui:

Indicazioni e requisiti per i contenitori

La tabella seguente descrive l'allocazione minima e consigliata delle risorse per ogni contenitore Voce:

Contenitore Minima Consigliato Modello di riconoscimento vocale
Riconoscimento vocale 4 core, memoria da 4 GB 8 core, memoria da 8 GB +4 a 8 GB di memoria
Riconoscimento vocale personalizzato 4 core, memoria da 4 GB 8 core, memoria da 8 GB +4 a 8 GB di memoria
Identificazione del linguaggio vocale 1 core, memoria da 1 GB 1 core, memoria da 1 GB n/d
Sintesi vocale neurale 6 core, memoria da 12 GB 8 core, memoria da 16 GB n/d

Ogni core deve essere di almeno 2,6 gigahertz (GHz) o superiore.

Core e memoria corrispondono alle impostazioni --cpus e --memory che vengono usate come parte del comando docker run.

Nota

Le allocazioni minime e consigliate sono basate sui limiti docker, non sulle risorse del computer host. Ad esempio, le parti del mapping della memoria dei contenitori voce a testo di un modello linguistico di grandi dimensioni. È consigliabile che l'intero file sia in memoria. È necessario aggiungere un ulteriore 4 a 8 GB per caricare le modalità di riconoscimento vocale (vedere la tabella precedente). Inoltre, la prima esecuzione di entrambi i contenitori potrebbe richiedere più tempo perché i modelli vengono impaginati nella memoria.

Supporto dell'estensione vettoriale avanzata

L'host è il computer che esegue il contenitore Docker. L'host deve supportareestensioni vettoriali avanzate (AVX2). È possibile verificare il supporto di AVX2 negli host Linux con il comando seguente:

grep -q avx2 /proc/cpuinfo && echo AVX2 supported || echo No AVX2 support detected

Avviso

Il computer host è necessario per supportare AVX2. Il contenitore non funzionerà correttamente senza il supporto di AVX2.

Richiedere l'approvazione per eseguire il contenitore

Compilare e inviare il modulo di richiesta per richiedere l'accesso al contenitore.

Il modulo richiede informazioni sull'utente, sull'azienda e sullo scenario utente per cui si userà il contenitore. Dopo aver inviato il modulo, il team di Servizi cognitivi di Azure lo esamina e invia un messaggio di posta elettronica con una decisione entro 10 giorni lavorativi.

Importante

  • Nel modulo è necessario usare un indirizzo di posta elettronica associato a un ID sottoscrizione di Azure.
  • La risorsa di Azure usata per eseguire il contenitore deve essere stata creata con l'ID sottoscrizione di Azure approvato.
  • Controllare il messaggio di posta elettronica (sia nella posta in arrivo che nelle cartelle indesiderate) per gli aggiornamenti sullo stato dell'applicazione da Microsoft.

Dopo l'approvazione, sarà possibile eseguire il contenitore dopo averla scaricata dal Registro Contenitori Microsoft , descritta più avanti nell'articolo.

Non sarà possibile eseguire il contenitore se la sottoscrizione di Azure non è stata approvata.

Immagini del contenitore voce

L'immagine contenitore voce a testo è disponibile nel syndicate del mcr.microsoft.com registro contenitori. Risiede all'interno del azure-cognitive-services/speechservices/ repository ed è denominato speech-to-text. Il nome completo dell'immagine del contenitore è , mcr.microsoft.com/azure-cognitive-services/speechservices/speech-to-text. È possibile trovare un elenco completo di tag in MCR.

Contenitore Archivio
Riconoscimento vocale mcr.microsoft.com/azure-cognitive-services/speechservices/speech-to-text:latest

Suggerimento

È possibile usare il comando docker images per visualizzare l'elenco delle immagini dei contenitori scaricate. Ad esempio, il comando seguente visualizza l'ID, il repository e il tag di ogni immagine del contenitore scaricata, in formato tabella:

docker images --format "table {{.ID}}\t{{.Repository}}\t{{.Tag}}"

IMAGE ID         REPOSITORY                TAG
<image-id>       <repository-path/name>    <tag-name>

Ottenere l'immagine del contenitore con il pull docker

Pull Docker per il contenitore voce-a-testo

Usare il comando pull docker per scaricare un'immagine del contenitore da Registro Contenitori Microsoft:

docker pull mcr.microsoft.com/azure-cognitive-services/speechservices/speech-to-text:latest

Importante

Il latest tag esegue il pull delle en-US impostazioni locali. Per impostazioni locali aggiuntive, vedere Impostazioni locali voce-a-testo.

Impostazioni locali di riconoscimento vocale

Tutti i tag, ad eccezione di latest, sono nel formato seguente e sono distinzione tra maiuscole e minuscole:

<major>.<minor>.<patch>-<platform>-<locale>-<prerelease>

Il tag seguente è un esempio del formato:

2.6.0-amd64-en-us

Per tutte le impostazioni locali supportate del contenitore speech-to-text, vedere Tag di immagine voce-a-testo.

Usare il contenitore

Dopo aver aggiunto il contenitore nel computer host, seguire questa procedura per usarlo.

  1. Eseguire il contenitore con le impostazioni di fatturazione necessarie. Sono disponibili altri esempi del comando docker run.
  2. Eseguire una query sull'endpoint di stima del contenitore.

Eseguire il contenitore con docker run

Usare il comando docker run per eseguire il contenitore. Per altre informazioni su come ottenere i {Endpoint_URI} valori e {API_Key} , vedere Raccogliere i parametri obbligatori. Sono disponibili anche altri esempi del docker run comando.

Nota

Per i requisiti generali dei contenitori, vedere Requisiti e raccomandazioni per i contenitori.

Per eseguire il contenitore standard di riconoscimento vocale, eseguire il comando seguente docker run :

docker run --rm -it -p 5000:5000 --memory 8g --cpus 4 \
mcr.microsoft.com/azure-cognitive-services/speechservices/speech-to-text \
Eula=accept \
Billing={ENDPOINT_URI} \
ApiKey={API_KEY}

Questo comando:

  • Esegue un contenitore di riconoscimento vocale dall'immagine del contenitore.
  • Alloca 4 core CPU e 8 GB di memoria.
  • Espone la porta TCP 5000 e alloca un pseudo terminale TTY per il contenitore.
  • Rimuove automaticamente il contenitore dopo la chiusura. L'immagine del contenitore rimane disponibile nel computer host.

Nota

I contenitori supportano l'input audio compresso per Speech SDK usando GStreamer. Per installare GStreamer in un contenitore, seguire le istruzioni di Linux per GStreamer in Usare l'input audio compresso codec con Speech SDK.

Diarizzazione nell'output della sintesi vocale

La diarizzazione è abilitata per impostazione predefinita. Per ottenere la diarizzazione nella risposta, usare diarize_speech_config.set_service_property.

  1. Impostare il formato di output della frase su Detailed.

  2. Impostare la modalità di diarizzazione. Le modalità supportate sono Identity e Anonymous.

    diarize_speech_config.set_service_property(
        name='speechcontext-PhraseOutput.Format',
        value='Detailed',
        channel=speechsdk.ServicePropertyChannel.UriQueryParameter
    )
    
    diarize_speech_config.set_service_property(
        name='speechcontext-phraseDetection.speakerDiarization.mode',
        value='Identity',
        channel=speechsdk.ServicePropertyChannel.UriQueryParameter
    )
    

    Nota

    La modalità "Identity" restituisce "SpeakerId": "Customer" o "SpeakerId": "Agent". La modalità "Anonima" restituisce "SpeakerId": "Speaker 1" o "SpeakerId": "Speaker 2".

Analizzare il sentiment nell'output della sintesi vocale

A partire dalla versione 2.6.0 del contenitore di riconoscimento vocale, è consigliabile usare l'endpoint API del servizio lingua 3.0 anziché quello di anteprima. Ad esempio:

  • https://eastus.api.cognitive.microsoft.com/text/analytics/v3.0/sentiment
  • https://localhost:5000/text/analytics/v3.0/sentiment

Nota

L'API del servizio v3.0 di linguaggio non è compatibile con v3.0-preview.1. Per ottenere il supporto della funzionalità di valutazione più recente, usare v2.6.0 l'immagine del contenitore riconoscimento vocale e il servizio v3.0lingua .

A partire dalla versione 2.2.0 del contenitore riconoscimento vocale, è possibile chiamare l'API di analisi del sentiment v3 nell'output. Per chiamare l'analisi del sentiment, è necessario un endpoint della risorsa API del servizio lingua. Ad esempio:

  • https://eastus.api.cognitive.microsoft.com/text/analytics/v3.0-preview.1/sentiment
  • https://localhost:5000/text/analytics/v3.0-preview.1/sentiment

Se si accede a un endpoint del servizio di linguaggio nel cloud, è necessaria una chiave. Se si eseguono funzionalità del servizio di linguaggio in locale, potrebbe non essere necessario specificarlo.

La chiave e l'endpoint vengono passati al contenitore Voce come argomenti, come nell'esempio seguente:

docker run -it --rm -p 5000:5000 \
mcr.microsoft.com/azure-cognitive-services/speechservices/speech-to-text:latest \
Eula=accept \
Billing={ENDPOINT_URI} \
ApiKey={API_KEY} \
CloudAI:SentimentAnalysisSettings:TextAnalyticsHost={TEXT_ANALYTICS_HOST} \
CloudAI:SentimentAnalysisSettings:SentimentAnalysisApiKey={SENTIMENT_APIKEY}

Questo comando:

  • Esegue gli stessi passaggi del comando precedente.
  • Archivia un endpoint e una chiave dell'API del servizio di linguaggio per l'invio di richieste di analisi del sentiment.

Phraselist v2 nell'output del riconoscimento vocale

A partire dalla versione 2.6.0 del contenitore di sintesi vocale, è possibile ottenere l'output con frasi personalizzate, ovvero l'intera frase o le frasi al centro. Ad esempio, l'uomo alto nella frase seguente:

  • "Questa è una frase che l'uomo alto è un'altra frase."

Per configurare un elenco di frasi, è necessario aggiungere frasi personalizzate quando si effettua la chiamata. Ad esempio:

    phrase="the tall man"
    recognizer = speechsdk.SpeechRecognizer(
        speech_config=dict_speech_config,
        audio_config=audio_config)
    phrase_list_grammer = speechsdk.PhraseListGrammar.from_recognizer(recognizer)
    phrase_list_grammer.addPhrase(phrase)
    
    dict_speech_config.set_service_property(
        name='setflight',
        value='xonlineinterp',
        channel=speechsdk.ServicePropertyChannel.UriQueryParameter
    )

Se sono presenti più frasi da aggiungere, chiamare .addPhrase() per ogni frase per aggiungerla all'elenco di frasi.

Importante

Per eseguire il contenitore, è necessario specificare le Eulaopzioni , Billinge ApiKey . In caso contrario, il contenitore non verrà avviato. Per altre informazioni, vedereFatturazione.

Eseguire il contenitore in ambienti disconnessi

È necessario richiedere l'accesso per usare i contenitori disconnessi da Internet. Per altre informazioni, vedere Richiedere l'accesso all'uso dei contenitori negli ambienti disconnessi.

Per la configurazione del contenitore del servizio voce, vedere Contenitori disconnessi.

Eseguire una query sull'endpoint di stima del contenitore

Nota

Usare un numero di porta univoco se si eseguono più contenitori.

Contenitori SDK Host URL Protocollo
Riconoscimento vocale standard e sintesi vocale personalizzata ws://localhost:5000 WS
Riconoscimento vocale del testo neurale, identificazione del linguaggio vocale http://localhost:5000 HTTP

Per altre informazioni sull'uso di protocolli WSS e HTTPS, vedere Sicurezza dei contenitori.

Riconoscimento vocale (standard e personalizzato)

Il contenitore fornisce API dell'endpoint di query basate su Websocket a cui si accede tramite Speech SDK. Per impostazione predefinita, Speech SDK usa servizi voce online. Per usare il contenitore, è necessario modificare il metodo di inizializzazione.

Suggerimento

Quando si usa Speech SDK con contenitori, non è necessario specificare la chiave di sottoscrizione della risorsa Voce di Azure o un token di connessione di autenticazione.

Vedere gli esempi seguenti.

Passare dall'uso di questa chiamata di inizializzazione del cloud di Azure:

var config = SpeechConfig.FromSubscription("YourSubscriptionKey", "YourServiceRegion");

Per usare questa chiamata con l'host del contenitore:

var config = SpeechConfig.FromHost(
    new Uri("ws://localhost:5000"));

Analizzare la valutazione

Se sono state fornite le credenziali dell'API del servizio linguistico al contenitore, è possibile usare Speech SDK per inviare richieste di riconoscimento vocale con analisi del sentiment. È possibile configurare le risposte api per usare un formato semplice o dettagliato .

Nota

V1.13 di Speech Service Python SDK ha un problema identificato con l'analisi del sentiment. Usare v1.12.x o versioni precedenti se si usa l'analisi del sentiment in Speech Service Python SDK.

Per configurare il client Voce per usare un formato semplice, aggiungere "Sentiment" come valore per Simple.Extensions. Se si vuole scegliere una versione specifica del modello di servizio linguistico, sostituire 'latest' nella configurazione della speechcontext-phraseDetection.sentimentAnalysis.modelversion proprietà.

speech_config.set_service_property(
    name='speechcontext-PhraseOutput.Simple.Extensions',
    value='["Sentiment"]',
    channel=speechsdk.ServicePropertyChannel.UriQueryParameter
)
speech_config.set_service_property(
    name='speechcontext-phraseDetection.sentimentAnalysis.modelversion',
    value='latest',
    channel=speechsdk.ServicePropertyChannel.UriQueryParameter
)

Simple.Extensions restituisce il risultato del sentiment nel livello radice della risposta.

{
   "DisplayText":"What's the weather like?",
   "Duration":13000000,
   "Id":"6098574b79434bd4849fee7e0a50f22e",
   "Offset":4700000,
   "RecognitionStatus":"Success",
   "Sentiment":{
      "Negative":0.03,
      "Neutral":0.79,
      "Positive":0.18
   }
}

Se si vuole disabilitare completamente l'analisi del sentiment, aggiungere un false valore a sentimentanalysis.enabled.

speech_config.set_service_property(
    name='speechcontext-phraseDetection.sentimentanalysis.enabled',
    value='false',
    channel=speechsdk.ServicePropertyChannel.UriQueryParameter
)

Sintesi vocale neurale

Il contenitore fornisce API endpoint basate su REST. Sono disponibili molti progetti di codice sorgente di esempio per piattaforme, framework e varianti del linguaggio.

Con i contenitori text-to-Speech neurali, è necessario basarsi sulle impostazioni locali e sulla voce del tag di immagine scaricato. Ad esempio, se è stato scaricato il latest tag, le impostazioni locali predefinite sono en-US e la AriaNeural voce. L'argomento {VOICE_NAME} sarebbe en-US-AriaNeuralquindi . Vedere l'esempio seguente di SSML:

<speak version="1.0" xml:lang="en-US">
    <voice name="en-US-AriaNeural">
        This text will get converted into synthesized speech.
    </voice>
</speak>

Eseguire più contenitori nello stesso host

Se si intende eseguire più contenitori con porte esposte, assicurarsi di eseguire ogni contenitore con una porta esposta diversa. Eseguire ad esempio il primo contenitore sulla porta 5000 e il secondo sulla porta 5001.

È possibile disporre di questo contenitore e di un contenitore di Servizi cognitivi diverso in esecuzione insieme all'HOST. Sono inoltre in esecuzione più contenitori dello stesso contenitore di Servizi cognitivi.

Verificare che il contenitore sia in esecuzione

Per verificare se il contenitore è in esecuzione, sono disponibili diverse opzioni. Individuare l'indirizzo IP esterno e la porta esposta del contenitore in questione e aprire il Web browser preferito. Usare i vari URL di richiesta che seguono per verificare che il contenitore sia in esecuzione. Gli URL della richiesta di esempio elencati di seguito sono http://localhost:5000, ma il contenitore specifico potrebbe variare. Assicurarsi di basarsi sull'indirizzo IP esterno del contenitore e sulla porta esposta.

URL della richiesta Scopo
http://localhost:5000/ Il contenitore fornisce un home page.
http://localhost:5000/ready Richiesto con GET, questo URL fornisce una verifica che il contenitore sia pronto per accettare una query sul modello. Questa richiesta può essere usata per i probe di attività e di idoneità di Kubernetes.
http://localhost:5000/status Richiesto anche con GET, questo URL verifica se la chiave API usata per avviare il contenitore è valida senza causare una query dell'endpoint. Questa richiesta può essere usata per i probe di attività e di idoneità di Kubernetes.
http://localhost:5000/swagger Il contenitore fornisce un set completo di documentazione per gli endpoint e una funzionalità Prova. Con questa funzionalità, è possibile immettere le impostazioni in un modulo HTML basato sul Web ed eseguire la query senza scrivere codice. Dopo che la query restituisce il risultato, viene fornito un comando CURL di esempio per illustrare il formato richiesto per il corpo e le intestazioni HTTP.

Home page del contenitore

Arrestare il contenitore

Per arrestare il contenitore, nell'ambiente della riga di comando in cui è in esecuzione il contenitore selezionare CTRL+C.

Risoluzione dei problemi

Quando si avvia o si esegue il contenitore, potrebbero verificarsi problemi. Usare un montaggio di output e abilitare la registrazione. In questo modo il contenitore può generare file di log utili quando si risolvono i problemi.

Suggerimento

Per altre informazioni sulla risoluzione dei problemi e indicazioni, vedere Domande frequenti sui contenitori di Servizi cognitivi.

Se si verificano problemi durante l'esecuzione di un contenitore di Servizi cognitivi, è possibile provare a usare il contenitore per la diagnostica di Microsoft. Usare questo contenitore per diagnosticare gli errori comuni nell'ambiente di distribuzione che potrebbero impedire il funzionamento previsto dei contenitori di Servizi cognitivi.

Per ottenere il contenitore, usare il comando seguente docker pull :

docker pull mcr.microsoft.com/azure-cognitive-services/diagnostic

Eseguire quindi il contenitore. Sostituire {ENDPOINT_URI} con l'endpoint e sostituire {API_KEY} con la chiave della risorsa:

docker run --rm mcr.microsoft.com/azure-cognitive-services/diagnostic \
eula=accept \
Billing={ENDPOINT_URI} \
ApiKey={API_KEY}

Il contenitore verificherà la connettività di rete all'endpoint di fatturazione.

Fatturazione

I contenitori Voce inviano informazioni di fatturazione ad Azure usando una risorsa Voce nell'account Azure.

Le query al contenitore vengono fatturate al piano tariffario della risorsa di Azure usata per il ApiKey parametro .

I contenitori di Servizi cognitivi di Azure non vengono concessi in licenza per l'esecuzione senza essere connessi all'endpoint di misurazione o fatturazione. È necessario consentire ai contenitori di comunicare sempre le informazioni di fatturazione all'endpoint di fatturazione. I contenitori di Servizi cognitivi non inviano a Microsoft i dati dei clienti, ad esempio l'immagine o il testo analizzato.

Connettersi ad Azure

Per eseguire il contenitore, sono necessari i valori dell'argomento di fatturazione. Questi valori consentono al contenitore di connettersi all'endpoint di fatturazione. Il contenitore segnala l'utilizzo ogni 10-15 minuti. Se il contenitore non si connette ad Azure entro la finestra temporale consentita, continuerà a essere eseguito ma non fornirà query finché l'endpoint di fatturazione non verrà ripristinato. Il tentativo di connessione viene effettuato 10 volte nello stesso intervallo di tempo di 10-15 minuti. Se non riesce a connettersi all'endpoint di fatturazione entro i 10 tentativi, il contenitore smette di gestire le richieste. Per un esempio delle informazioni inviate a Microsoft per la fatturazione, vedere domande frequenti sui contenitori di Servizi cognitivi .

Argomenti di fatturazione

Il docker run comando avvierà il contenitore quando vengono fornite tutte e tre le opzioni seguenti con valori validi:

Opzione Descrizione
ApiKey Chiave API della risorsa di Servizi cognitivi usata per tenere traccia delle informazioni di fatturazione.
Il valore di questa opzione deve essere impostato su una chiave API per la risorsa di cui è stato effettuato il provisioning specificata in Billing.
Billing Endpoint della risorsa di Servizi cognitivi usata per tenere traccia delle informazioni di fatturazione.
Il valore di questa opzione deve essere impostato sull'URI dell'endpoint di una risorsa di Azure di cui è stato effettuato il provisioning.
Eula Indica che è la licenza per il contenitore è stata accettata.
Il valore di questa opzione deve essere impostato su accept.

Per altre informazioni su queste opzioni, vedere Configurare i contenitori.

Riepilogo

In questo articolo sono stati illustrati i concetti e il flusso di lavoro per scaricare, installare ed eseguire contenitori voce. In sintesi:

  • Riconoscimento vocale offre quattro contenitori Linux per Docker che hanno varie funzionalità:
    • Riconoscimento vocale
    • Riconoscimento vocale personalizzato
    • Sintesi vocale neurale
    • Identificazione della lingua vocale
  • Le immagini del contenitore vengono scaricate dal registro contenitori in Azure.
  • Le immagini dei contenitori vengono eseguite in Docker.
  • Indipendentemente dal fatto che si usi l'API REST (solo sintesi vocale) o l'SDK (riconoscimento vocale o sintesi vocale), è necessario specificare l'URI host del contenitore.
  • È necessario fornire informazioni di fatturazione quando si crea un'istanza di un contenitore.

Importante

I contenitori di Servizi cognitivi non sono concessi in licenza per l'esecuzione senza essere connessi ad Azure per la misurazione. I clienti devono consentire ai contenitori di comunicare sempre le informazioni di fatturazione al servizio di misurazione. I contenitori di Servizi cognitivi non inviano i dati dei clienti (ad esempio, l'immagine o il testo analizzato) a Microsoft.

Passaggi successivi