Questo browser non è più supportato.
Esegui l'aggiornamento a Microsoft Edge per sfruttare i vantaggi di funzionalità più recenti, aggiornamenti della sicurezza e supporto tecnico.
Quali due funzionalità principali espone il server McP di Riconoscimento vocale di Azure agli agenti?
Traduzione della lingua e riepilogo del testo.
Riconoscimento da voce a testo e sintesi da testo a voce.
Riconoscimento di entità denominate e analisi del sentimento.
Perché il server MCP di Riconoscimento vocale di Azure richiede un account di archiviazione di Azure?
Per archiviare le istruzioni e le impostazioni di configurazione dell'agente.
Per archiviare i file audio di input e i file audio di output generati dagli strumenti di riconoscimento vocale.
Per memorizzare nella cache le definizioni degli strumenti del server MCP per un'individuazione più rapida.
Quali credenziali sono necessarie per la connessione del server McP di Riconoscimento vocale di Azure a un agente Foundry?
Un token OAuth 2.0 e un URL dell'endpoint di identità gestita.
Una chiave di risorsa di Fonderia e un URL di firma di accesso condiviso per un contenitore blob.
Un certificato client e l'ID sottoscrizione di Azure.
Come è possibile specificare una voce specifica quando si usa lo strumento di sintesi vocale tramite l'agente?
Configurando la voce nelle impostazioni del server MCP prima della connessione.
Includendo il nome vocale nel prompt del linguaggio naturale all'agente.
Impostando una variabile di ambiente nel codice dell'applicazione client.
Devi rispondere a tutte le domande prima di controllare il lavoro svolto.
Questa pagina è stata utile?
Serve aiuto con questo argomento?
Provare a usare Ask Learn per chiarire o guidare l'utente in questo argomento?