Dela via


Vad är text till tal?

I den här översikten får du lära dig om fördelarna och funktionerna i text till tal-funktionen i Speech-tjänsten, som är en del av Azure AI-tjänster.

Text till tal gör att dina program, verktyg eller enheter kan konvertera text till människor som syntetiserat tal. Funktionen text till tal kallas även talsyntes. Använd mänskliga som fördefinierade neurala röster direkt eller skapa en anpassad neural röst som är unik för din produkt eller ditt varumärke. En fullständig lista över röster, språk och språk som stöds finns i Språk- och röststöd för Speech-tjänsten.

Kärnfunktioner

Text till tal innehåller följande funktioner:

Funktion Sammanfattning Demo
Fördefinierad neural röst (kallas Neuralprissidan) Mycket naturliga out-of-the-box röster. Skapa en Azure-prenumeration och en Speech-resurs och använd sedan Speech SDK eller besök Speech Studio-portalen och välj fördefinierade neurala röster för att komma igång. Kontrollera prisinformationen. Kontrollera röstgalleriet och bestäm rätt röst för dina affärsbehov.
Anpassad neural röst (kallas anpassad neuralprissidan) Lätt att använda självbetjäning för att skapa en naturlig varumärkesröst, med begränsad åtkomst för ansvarsfull användning. Skapa en Azure-prenumeration och en Speech-resurs (med S0-nivån) och använd den anpassade röstfunktionen. När du har beviljats åtkomst går du till Speech Studio-portalen och väljer Anpassad röst för att komma igång. Kontrollera prisinformationen. Kontrollera röstexemplen.

Mer om neural text till tal-funktioner

Text till tal använder djupa neurala nätverk för att göra datorernas röster nästan oskiljaktiga från inspelningarna av människor. Med tydlig artikulering av ord minskar neural text till tal avsevärt lyssningströttheten när användare interagerar med AI-system.

Mönster av stress och intonation i talat språk kallas prosody. Traditionella text-till-tal-system delar upp prosodi i separata språkanalyser och akustiska förutsägelsesteg som styrs av oberoende modeller. Det kan resultera i dämpad, livlig röstsyntes.

Här är mer information om neural text till tal-funktioner i Speech-tjänsten och hur de övervinner gränserna för traditionella text till talsystem:

  • Talsyntes i realtid: Använd Speech SDK eller REST API för att konvertera text till tal med hjälp av fördefinierade neurala röster eller anpassade neurala röster.

  • Asynkron syntes av långt ljud: Använd batchsyntes-API:et för att asynkront syntetisera text till talfiler längre än 10 minuter (till exempel ljudböcker eller föreläsningar). Till skillnad från syntes som utförs via Speech SDK eller Speech to text REST API returneras inte svar i realtid. Förväntningarna är att begäranden skickas asynkront, svar avsöks och syntetiserat ljud laddas ned när tjänsten gör den tillgänglig.

  • Fördefinierade neurala röster: Azure AI Speech använder djupa neurala nätverk för att övervinna gränserna för traditionell talsyntes när det gäller stress och intonation i talat språk. Prosody förutsägelse och röstsyntes sker samtidigt, vilket resulterar i mer flytande och naturligt klingande utdata. Varje fördefinierad neural röstmodell är tillgänglig på 24 kHz och 48 kHz med hög återgivning. Du kan använda neurala röster för att:

    • Gör interaktioner med chattrobotar och röstassistenter mer naturliga och engagerande.
    • Konvertera digitala texter som e-böcker till ljudböcker.
    • Förbättra navigeringssystemen i bilen.

    En fullständig lista över neurala plattformsröster finns i Språk och röststöd för Speech-tjänsten.

  • Förbättra text till talutdata med SSML: Speech Synthesis Markup Language (SSML) är ett XML-baserat markeringsspråk som används för att anpassa text till talutdata. Med SSML kan du justera tonhöjd, lägga till pauser, förbättra uttalet, ändra talfrekvens, justera volymen och tilldela flera röster till ett enda dokument.

    Du kan använda SSML för att definiera egna lexikon eller växla till olika talformat. Med flerspråkiga röster kan du också justera talarspråken via SSML. Information om hur du förbättrar röstutdata för ditt scenario finns i Förbättra syntesen med talsyntesmarkeringsspråk och talsyntes med verktyget Skapa ljudinnehåll.

  • Visemes: Visemes är de viktigaste poserna i observerat tal, inklusive läpparnas, käkens och tungans position när det gäller att producera en viss fonem. Visemes har en stark korrelation med röster och fonem.

    Genom att använda viseme-händelser i Speech SDK kan du generera ansiktsanimeringsdata. Dessa data kan användas för att animera ansikten i läppläsningskommunikation, utbildning, underhållning och kundtjänst. Viseme stöds för närvarande endast för neurala en-US röster (amerikanska engelska).

Kommentar

Vi planerar att dra tillbaka de traditionella/standardrösterna och den icke-neurala anpassade rösten 2024. Efter det kommer vi inte längre att stödja dem.

Om dina program, verktyg eller produkter använder någon av standardrösterna och anpassade röster måste du migrera till den neurala versionen. Mer information finns i Migrera till neurala röster.

Kom igång

Information om hur du kommer igång med text till tal finns i snabbstarten. Text till tal är tillgängligt via Speech SDK, REST API och Speech CLI.

Dricks

Om du vill konvertera text till tal utan kod kan du prova verktyget Skapa ljudinnehåll i Speech Studio.

Exempelkod

Exempelkod för text till tal är tillgänglig på GitHub. De här exemplen omfattar text till talkonvertering på de mest populära programmeringsspråken:

Anpassad neural röst

Förutom fördefinierade neurala röster kan du skapa anpassade neurala röster som är unika för din produkt eller ditt varumärke. Allt som krävs för att komma igång är en handfull ljudfiler och tillhörande transkriptioner. Mer information finns i Komma igång med anpassad neural röst.

Prisanteckning

Fakturerbara tecken

När du använder funktionen text till tal debiteras du för varje tecken som konverteras till tal, inklusive skiljetecken. Även om själva SSML-dokumentet inte kan faktureras räknas valfria element som används för att justera hur texten konverteras till tal, till exempel fonem och tonhöjd, som fakturerbara tecken. Här är en lista över vad som kan faktureras:

  • Text som skickas till text till tal-funktionen i SSML-brödtexten i begäran
  • Alla markeringar i textfältet i begärandetexten i SSML-format, förutom <speak> taggar och <voice>
  • Bokstäver, skiljetecken, blanksteg, flikar, markeringar och alla blankstegstecken
  • Varje kodpunkt som definieras i Unicode

Detaljerad information finns i Priser för Speech-tjänsten.

Viktigt!

Varje kinesiskt tecken räknas som två tecken för fakturering, inklusive kanji som används på japanska, hanja som används på koreanska eller hanzi som används på andra språk.

Modellträning och värdtid för anpassad neural röst

Anpassad neural röstträning och värd beräknas både per timme och faktureras per sekund. Information om priset för faktureringsenhet finns i Priser för Speech-tjänsten.

Träningstiden för anpassad neural röst (CNV) mäts med "beräkningstimme" (en enhet för att mäta datorns körningstid). När du tränar en röstmodell körs vanligtvis två databehandlingsuppgifter parallellt. Därför är de beräknade beräkningstimmarna längre än den faktiska träningstiden. I genomsnitt tar det mindre än en beräkningstimme att träna en CNV Lite-röst. för CNV Pro tar det vanligtvis 20 till 40 beräkningstimmar att träna en röst i en stil och cirka 90 beräkningstimmar för att träna en röst i flera format. CNV-träningstiden faktureras med ett tak på 96 beräkningstimmar. Så om en röstmodell tränas i 98 beräkningstimmar debiteras du bara med 96 beräkningstimmar.

CnV-slutpunktsvärd (Custom Neural Voice) mäts med den faktiska tiden (timme). Värdtiden (timmar) för varje slutpunkt beräknas till 00:00 UTC varje dag under de senaste 24 timmarna. Om slutpunkten till exempel har varit aktiv i 24 timmar på dag ett debiteras den i 24 timmar klockan 00:00 UTC den andra dagen. Om slutpunkten nyligen har skapats eller pausats under dagen debiteras den för den ackumulerade körningstiden fram till 00:00 UTC den andra dagen. Om slutpunkten inte finns för närvarande debiteras den inte. Utöver den dagliga beräkningen kl. 00:00 UTC varje dag utlöses faktureringen också omedelbart när en slutpunkt tas bort eller pausas. För en slutpunkt som skapades kl. 08:00 UTC den 1 december beräknas värdtimpen till 16 timmar kl. 00:00 UTC den 2 december och 24 timmar kl. 00:00 UTC den 3 december. Om användaren pausar värdtjänsten för slutpunkten kl. 16:30 UTC den 3 december beräknas varaktigheten (16,5 timmar) från 00:00 till 16:30 UTC den 3 december för fakturering.

Personlig röst

När du använder den personliga röstfunktionen debiteras du för både profillagring och syntes.

  • Profillagring: När en personlig röstprofil har skapats debiteras den tills den tas bort från systemet. Faktureringsenheten är per röst och dag. Om röstlagringen varar i mindre än 24 timmar debiteras den som en hel dag.
  • Syntes: Fakturerad per tecken. Mer information om fakturerbara tecken finns i ovanstående fakturerbara tecken.

Text till tal-avatar

När du använder avatarfunktionen text-till-tal debiteras avgifter baserat på längden på videoutdata och debiteras per sekund. Men för realtidsavatar baseras avgifterna på den tid då avataren är aktiv, oavsett om den talar eller förblir tyst, och kommer också att faktureras per sekund. Information om hur du optimerar kostnaderna för användning av avatarer i realtid finns i tipsen i exempelkoden (sök "Använd lokal video för inaktivt"). Avatar hosting debiteras per sekund per slutpunkt. Du kan pausa slutpunkten för att spara kostnader. Om du vill pausa slutpunkten kan du ta bort den direkt. Om du vill använda den igen distribuerar du bara slutpunkten igen.

Övervaka Text till tal-mått i Azure

Övervakning av viktiga mått som är associerade med text till taltjänster är avgörande för att hantera resursanvändning och kontrollera kostnader. Det här avsnittet beskriver hur du hittar användningsinformation i Azure-portalen och ger detaljerade definitioner av nyckelmåtten. Mer information om Azure Monitor-mått finns i Översikt över Azure Monitor-mått.

Så här hittar du användningsinformation i Azure-portalen

För att effektivt hantera dina Azure-resurser är det viktigt att du får åtkomst till och granskar användningsinformation regelbundet. Så här hittar du användningsinformationen:

  1. Gå till Azure-portalen och logga in med ditt Azure-konto.

  2. Gå till Resurser och välj den resurs som du vill övervaka.

  3. Välj Mått under Övervakning på den vänstra menyn.

    Skärmbild av att välja måttalternativ under övervakning.

  4. Anpassa måttvyer.

    Du kan filtrera data efter resurstyp, måtttyp, tidsintervall och andra parametrar för att skapa anpassade vyer som överensstämmer med dina övervakningsbehov. Dessutom kan du spara måttvyn på instrumentpaneler genom att välja Spara på instrumentpanelen för enkel åtkomst till mått som används ofta.

  5. Konfigurera aviseringar.

    Om du vill hantera användningen mer effektivt konfigurerar du aviseringar genom att gå till fliken Aviseringar under Övervakning från den vänstra menyn. Aviseringar kan meddela dig när din användning når specifika tröskelvärden, vilket hjälper till att förhindra oväntade kostnader.

Definition av mått

Nedan visas en tabell som sammanfattar nyckelmåtten för Azures text till taltjänster.

Måttnamn Beskrivning
Syntetiserade tecken Spårar antalet tecken som konverterats till tal, inklusive fördefinierad neural röst och anpassad neural röst. Mer information om fakturerbara tecken finns i Fakturerbara tecken.
Syntetiserade videosekunder Mäter den totala varaktigheten för videon som syntetiseras, inklusive batch-avatarsyntes, avatarsyntes i realtid och anpassad avatarsyntes.
Avatar modell värd sekunder Spårar den totala tiden i sekunder som din anpassade avatarmodell finns.
Värdtimmar för röstmodell Spårar den totala tiden i timmar som din anpassade neurala röstmodell finns.
Träningsminuter för röstmodell Mäter den totala tiden i minuter för träning av din anpassade neurala röstmodell.

Referensdokument

Ansvarsfull AI

Ett AI-system innehåller inte bara tekniken, utan även de personer som använder den, de personer som påverkas av den och miljön där den distribueras. Läs transparensanteckningarna om du vill veta mer om ansvarsfull AI-användning och distribution i dina system.

Nästa steg