你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn。
使用语音 SDK 降低语音合成延迟
在本文中,我们介绍了一些最佳做法,以便降低文本转语音合成延迟并为最终用户提供出色性能。
通常,我们根据 first byte latency
和 finish latency
来度量延迟,如下所示:
延迟 | 说明 | SpeechSynthesisResult 属性键 |
---|---|---|
第一个字节延迟 | 指示开始合成任务与接收第一个音频数据区块之间的时间延迟。 | SpeechServiceResponse_SynthesisFirstByteLatencyMs |
完成延迟 | 指示开始合成任务与接收全部的合成音频数据之间的时间延迟。 | SpeechServiceResponse_SynthesisFinishLatencyMs |
语音 SDK 将延迟持续时间放在 SpeechSynthesisResult
的属性集合中。 下面的示例代码显示了这些值。
var result = await synthesizer.SpeakTextAsync(text);
Console.WriteLine($"first byte latency: \t{result.Properties.GetProperty(PropertyId.SpeechServiceResponse_SynthesisFirstByteLatencyMs)} ms");
Console.WriteLine($"finish latency: \t{result.Properties.GetProperty(PropertyId.SpeechServiceResponse_SynthesisFinishLatencyMs)} ms");
// you can also get the result id, and send to us when you need help for diagnosis
var resultId = result.ResultId;
延迟 | 说明 | SpeechSynthesisResult 属性键 |
---|---|---|
first byte latency |
指示开始合成与接收第一个音频区块之间的时间延迟。 | SpeechServiceResponse_SynthesisFirstByteLatencyMs |
finish latency |
指示开始合成与接收全部合成音频之间的时间延迟。 | SpeechServiceResponse_SynthesisFinishLatencyMs |
语音 SDK 度量了延迟,并将结果放在 SpeechSynthesisResult
的属性包中。 若要获取它们,请参阅以下代码。
auto result = synthesizer->SpeakTextAsync(text).get();
auto firstByteLatency = std::stoi(result->Properties.GetProperty(PropertyId::SpeechServiceResponse_SynthesisFirstByteLatencyMs));
auto finishedLatency = std::stoi(result->Properties.GetProperty(PropertyId::SpeechServiceResponse_SynthesisFinishLatencyMs));
// you can also get the result id, and send to us when you need help for diagnosis
auto resultId = result->ResultId;
延迟 | 说明 | SpeechSynthesisResult 属性键 |
---|---|---|
first byte latency |
指示开始合成与接收第一个音频区块之间的时间延迟。 | SpeechServiceResponse_SynthesisFirstByteLatencyMs |
finish latency |
指示开始合成与接收全部合成音频之间的时间延迟。 | SpeechServiceResponse_SynthesisFinishLatencyMs |
语音 SDK 度量了延迟,并将结果放在 SpeechSynthesisResult
的属性包中。 若要获取它们,请参阅以下代码。
SpeechSynthesisResult result = synthesizer.SpeakTextAsync(text).get();
System.out.println("first byte latency: \t" + result.getProperties().getProperty(PropertyId.SpeechServiceResponse_SynthesisFirstByteLatencyMs) + " ms.");
System.out.println("finish latency: \t" + result.getProperties().getProperty(PropertyId.SpeechServiceResponse_SynthesisFinishLatencyMs) + " ms.");
// you can also get the result id, and send to us when you need help for diagnosis
String resultId = result.getResultId();
延迟 | 说明 | SpeechSynthesisResult 属性键 |
---|---|---|
first byte latency |
指示开始合成与接收第一个音频区块之间的时间延迟。 | SpeechServiceResponse_SynthesisFirstByteLatencyMs |
finish latency |
指示开始合成与接收全部合成音频之间的时间延迟。 | SpeechServiceResponse_SynthesisFinishLatencyMs |
语音 SDK 度量了延迟,并将结果放在 SpeechSynthesisResult
的属性包中。 若要获取它们,请参阅以下代码。
result = synthesizer.speak_text_async(text).get()
first_byte_latency = int(result.properties.get_property(speechsdk.PropertyId.SpeechServiceResponse_SynthesisFirstByteLatencyMs))
finished_latency = int(result.properties.get_property(speechsdk.PropertyId.SpeechServiceResponse_SynthesisFinishLatencyMs))
# you can also get the result id, and send to us when you need help for diagnosis
result_id = result.result_id
延迟 | 说明 | SPXSpeechSynthesisResult 属性键 |
---|---|---|
first byte latency |
指示开始合成与接收第一个音频区块之间的时间延迟。 | SPXSpeechServiceResponseSynthesisFirstByteLatencyMs |
finish latency |
指示开始合成与接收全部合成音频之间的时间延迟。 | SPXSpeechServiceResponseSynthesisFinishLatencyMs |
语音 SDK 度量了延迟,并将结果放在 SPXSpeechSynthesisResult
的属性包中。 若要获取它们,请参阅以下代码。
SPXSpeechSynthesisResult *speechResult = [speechSynthesizer speakText:text];
int firstByteLatency = [intString [speechResult.properties getPropertyById:SPXSpeechServiceResponseSynthesisFirstByteLatencyMs]];
int finishedLatency = [intString [speechResult.properties getPropertyById:SPXSpeechServiceResponseSynthesisFinishLatencyMs]];
// you can also get the result id, and send to us when you need help for diagnosis
NSString *resultId = result.resultId;
在大多数情况下,第一个字节延迟要低于完成延迟。 第一个字节延迟与文本长度无关,而完成延迟因文本长度增加而增加。
理想情况下,我们希望将用户感受到的延迟时间(用户听到声音之前的延迟时间)尽可能降低至一次网络往返时间与语音合成服务的第一个音频区块延迟时间之和。
流式处理
流式处理对降低延迟至关重要。 收到第一个音频区块后,客户端代码可以开始播放。 在服务方案中,可以将音频区块立即转发到客户端,而不是等待整个音频完成。
可以使用语音 SDK 的 PullAudioOutputStream
、PushAudioOutputStream
、Synthesizing
事件和 AudioDataStream
来启用流式处理。
以 AudioDataStream
为例:
using (var synthesizer = new SpeechSynthesizer(config, null as AudioConfig))
{
using (var result = await synthesizer.StartSpeakingTextAsync(text))
{
using (var audioDataStream = AudioDataStream.FromResult(result))
{
byte[] buffer = new byte[16000];
uint filledSize = 0;
while ((filledSize = audioDataStream.ReadData(buffer)) > 0)
{
Console.WriteLine($"{filledSize} bytes received.");
}
}
}
}
可以使用语音 SDK 的 PullAudioOutputStream
、PushAudioOutputStream
、Synthesizing
事件 和 AudioDataStream
来启用流式处理。
以 AudioDataStream
为例:
auto synthesizer = SpeechSynthesizer::FromConfig(config, nullptr);
auto result = synthesizer->SpeakTextAsync(text).get();
auto audioDataStream = AudioDataStream::FromResult(result);
uint8_t buffer[16000];
uint32_t filledSize = 0;
while ((filledSize = audioDataStream->ReadData(buffer, sizeof(buffer))) > 0)
{
cout << filledSize << " bytes received." << endl;
}
可以使用语音 SDK 的 PullAudioOutputStream
、PushAudioOutputStream
、Synthesizing
事件 和 AudioDataStream
来启用流式处理。
以 AudioDataStream
为例:
SpeechSynthesizer synthesizer = new SpeechSynthesizer(config, null);
SpeechSynthesisResult result = synthesizer.StartSpeakingTextAsync(text).get();
AudioDataStream audioDataStream = AudioDataStream.fromResult(result);
byte[] buffer = new byte[16000];
long filledSize = audioDataStream.readData(buffer);
while (filledSize > 0) {
System.out.println(filledSize + " bytes received.");
filledSize = audioDataStream.readData(buffer);
}
可以使用语音 SDK 的 PullAudioOutputStream
、PushAudioOutputStream
、Synthesizing
事件 和 AudioDataStream
来启用流式处理。
以 AudioDataStream
为例:
speech_synthesizer = speechsdk.SpeechSynthesizer(speech_config=speech_config, audio_config=None)
result = speech_synthesizer.start_speaking_text_async(text).get()
audio_data_stream = speechsdk.AudioDataStream(result)
audio_buffer = bytes(16000)
filled_size = audio_data_stream.read_data(audio_buffer)
while filled_size > 0:
print("{} bytes received.".format(filled_size))
filled_size = audio_data_stream.read_data(audio_buffer)
可以使用语音 SDK 的 SPXPullAudioOutputStream
、SPXPushAudioOutputStream
、Synthesizing
事件 和 SPXAudioDataStream
来启用流式处理。
以 AudioDataStream
为例:
SPXSpeechSynthesizer *synthesizer = [[SPXSpeechSynthesizer alloc] initWithSpeechConfiguration:speechConfig audioConfiguration:nil];
SPXSpeechSynthesisResult *speechResult = [synthesizer startSpeakingText:inputText];
SPXAudioDataStream *stream = [[SPXAudioDataStream alloc] initFromSynthesisResult:speechResult];
NSMutableData* data = [[NSMutableData alloc]initWithCapacity:16000];
while ([stream readData:data length:16000] > 0) {
// Read data here
}
预连接和重用 SpeechSynthesizer
语音 SDK 使用 websocket 与服务进行通信。
理想情况下,网络延迟应为一次往返时间 (RTT)。
如果连接是新建立的,网络延迟将包括建立连接所用的额外时间。
建立 websocket 连接需要进行 TCP 握手、SSL 握手、HTTP 连接和协议升级,这会导致时间延迟。
为了避免连接延迟,我们建议预连接和重用 SpeechSynthesizer
。
预连接
若要进行预连接,请在知道即将需要连接后,建立与语音服务的连接。 例如,如果要在客户端中构建语音机器人,则可以在用户开始对话时预连接到语音合成服务,并在机器人回复文本准备就绪时调用 SpeakTextAsync
。
using (var synthesizer = new SpeechSynthesizer(uspConfig, null as AudioConfig))
{
using (var connection = Connection.FromSpeechSynthesizer(synthesizer))
{
connection.Open(true);
}
await synthesizer.SpeakTextAsync(text);
}
auto synthesizer = SpeechSynthesizer::FromConfig(config, nullptr);
auto connection = Connection::FromSpeechSynthesizer(synthesizer);
connection->Open(true);
SpeechSynthesizer synthesizer = new SpeechSynthesizer(speechConfig, (AudioConfig) null);
Connection connection = Connection.fromSpeechSynthesizer(synthesizer);
connection.openConnection(true);
synthesizer = speechsdk.SpeechSynthesizer(config, None)
connection = speechsdk.Connection.from_speech_synthesizer(synthesizer)
connection.open(True)
SPXSpeechSynthesizer* synthesizer = [[SPXSpeechSynthesizer alloc]initWithSpeechConfiguration:self.speechConfig audioConfiguration:nil];
SPXConnection* connection = [[SPXConnection alloc]initFromSpeechSynthesizer:synthesizer];
[connection open:true];
注意
如果文本可用,则只需调用 SpeakTextAsync
即可合成音频。 SDK 将处理连接。
重用 SpeechSynthesizer
降低连接延迟的另一种方法是重用 SpeechSynthesizer
,这样就不需要针对每次合成创建新的 SpeechSynthesizer
。
建议在服务场景中使用对象池。 请参阅我们的 C# 和 Java 示例代码。
通过网络传输压缩音频
当网络不稳定或带宽有限时,有效负载大小也会影响延迟。 同时,压缩音频格式有助于节省用户的网络带宽,这对于移动用户非常有用。
我们支持许多压缩格式,包括 opus
、webm
、mp3
、silk
等,请参阅 SpeechSynthesisOutputFormat 中的完整列表。
例如,Riff24Khz16BitMonoPcm
格式的比特率为 384 kbps,而 Audio24Khz48KBitRateMonoMp3
的比特率仅为 48 kbps。
设置 pcm
输出格式之后,语音 SDK 会自动使用压缩格式进行传输。
对于 Linux 和 Windows,需要使用 GStreamer
来启用此功能。
请参阅此说明,为 Speech SDK 安装和配置 GStreamer
。
对于 Android、iOS 和 macOS,从版本 1.20 开始,无需额外进行配置。
输入文本流式处理
文本流式处理支持实时文本处理,以便快速生成音频。 它非常适合动态文本声化,例如实时读取来自 AI 模型(如 GPT)的输出。 此功能将延迟降到最低,并提高音频输出的流畅性和响应能力,使其成为交互式应用程序、实时事件和响应式 AI 驱动的对话的理想选择。
如何使用文本流式处理
C#、C++ 和 Python 支持使用语音 SDK 进行文本流式处理。
若要使用文本流式处理功能,请连接到 Websocket V2 终结点:wss://{region}.tts.speech.microsoft.com/cognitiveservices/websocket/v2
请参阅用于设置终结点的示例代码:
// IMPORTANT: MUST use the websocket v2 endpoint
var ttsEndpoint = $"wss://{Environment.GetEnvironmentVariable("AZURE_TTS_REGION")}.tts.speech.microsoft.com/cognitiveservices/websocket/v2";
var speechConfig = SpeechConfig.FromEndpoint(
new Uri(ttsEndpoint),
Environment.GetEnvironmentVariable("AZURE_TTS_API_KEY"));
关键步骤
创建文本流请求:使用
SpeechSynthesisRequestInputType.TextStream
启动文本流。设置全局属性:直接调整输出格式和语音名称等设置,此功能可处理部分文本输入,不支持 SSML。 有关如何设置它们的说明,请参阅以下示例代码。 文本流式处理功能不支持 OpenAI 文本转语音声音。 有关完整语言支持,请参阅此语言表。
// Set output format speechConfig.SetSpeechSynthesisOutputFormat(SpeechSynthesisOutputFormat.Raw24Khz16BitMonoPcm); // Set a voice name SpeechConfig.SetProperty(PropertyId.SpeechServiceConnection_SynthVoice, "en-US-AvaMultilingualNeural");
流式传输文本:对于从 GPT 模型生成的每个文本区块,使用
request.InputStream.Write(text);
将文本发送到流。关闭流:GPT 模型完成输出后,使用
request.InputStream.Close();
关闭流。
有关详细实现,请参阅 GitHub 上的示例代码
若要使用文本流式处理功能,请连接到 Websocket V2 终结点:wss://{region}.tts.speech.microsoft.com/cognitiveservices/websocket/v2
请参阅用于设置终结点的示例代码:
# IMPORTANT: MUST use the websocket v2 endpoint
speech_config = speechsdk.SpeechConfig(endpoint=f"wss://{os.getenv('AZURE_TTS_REGION')}.tts.speech.microsoft.com/cognitiveservices/websocket/v2",
subscription=os.getenv("AZURE_TTS_API_KEY"))
关键步骤
创建文本流请求:使用
speechsdk.SpeechSynthesisRequestInputType.TextStream
启动文本流。设置全局属性:直接调整输出格式和语音名称等设置,此功能可处理部分文本输入,不支持 SSML。 有关如何设置它们的说明,请参阅以下示例代码。 文本流式处理功能不支持 OpenAI 文本转语音声音。 有关完整语言支持,请参阅此语言表。
# set a voice name speech_config.speech_synthesis_voice_name = "en-US-AvaMultilingualNeural"
流式传输文本:对于从 GPT 模型生成的每个文本区块,使用
request.input_stream.write(text)
将文本发送到流。关闭流:GPT 模型完成输出后,使用
request.input_stream.close()
关闭流。
有关详细实现,请参阅 GitHub 上的示例代码。
目前尚未提供 C++ 示例代码。 有关演示如何使用文本流式处理的示例代码,请参阅:
有关演示如何使用文本流式处理的示例代码,请参阅:
有关演示如何使用文本流式处理的示例代码,请参阅:
其他提示
缓存 CRL 文件
语音 SDK 使用 CRL 文件来检查证书。 将 CRL 文件缓存至过期,这样就无需每次下载 CRL 文件。 有关详细信息,请参阅如何配置适用于 Linux 的 OpenSSL。
使用最新的语音 SDK
我们在持续改进语音 SDK 的性能,因此请尝试在应用程序中使用最新的语音 SDK。
负载测试准则
你可以使用负载测试来测试语音合成服务的容量和延迟。 下面是一些准则:
- 语音合成服务能够自动缩放,但横向扩展需要花费一些时间才能完成。如果并发在短时间内增加,客户端可能会出现较长的延迟或
429
错误代码(请求过多)。 因此,建议在负载测试中逐步提高并发数。 参阅本文了解更多详细信息,尤其是此工作负载模式示例。 - 你可以利用我们的示例来使用对象池(C# 和 Java)进行负载测试并获取延迟数据。 可修改示例中的测试回合和并发以满足目标并发。
- 此服务存在基于实际流量的配额限制,因此,如果要在并发数高于实际流量的情况下执行负载测试,请在测试之前进行连接。