Używanie kontenerów usługi Mowa z platformami Kubernetes i Helm
Jedną z opcji zarządzania kontenerami usługi Mowa w środowisku lokalnym jest użycie platformy Kubernetes i programu Helm. Za pomocą platformy Kubernetes i programu Helm zdefiniujemy mowę na tekst i tekst obrazów kontenerów mowy, utworzymy pakiet Kubernetes. Ten pakiet jest wdrażany w klastrze Kubernetes w środowisku lokalnym. Na koniec dowiesz się, jak przetestować wdrożone usługi i różne opcje konfiguracji. Aby uzyskać więcej informacji na temat uruchamiania kontenerów platformy Docker bez orkiestracji platformy Kubernetes, zobacz instalowanie i uruchamianie kontenerów usługi Mowa.
Wymagania wstępne
Następujące wymagania wstępne przed użyciem kontenerów usługi Mowa w środowisku lokalnym:
Wymagania | Purpose |
---|---|
Konto platformy Azure | Jeśli nie masz subskrypcji platformy Azure, przed rozpoczęciem utwórz bezpłatne konto. |
Dostęp do usługi Container Registry | Aby platforma Kubernetes ściągała obrazy platformy Docker do klastra, musi mieć dostęp do rejestru kontenerów. |
Interfejs wiersza polecenia platformy Kubernetes | Interfejs wiersza polecenia platformy Kubernetes jest wymagany do zarządzania poświadczeniami udostępnionymi z rejestru kontenerów. Platforma Kubernetes jest również potrzebna przed programem Helm, czyli menedżerem pakietów Kubernetes. |
Interfejs wiersza polecenia programu Helm | Zainstaluj interfejs wiersza polecenia programu Helm, który służy do instalowania pakietu Helm Chart (definicja pakietu kontenera). |
Zasób mowy | Aby można było używać tych kontenerów, musisz mieć następujące elementy: Zasób usługi Mowa platformy Azure umożliwiający uzyskanie skojarzonego klucza rozliczeniowego i identyfikatora URI punktu końcowego rozliczeń. Obie wartości są dostępne na stronach Omówienie mowy i klucze w witrynie Azure Portal i są wymagane do uruchomienia kontenera. {API_KEY}: klucz zasobu {ENDPOINT_URI}: przykład identyfikatora URI punktu końcowego to: https://eastus.api.cognitive.microsoft.com/sts/v1.0 |
Zalecana konfiguracja komputera hosta
Zapoznaj się ze szczegółami komputera hosta kontenera usługi Mowa jako odwołanie. Ten wykres helm automatycznie oblicza wymagania dotyczące procesora CPU i pamięci na podstawie liczby dekodowań (współbieżnych żądań), które określa użytkownik. Ponadto dostosowuje się na podstawie tego, czy optymalizacje danych wejściowych audio/tekstowych są skonfigurowane jako enabled
. Domyślnie wykres helm to dwa współbieżne żądania i wyłączanie optymalizacji.
Usługa | Procesor CPU/kontener | Pamięć/kontener |
---|---|---|
zamiana mowy na tekst | jeden dekoder wymaga co najmniej 1150 milisekund. optimizedForAudioFile Jeśli parametr jest włączony, wymagane jest 1950 milisekund. (ustawienie domyślne: dwa dekodatory) |
Wymagane: 2 GB Ograniczone: 4 GB |
zamiana tekstu na mowę | jedno współbieżne żądanie wymaga co najmniej 500 milisekund. optimizeForTurboMode Jeśli parametr jest włączony, wymagane jest 1000 milisekund. (ustawienie domyślne: dwa współbieżne żądania) |
Wymagane: 1 GB Ograniczone: 2 GB |
Nawiązywanie połączenia z klastrem Kubernetes
Oczekuje się, że komputer-host ma dostępny klaster Kubernetes. Zapoznaj się z tym samouczkiem dotyczącym wdrażania klastra Kubernetes, aby poznać sposób wdrażania klastra Kubernetes na komputerze hosta.
Konfigurowanie wartości wykresu programu Helm na potrzeby wdrożenia
Odwiedź witrynę Microsoft Helm Hub, aby zapoznać się ze wszystkimi publicznie dostępnymi wykresami helm oferowanymi przez firmę Microsoft. W usłudze Microsoft Helm Hub znajduje się lokalny wykres mowy usługi Azure AI. Lokalna usługa Azure AI Speech to instalowany wykres, ale najpierw musimy utworzyć config-values.yaml
plik z jawnymi konfiguracjami. Zacznijmy od dodania repozytorium firmy Microsoft do naszego wystąpienia programu Helm.
helm repo add microsoft https://microsoft.github.io/charts/repo
Następnie skonfigurujemy nasze wartości wykresu Helm. Skopiuj i wklej następujący kod YAML do pliku o nazwie config-values.yaml
. Aby uzyskać więcej informacji na temat dostosowywania lokalnego wykresu helm usługi Mowa w usłudze Azure AI, zobacz Dostosowywanie wykresów helm. # {ENDPOINT_URI}
Zastąp komentarze i # {API_KEY}
własnymi wartościami.
# These settings are deployment specific and users can provide customizations
# speech to text configurations
speechToText:
enabled: true
numberOfConcurrentRequest: 3
optimizeForAudioFile: true
image:
registry: mcr.microsoft.com
repository: azure-cognitive-services/speechservices/speech-to-text
tag: latest
pullSecrets:
- mcr # Or an existing secret
args:
eula: accept
billing: # {ENDPOINT_URI}
apikey: # {API_KEY}
# text to speech configurations
textToSpeech:
enabled: true
numberOfConcurrentRequest: 3
optimizeForTurboMode: true
image:
registry: mcr.microsoft.com
repository: azure-cognitive-services/speechservices/neural-text-to-speech
tag: latest
pullSecrets:
- mcr # Or an existing secret
args:
eula: accept
billing: # {ENDPOINT_URI}
apikey: # {API_KEY}
Ważne
billing
Jeśli wartości i apikey
nie zostaną podane, usługi wygasną po 15 minutach. Podobnie weryfikacja zakończy się niepowodzeniem, ponieważ usługi nie będą dostępne.
Pakiet Kubernetes (pakiet Helm)
Pakiet Helm zawiera konfigurację obrazów platformy Docker do ściągnięcia z mcr.microsoft.com
rejestru kontenerów.
Pakiet Helm to kolekcja plików opisujących powiązany zestaw zasobów Kubernetes. Pojedynczy wykres może służyć do wdrażania czegoś prostego, takiego jak zasobnik memcached lub coś złożonego, takiego jak pełny stos aplikacji internetowej z serwerami HTTP, bazami danych, pamięciami podręcznymi itd.
Udostępnione wykresy helm ściągają obrazy platformy Docker usługi Mowa, zarówno tekst na mowę, jak i usługę zamiany mowy na tekst z mcr.microsoft.com
rejestru kontenerów.
Instalowanie wykresu Helm w klastrze Kubernetes
helm install
Uruchom polecenie , aby zainstalować pakiet helm, zastępując <config-values.yaml>
element odpowiednią ścieżką i argumentem nazwy pliku. Pakiet microsoft/cognitive-services-speech-onpremise
Helm jest dostępny w usłudze Microsoft Helm Hub.
helm install onprem-speech microsoft/cognitive-services-speech-onpremise \
--version 0.1.1 \
--values <config-values.yaml>
Oto przykładowe dane wyjściowe, które można oczekiwać od pomyślnego wykonania instalacji:
NAME: onprem-speech
LAST DEPLOYED: Tue Jul 2 12:51:42 2019
NAMESPACE: default
STATUS: DEPLOYED
RESOURCES:
==> v1/Pod(related)
NAME READY STATUS RESTARTS AGE
speech-to-text-7664f5f465-87w2d 0/1 Pending 0 0s
speech-to-text-7664f5f465-klbr8 0/1 ContainerCreating 0 0s
neural-text-to-speech-56f8fb685b-4jtzh 0/1 ContainerCreating 0 0s
neural-text-to-speech-56f8fb685b-frwxf 0/1 Pending 0 0s
==> v1/Service
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
speech-to-text LoadBalancer 10.0.252.106 <pending> 80:31811/TCP 1s
neural-text-to-speech LoadBalancer 10.0.125.187 <pending> 80:31247/TCP 0s
==> v1beta1/PodDisruptionBudget
NAME MIN AVAILABLE MAX UNAVAILABLE ALLOWED DISRUPTIONS AGE
speech-to-text-poddisruptionbudget N/A 20% 0 1s
neural-text-to-speech-poddisruptionbudget N/A 20% 0 1s
==> v1beta2/Deployment
NAME READY UP-TO-DATE AVAILABLE AGE
speech-to-text 0/2 2 0 0s
neural-text-to-speech 0/2 2 0 0s
==> v2beta2/HorizontalPodAutoscaler
NAME REFERENCE TARGETS MINPODS MAXPODS REPLICAS AGE
speech-to-text-autoscaler Deployment/speech-to-text <unknown>/50% 2 10 0 0s
neural-text-to-speech-autoscaler Deployment/neural-text-to-speech <unknown>/50% 2 10 0 0s
NOTES:
cognitive-services-speech-onpremise has been installed!
Release is named onprem-speech
Ukończenie wdrożenia platformy Kubernetes może potrwać kilka minut. Aby potwierdzić, że zasobniki i usługi są prawidłowo wdrożone i dostępne, wykonaj następujące polecenie:
kubectl get all
Powinny zostać wyświetlone dane wyjściowe podobne do następujących:
NAME READY STATUS RESTARTS AGE
pod/speech-to-text-7664f5f465-87w2d 1/1 Running 0 34m
pod/speech-to-text-7664f5f465-klbr8 1/1 Running 0 34m
pod/neural-text-to-speech-56f8fb685b-4jtzh 1/1 Running 0 34m
pod/neural-text-to-speech-56f8fb685b-frwxf 1/1 Running 0 34m
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
service/kubernetes ClusterIP 10.0.0.1 <none> 443/TCP 3h
service/speech-to-text LoadBalancer 10.0.252.106 52.162.123.151 80:31811/TCP 34m
service/neural-text-to-speech LoadBalancer 10.0.125.187 65.52.233.162 80:31247/TCP 34m
NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE
deployment.apps/speech-to-text 2 2 2 2 34m
deployment.apps/neural-text-to-speech 2 2 2 2 34m
NAME DESIRED CURRENT READY AGE
replicaset.apps/speech-to-text-7664f5f465 2 2 2 34m
replicaset.apps/neural-text-to-speech-56f8fb685b 2 2 2 34m
NAME REFERENCE TARGETS MINPODS MAXPODS REPLICAS AGE
horizontalpodautoscaler.autoscaling/speech-to-text-autoscaler Deployment/speech-to-text 1%/50% 2 10 2 34m
horizontalpodautoscaler.autoscaling/neural-text-to-speech-autoscaler Deployment/neural-text-to-speech 0%/50% 2 10 2 34m
Weryfikowanie wdrożenia programu Helm przy użyciu testów programu Helm
Zainstalowane wykresy programu Helm definiują testy programu Helm, które służą jako wygoda do weryfikacji. Te testy weryfikują gotowość usługi. Aby zweryfikować zarówno zamianę mowy na tekst, jak i tekst na mowę, wykonamy polecenie testowe programu Helm.
helm test onprem-speech
Ważne
Te testy kończą się niepowodzeniem, jeśli stan zasobnika nie Running
jest określony lub jeśli wdrożenie nie znajduje się na liście w kolumnie AVAILABLE
. Bądź cierpliwy, ponieważ może to potrwać ponad dziesięć minut.
Te testy wyprowadźą różne wyniki stanu:
RUNNING: speech to text-readiness-test
PASSED: speech to text-readiness-test
RUNNING: text to speech-readiness-test
PASSED: text to speech-readiness-test
Alternatywą dla wykonywania testów helm może być zbieranie zewnętrznych adresów IP i odpowiednich portów z kubectl get all
polecenia . Korzystając z adresu IP i portu, otwórz przeglądarkę internetową i przejdź do http://<external-ip>:<port>:/swagger/index.html
strony swagger interfejsu API.
Dostosowywanie wykresów programu Helm
Wykresy programu Helm są hierarchiczne. Hierarchiczne umożliwia dziedziczenie wykresu, ale również odpowiada koncepcji specyfiki, gdzie ustawienia, które są bardziej specyficzne dla reguł dziedziczone.
Mowa (wykres parasolowy)
Wartości na wykresie "umbrella" najwyższego poziomu zastępują odpowiednie wartości wykresu podrzędnego. W związku z tym należy tutaj dodać wszystkie niestandardowe wartości lokalne.
Parametr | Opis | Wartość domyślna |
---|---|---|
speechToText.enabled |
Określa, czy usługa zamiany mowy na tekst jest włączona. | true |
speechToText.verification.enabled |
Określa, helm test czy jest włączona funkcja zamiany mowy na tekst . |
true |
speechToText.verification.image.registry |
Repozytorium obrazów platformy Docker, które helm test używa do testowania mowy w usłudze tekstowej . Program Helm tworzy oddzielny zasobnik wewnątrz klastra na potrzeby testowania i ściąga obraz użycia testowego z tego rejestru. |
docker.io |
speechToText.verification.image.repository |
Repozytorium obrazów platformy Docker, które helm test używa do testowania mowy w usłudze tekstowej . Zasobnik testowy programu Helm używa tego repozytorium do ściągania obrazu użycia testowego. |
antsu/on-prem-client |
speechToText.verification.image.tag |
Tag obrazu platformy Docker używany z usługą helm test zamiany mowy na tekst . Zasobnik testowy programu Helm używa tego tagu do ściągania obrazu użycia testowego. |
latest |
speechToText.verification.image.pullByHash |
Czy obraz platformy Docker z użyciem testu jest ściągany przez skrót. speechToText.verification.image.hash Jeśli true element ma zostać dodany, z prawidłową wartością skrótu obrazu. |
false |
speechToText.verification.image.arguments |
Argumenty używane do wykonywania obrazu platformy Docker z użyciem testu. Zasobnik testowy programu Helm przekazuje te argumenty do kontenera podczas uruchamiania polecenia helm test . |
"./speech-to-text-client" "./audio/whatstheweatherlike.wav" "--expect=What's the weather like" "--host=$(SPEECH_TO_TEXT_HOST)" "--port=$(SPEECH_TO_TEXT_PORT)" |
textToSpeech.enabled |
Określa, czy jest włączona usługa zamiany tekstu na mowę . | true |
textToSpeech.verification.enabled |
Określa, helm test czy jest włączona funkcja zamiany mowy na tekst . |
true |
textToSpeech.verification.image.registry |
Repozytorium obrazów platformy Docker, które helm test używa do testowania mowy w usłudze tekstowej . Program Helm tworzy oddzielny zasobnik wewnątrz klastra na potrzeby testowania i ściąga obraz użycia testowego z tego rejestru. |
docker.io |
textToSpeech.verification.image.repository |
Repozytorium obrazów platformy Docker, które helm test używa do testowania mowy w usłudze tekstowej . Zasobnik testowy programu Helm używa tego repozytorium do ściągania obrazu użycia testowego. |
antsu/on-prem-client |
textToSpeech.verification.image.tag |
Tag obrazu platformy Docker używany z usługą helm test zamiany mowy na tekst . Zasobnik testowy programu Helm używa tego tagu do ściągania obrazu użycia testowego. |
latest |
textToSpeech.verification.image.pullByHash |
Czy obraz platformy Docker z użyciem testu jest ściągany przez skrót. textToSpeech.verification.image.hash Jeśli true element ma zostać dodany, z prawidłową wartością skrótu obrazu. |
false |
textToSpeech.verification.image.arguments |
Argumenty do wykonania przy użyciu obrazu platformy Docker z użyciem testu. Zasobnik testowy helm przekazuje te argumenty do kontenera podczas uruchamiania polecenia helm test . |
"./text-to-speech-client" "--input='What's the weather like'" "--host=$(TEXT_TO_SPEECH_HOST)" "--port=$(TEXT_TO_SPEECH_PORT)" |
Zamiana mowy na tekst (wykres podrzędny: charts/speechToText)
Aby zastąpić wykres "parasol", dodaj prefiks speechToText.
dla dowolnego parametru, aby był bardziej szczegółowy. Na przykład zastąpi odpowiedni parametr, speechToText.numberOfConcurrentRequest
na przykład zastępuje numberOfConcurrentRequest
wartość .
Parametr | Opis | Wartość domyślna |
---|---|---|
enabled |
Określa, czy usługa zamiany mowy na tekst jest włączona. | false |
numberOfConcurrentRequest |
Liczba współbieżnych żądań dla usługi zamiany mowy na tekst . Ten wykres automatycznie oblicza zasoby procesora CPU i pamięci na podstawie tej wartości. | 2 |
optimizeForAudioFile |
Określa, czy usługa musi zoptymalizować dane wejściowe audio za pośrednictwem plików audio. Jeśli true ten wykres przydzieli więcej zasobów procesora CPU do usługi. |
false |
image.registry |
Zamiana mowy na tekst rejestru obrazów platformy Docker. | containerpreview.azurecr.io |
image.repository |
Repozytorium obrazów platformy Docker zamiany mowy na tekst . | microsoft/cognitive-services-speech-to-text |
image.tag |
Tag obrazu platformy Docker zamiany mowy na tekst . | latest |
image.pullSecrets |
Wpisy tajne obrazu służące do ściągania mowy na tekst obrazu platformy Docker. | |
image.pullByHash |
Czy obraz platformy Docker jest ściągany przez skrót. Jeśli true parametr image.hash jest wymagany. |
false |
image.hash |
Skrót obrazu platformy Docker zamiany mowy na tekst . Używane tylko wtedy, gdy image.pullByHash: true . |
|
image.args.eula (wymagane) |
Wskazuje, że zaakceptowano licencję. Jedyną prawidłową wartością jest accept |
|
image.args.billing (wymagane) |
Wartość identyfikatora URI punktu końcowego rozliczeń jest dostępna na stronie Omówienie mowy w witrynie Azure Portal. | |
image.args.apikey (wymagane) |
Służy do śledzenia informacji rozliczeniowych. | |
service.type |
Typ usługi Kubernetes dla usługi zamiany mowy na tekst . Zobacz instrukcje dotyczące typów usług Kubernetes, aby uzyskać więcej szczegółów i zweryfikować pomoc techniczną dostawcy usług w chmurze. | LoadBalancer |
service.port |
Port usługi zamiany mowy na tekst . | 80 |
service.annotations |
Zamiana mowy na adnotacje tekstowe metadanych usługi. Adnotacje to pary klucz-wartość. annotations: some/annotation1: value1 some/annotation2: value2 |
|
service.autoScaler.enabled |
Określa, czy narzędzie do automatycznego skalowania zasobnika poziomego jest włączone. Jeśli true element speech-to-text-autoscaler zostanie wdrożony w klastrze Kubernetes. |
true |
service.podDisruption.enabled |
Określa, czy budżet na zakłócenia zasobnika jest włączony. Jeśli true element speech-to-text-poddisruptionbudget zostanie wdrożony w klastrze Kubernetes. |
true |
Analiza tonacji (wykres podrzędny: wykresy/speechToText)
Począwszy od wersji 2.2.0 kontenera mowy na tekst i wykresu Helm w wersji 0.2.0, następujące parametry są używane do analizy tonacji przy użyciu interfejsu API usługi językowej.
Parametr | Opis | Wartości | Wartość domyślna |
---|---|---|---|
textanalytics.enabled |
Czy usługa analizy tekstu jest włączona | prawda/fałsz | false |
textanalytics.image.registry |
Rejestr obrazów platformy Docker analizy tekstu | prawidłowy rejestr obrazów platformy Docker | |
textanalytics.image.repository |
Repozytorium obrazów platformy Docker analizy tekstu | prawidłowe repozytorium obrazów platformy Docker | |
textanalytics.image.tag |
Tag obrazu platformy Docker analizy tekstu | prawidłowy tag obrazu platformy Docker | |
textanalytics.image.pullSecrets |
Wpisy tajne obrazu służące do ściągania obrazu platformy Docker analizy tekstu | prawidłowa nazwa wpisów tajnych | |
textanalytics.image.pullByHash |
Określa, czy ściągasz obraz platformy Docker według skrótu. image.hash Jeśli yes parametr jest również wymagany do posiadania. Jeśli no wartość , ustaw ją na wartość "false". Wartość domyślna to false . |
prawda/fałsz | false |
textanalytics.image.hash |
Skrót obrazu platformy Docker analizy tekstu. Należy używać go tylko z image.pullByHash:true . |
prawidłowy skrót obrazu platformy Docker | |
textanalytics.image.args.eula |
Jeden z wymaganych argumentów kontenera analizy tekstu , który wskazuje, że zaakceptowano licencję. Wartość tej opcji musi być następująca: accept . |
accept , jeśli chcesz użyć kontenera |
|
textanalytics.image.args.billing |
Jeden z wymaganych argumentów kontenera analizy tekstu , który określa identyfikator URI punktu końcowego rozliczeń. Wartość identyfikatora URI punktu końcowego rozliczeń jest dostępna na stronie Omówienie mowy w witrynie Azure Portal. | prawidłowy identyfikator URI punktu końcowego rozliczeń | |
textanalytics.image.args.apikey |
Jeden z wymaganych argumentów kontenera analizy tekstu , który służy do śledzenia informacji rozliczeniowych. | prawidłowy klucz apikey | |
textanalytics.cpuRequest |
Żądany procesor CPU dla kontenera analizy tekstu | int | 3000m |
textanalytics.cpuLimit |
Ograniczony procesor CPU dla kontenera analizy tekstu | 8000m |
|
textanalytics.memoryRequest |
Żądana pamięć dla kontenera analizy tekstu | 3Gi |
|
textanalytics.memoryLimit |
Ograniczona pamięć kontenera analizy tekstu | 8Gi |
|
textanalytics.service.sentimentURISuffix |
Sufiks identyfikatora URI analizy tonacji cały identyfikator URI ma format "http://<service> :<port> /<sentimentURISuffix> ". |
text/analytics/v3.0-preview/sentiment |
|
textanalytics.service.type |
Typ usługi analizy tekstu na platformie Kubernetes. Zobacz Typy usługi Kubernetes | prawidłowy typ usługi Kubernetes | LoadBalancer |
textanalytics.service.port |
Port usługi analizy tekstu | int | 50085 |
textanalytics.service.annotations |
Adnotacje, które użytkownicy mogą dodawać do metadanych usługi analizy tekstu. Przykład: Adnotacje: niektóre/adnotacja1: wartość1 niektóre/adnotacje2: value2 |
adnotacje, po jednym na każdy wiersz | |
textanalytics.serivce.autoScaler.enabled |
Określa, czy funkcja skalowania automatycznego zasobnika poziomego jest włączona. Jeśli ta opcja jest włączona, text-analytics-autoscaler zostanie wdrożona w klastrze Kubernetes |
prawda/fałsz | true |
textanalytics.service.podDisruption.enabled |
Czy budżet na zakłócenia zasobnika jest włączony. Jeśli ta opcja jest włączona, text-analytics-poddisruptionbudget zostanie wdrożona w klastrze Kubernetes |
prawda/fałsz | true |
Zamiana tekstu na mowę (wykres podrzędny: wykresy/tekstToSpeech)
Aby zastąpić wykres "parasol", dodaj prefiks textToSpeech.
dla dowolnego parametru, aby był bardziej szczegółowy. Na przykład zastąpi odpowiedni parametr, textToSpeech.numberOfConcurrentRequest
na przykład zastępuje numberOfConcurrentRequest
wartość .
Parametr | Opis | Wartość domyślna |
---|---|---|
enabled |
Określa, czy jest włączona usługa zamiany tekstu na mowę . | false |
numberOfConcurrentRequest |
Liczba współbieżnych żądań dla usługi zamiany tekstu na mowę. Ten wykres automatycznie oblicza zasoby procesora CPU i pamięci na podstawie tej wartości. | 2 |
optimizeForTurboMode |
Czy usługa musi być zoptymalizowana pod kątem wprowadzania tekstu za pośrednictwem plików tekstowych. Jeśli true ten wykres przydzieli więcej zasobów procesora CPU do usługi. |
false |
image.registry |
Tekst rejestru obrazów platformy Docker docker. | containerpreview.azurecr.io |
image.repository |
Tekst w repozytorium obrazów platformy Docker mowy . | microsoft/cognitive-services-text-to-speech |
image.tag |
Tag obrazu platformy Docker zamiany tekstu na mowę . | latest |
image.pullSecrets |
Wpisy tajne obrazu służące do ściągania tekstu do obrazu platformy Docker mowy . | |
image.pullByHash |
Czy obraz platformy Docker jest ściągany przez skrót. Jeśli true parametr image.hash jest wymagany. |
false |
image.hash |
Skrót obrazu platformy Docker zamiany tekstu na mowę . Używane tylko wtedy, gdy image.pullByHash: true . |
|
image.args.eula (wymagane) |
Wskazuje, że zaakceptowano licencję. Jedyną prawidłową wartością jest accept |
|
image.args.billing (wymagane) |
Wartość identyfikatora URI punktu końcowego rozliczeń jest dostępna na stronie Omówienie mowy w witrynie Azure Portal. | |
image.args.apikey (wymagane) |
Służy do śledzenia informacji rozliczeniowych. | |
service.type |
Typ usługi Kubernetes dla usługi zamiany tekstu na mowę. Zobacz instrukcje dotyczące typów usług Kubernetes, aby uzyskać więcej szczegółów i zweryfikować pomoc techniczną dostawcy usług w chmurze. | LoadBalancer |
service.port |
Port usługi zamiany tekstu na mowę. | 80 |
service.annotations |
Tekst adnotacji mowy dla metadanych usługi. Adnotacje to pary klucz-wartość. annotations: some/annotation1: value1 some/annotation2: value2 |
|
service.autoScaler.enabled |
Określa, czy narzędzie do automatycznego skalowania zasobnika poziomego jest włączone. Jeśli true element text-to-speech-autoscaler zostanie wdrożony w klastrze Kubernetes. |
true |
service.podDisruption.enabled |
Określa, czy budżet na zakłócenia zasobnika jest włączony. Jeśli true element text-to-speech-poddisruptionbudget zostanie wdrożony w klastrze Kubernetes. |
true |
Następne kroki
Aby uzyskać więcej informacji na temat instalowania aplikacji za pomocą programu Helm w usłudze Azure Kubernetes Service (AKS), odwiedź tutaj.