Wdrażanie niestandardowego modelu mowy
Z tego artykułu dowiesz się, jak wdrożyć punkt końcowy dla niestandardowego modelu mowy. Z wyjątkiem transkrypcji wsadowej należy wdrożyć niestandardowy punkt końcowy, aby użyć niestandardowego modelu mowy.
Napiwek
Hostowany punkt końcowy wdrożenia nie jest wymagany do używania mowy niestandardowej z interfejsem API transkrypcji usługi Batch. Zasoby można oszczędzać, jeśli niestandardowy model mowy jest używany tylko do transkrypcji wsadowej. Aby uzyskać więcej informacji, zobacz Cennik usługi Mowa.
Punkt końcowy można wdrożyć dla modelu podstawowego lub niestandardowego, a następnie zaktualizować punkt końcowy później, aby użyć lepiej wytrenowanego modelu.
Uwaga
Punkty końcowe używane przez F0
zasoby usługi Mowa są usuwane po siedmiu dniach.
Dodawanie punktu końcowego wdrożenia
Aby utworzyć niestandardowy punkt końcowy, wykonaj następujące kroki:
Zaloguj się do programu Speech Studio.
Wybierz pozycję Mowa> niestandardowa Nazwa >projektu Wdróż modele.
Jeśli jest to pierwszy punkt końcowy, zauważysz, że w tabeli nie ma punktów końcowych. Po utworzeniu punktu końcowego użyj tej strony do śledzenia poszczególnych wdrożonych punktów końcowych.
Wybierz pozycję Wdróż model , aby uruchomić kreatora nowego punktu końcowego.
Na stronie Nowy punkt końcowy wprowadź nazwę i opis niestandardowego punktu końcowego.
Wybierz model niestandardowy, który chcesz skojarzyć z tym punktem końcowym.
Opcjonalnie możesz zaznaczyć to pole wyboru, aby włączyć rejestrowanie audio i diagnostyczne ruchu punktu końcowego.
Wybierz pozycję Dodaj , aby zapisać i wdrożyć punkt końcowy.
Na stronie głównej Wdrażanie modeli szczegółowe informacje o nowym punkcie końcowym są wyświetlane w tabeli, takie jak nazwa, opis, stan i data wygaśnięcia. Utworzenie wystąpienia nowego punktu końcowego korzystającego z modeli niestandardowych może potrwać do 30 minut. Gdy stan wdrożenia zmieni się na Powodzenie, punkt końcowy jest gotowy do użycia.
Ważne
Zanotuj datę wygaśnięcia modelu. Jest to ostatnia data, w której można użyć modelu niestandardowego do rozpoznawania mowy. Aby uzyskać więcej informacji, zobacz Cykl życia modelu i punktu końcowego.
Wybierz link punktu końcowego, aby wyświetlić informacje specyficzne dla niego, takie jak klucz punktu końcowego, adres URL punktu końcowego i przykładowy kod.
Aby utworzyć punkt końcowy i wdrożyć model, użyj spx csr endpoint create
polecenia . Skonstruuj parametry żądania zgodnie z następującymi instrukcjami:
project
Ustaw parametr na identyfikator istniejącego projektu. Jest to zalecane, aby można było również wyświetlać punkt końcowy i zarządzać nim w programie Speech Studio. Możesz uruchomić polecenie ,spx csr project list
aby uzyskać dostępne projekty.- Ustaw wymagany
model
parametr na identyfikator modelu, który ma zostać wdrożony w punkcie końcowym. - Ustaw wymagany
language
parametr. Ustawienia regionalne punktu końcowego muszą być zgodne z ustawieniami regionalnymi modelu. Nie można później zmienić ustawień regionalnych. Parametr interfejsulocale
wiersza polecenialanguage
usługi Mowa odpowiada właściwości w żądaniu i odpowiedzi w formacie JSON. - Ustaw wymagany
name
parametr. Jest to nazwa wyświetlana w programie Speech Studio. Parametr interfejsudisplayName
wiersza polecenianame
usługi Mowa odpowiada właściwości w żądaniu i odpowiedzi w formacie JSON. - Opcjonalnie można ustawić
logging
parametr . Ustaw tę opcję, abyenabled
włączyć rejestrowanie audio i diagnostyczne ruchu punktu końcowego. Wartość domyślna tofalse
.
Oto przykładowe polecenie interfejsu wiersza polecenia usługi Mowa służące do tworzenia punktu końcowego i wdrażania modelu:
spx csr endpoint create --api-version v3.2 --project YourProjectId --model YourModelId --name "My Endpoint" --description "My Endpoint Description" --language "en-US"
Treść odpowiedzi powinna zostać wyświetlona w następującym formacie:
{
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/9e240dc1-3d2d-4ac9-98ec-1be05ba0e9dd"
},
"links": {
"logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
"restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37"
},
"project": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/0198f569-cc11-4099-a0e8-9d55bc3d0c52"
},
"properties": {
"loggingEnabled": true
},
"lastActionDateTime": "2024-07-15T16:29:36Z",
"status": "NotStarted",
"createdDateTime": "2024-07-15T16:29:36Z",
"locale": "en-US",
"displayName": "My Endpoint",
"description": "My Endpoint Description"
}
Właściwość najwyższego poziomu self
w treści odpowiedzi to identyfikator URI punktu końcowego. Użyj tego identyfikatora URI, aby uzyskać szczegółowe informacje o projekcie, modelu i dziennikach punktu końcowego. Ten identyfikator URI służy również do aktualizowania punktu końcowego.
Aby uzyskać pomoc dotyczącą interfejsu wiersza polecenia usługi Mowa w punktach końcowych, uruchom następujące polecenie:
spx help csr endpoint
Aby utworzyć punkt końcowy i wdrożyć model, użyj operacji Endpoints_Create interfejsu API REST zamiany mowy na tekst. Skonstruuj treść żądania zgodnie z następującymi instrukcjami:
project
Ustaw właściwość na identyfikator URI istniejącego projektu. Jest to zalecane, aby można było również wyświetlać punkt końcowy i zarządzać nim w programie Speech Studio. Możesz wysłać żądanie Projects_List , aby uzyskać dostępne projekty.- Ustaw właściwość wymaganą
model
na identyfikator URI modelu, który ma zostać wdrożony w punkcie końcowym. - Ustaw wymaganą
locale
właściwość. Ustawienia regionalne punktu końcowego muszą być zgodne z ustawieniami regionalnymi modelu. Nie można później zmienić ustawień regionalnych. - Ustaw wymaganą
displayName
właściwość. Jest to nazwa wyświetlana w programie Speech Studio. - Opcjonalnie można ustawić
loggingEnabled
właściwość w obiekcieproperties
. Ustaw tę opcję, abytrue
włączyć rejestrowanie audio i diagnostyczne ruchu punktu końcowego. Wartość domyślna tofalse
.
Utwórz żądanie HTTP POST przy użyciu identyfikatora URI, jak pokazano w poniższym przykładzie Endpoints_Create . Zastąp YourSubscriptionKey
ciąg kluczem zasobu usługi Mowa, zastąp YourServiceRegion
element regionem zasobu usługi Mowa i ustaw właściwości treści żądania zgodnie z wcześniejszym opisem.
curl -v -X POST -H "Ocp-Apim-Subscription-Key: YourSubscriptionKey" -H "Content-Type: application/json" -d '{
"project": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/0198f569-cc11-4099-a0e8-9d55bc3d0c52"
},
"properties": {
"loggingEnabled": true
},
"displayName": "My Endpoint",
"description": "My Endpoint Description",
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/base/ae8d1643-53e4-4554-be4c-221dcfb471c5"
},
"locale": "en-US",
}' "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints"
Treść odpowiedzi powinna zostać wyświetlona w następującym formacie:
{
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/9e240dc1-3d2d-4ac9-98ec-1be05ba0e9dd"
},
"links": {
"logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
"restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37"
},
"project": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/0198f569-cc11-4099-a0e8-9d55bc3d0c52"
},
"properties": {
"loggingEnabled": true
},
"lastActionDateTime": "2024-07-15T16:29:36Z",
"status": "NotStarted",
"createdDateTime": "2024-07-15T16:29:36Z",
"locale": "en-US",
"displayName": "My Endpoint",
"description": "My Endpoint Description"
}
Właściwość najwyższego poziomu self
w treści odpowiedzi to identyfikator URI punktu końcowego. Użyj tego identyfikatora URI, aby uzyskać szczegółowe informacje o projekcie, modelu i dziennikach punktu końcowego. Ten identyfikator URI służy również do aktualizowania lub usuwania punktu końcowego.
Zmienianie modelu i ponowne wdrażanie punktu końcowego
Punkt końcowy można zaktualizować tak, aby używał innego modelu utworzonego przez ten sam zasób usługi Mowa. Jak wspomniano wcześniej, należy zaktualizować model punktu końcowego przed wygaśnięciem modelu.
Aby użyć nowego modelu i ponownie wdrożyć niestandardowy punkt końcowy:
- Zaloguj się do programu Speech Studio.
- Wybierz pozycję Mowa> niestandardowa Nazwa >projektu Wdróż modele.
- Wybierz link do punktu końcowego według nazwy, a następnie wybierz pozycję Zmień model.
- Wybierz nowy model, którego chcesz użyć punktu końcowego.
- Wybierz pozycję Gotowe , aby zapisać i ponownie wdrożyć punkt końcowy.
Aby ponownie wdrożyć niestandardowy punkt końcowy przy użyciu nowego modelu, użyj spx csr model update
polecenia . Skonstruuj parametry żądania zgodnie z następującymi instrukcjami:
- Ustaw wymagany
endpoint
parametr na identyfikator punktu końcowego, który chcesz wdrożyć. - Ustaw wymagany
model
parametr na identyfikator modelu, który ma zostać wdrożony w punkcie końcowym.
Oto przykładowe polecenie interfejsu wiersza polecenia usługi Mowa, które ponownie wdraża niestandardowy punkt końcowy przy użyciu nowego modelu:
spx csr endpoint update --api-version v3.2 --endpoint YourEndpointId --model YourModelId
Treść odpowiedzi powinna zostać wyświetlona w następującym formacie:
{
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/9e240dc1-3d2d-4ac9-98ec-1be05ba0e9dd"
},
"links": {
"logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
"restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37"
},
"project": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/0198f569-cc11-4099-a0e8-9d55bc3d0c52"
},
"properties": {
"loggingEnabled": true
},
"lastActionDateTime": "2024-07-15T16:30:12Z",
"status": "Succeeded",
"createdDateTime": "2024-07-15T16:29:36Z",
"locale": "en-US",
"displayName": "My Endpoint",
"description": "My Endpoint Description"
}
Aby uzyskać pomoc dotyczącą interfejsu wiersza polecenia usługi Mowa w punktach końcowych, uruchom następujące polecenie:
spx help csr endpoint
Aby ponownie wdrożyć niestandardowy punkt końcowy przy użyciu nowego modelu, użyj Endpoints_Update operacji zamiany mowy na tekst interfejsu API REST. Skonstruuj treść żądania zgodnie z następującymi instrukcjami:
model
Ustaw właściwość na identyfikator URI modelu, który ma zostać wdrożony w punkcie końcowym.
Utwórz żądanie HTTP PATCH przy użyciu identyfikatora URI, jak pokazano w poniższym przykładzie. Zastąp YourSubscriptionKey
ciąg kluczem zasobu usługi Mowa, zastąp element regionem zasobu usługi Mowa, zastąp YourServiceRegion
YourEndpointId
element identyfikatorem punktu końcowego i ustaw właściwości treści żądania zgodnie z wcześniejszym opisem.
curl -v -X PATCH -H "Ocp-Apim-Subscription-Key: YourSubscriptionKey" -H "Content-Type: application/json" -d '{
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/9e240dc1-3d2d-4ac9-98ec-1be05ba0e9dd"
},
}' "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId"
Treść odpowiedzi powinna zostać wyświetlona w następującym formacie:
{
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/9e240dc1-3d2d-4ac9-98ec-1be05ba0e9dd"
},
"links": {
"logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
"restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37"
},
"project": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/0198f569-cc11-4099-a0e8-9d55bc3d0c52"
},
"properties": {
"loggingEnabled": true
},
"lastActionDateTime": "2024-07-15T16:30:12Z",
"status": "Succeeded",
"createdDateTime": "2024-07-15T16:29:36Z",
"locale": "en-US",
"displayName": "My Endpoint",
"description": "My Endpoint Description"
}
Ponowne wdrożenie trwa kilka minut. W międzyczasie punkt końcowy używa poprzedniego modelu bez przerwy w działaniu usługi.
Wyświetlanie danych rejestrowania
Dane rejestrowania są dostępne do eksportowania, jeśli zostały skonfigurowane podczas tworzenia punktu końcowego.
Aby pobrać dzienniki punktu końcowego:
- Zaloguj się do programu Speech Studio.
- Wybierz pozycję Mowa> niestandardowa Nazwa >projektu Wdróż modele.
- Wybierz link według nazwy punktu końcowego.
- W obszarze Rejestrowanie zawartości wybierz pozycję Pobierz dziennik.
Aby uzyskać dzienniki dla punktu końcowego, użyj spx csr endpoint list
polecenia . Skonstruuj parametry żądania zgodnie z następującymi instrukcjami:
- Ustaw wymagany
endpoint
parametr na identyfikator punktu końcowego, który chcesz pobrać dzienniki.
Oto przykładowe polecenie interfejsu wiersza polecenia usługi Mowa, które pobiera dzienniki dla punktu końcowego:
spx csr endpoint list --api-version v3.2 --endpoint YourEndpointId
Lokalizacje każdego pliku dziennika zawierające więcej szczegółów są zwracane w treści odpowiedzi.
Aby uzyskać dzienniki dla punktu końcowego, zacznij od użycia Endpoints_Get operacji interfejsu API REST zamiany mowy na tekst.
Utwórz żądanie HTTP GET przy użyciu identyfikatora URI, jak pokazano w poniższym przykładzie. Zastąp YourEndpointId
ciąg swoim identyfikatorem punktu końcowego, zastąp YourSubscriptionKey
ciąg kluczem zasobu usługi Mowa i zastąp YourServiceRegion
element regionem zasobu usługi Mowa.
curl -v -X GET "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId" -H "Ocp-Apim-Subscription-Key: YourSubscriptionKey"
Treść odpowiedzi powinna zostać wyświetlona w następującym formacie:
{
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/9e240dc1-3d2d-4ac9-98ec-1be05ba0e9dd"
},
"links": {
"logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
"restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37"
},
"project": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/0198f569-cc11-4099-a0e8-9d55bc3d0c52"
},
"properties": {
"loggingEnabled": true
},
"lastActionDateTime": "2024-07-15T16:30:12Z",
"status": "Succeeded",
"createdDateTime": "2024-07-15T16:29:36Z",
"locale": "en-US",
"displayName": "My Endpoint",
"description": "My Endpoint Description"
}
Utwórz żądanie HTTP GET przy użyciu identyfikatora URI "logs" z poprzedniej treści odpowiedzi. Zastąp YourEndpointId
ciąg swoim identyfikatorem punktu końcowego, zastąp YourSubscriptionKey
ciąg kluczem zasobu usługi Mowa i zastąp YourServiceRegion
element regionem zasobu usługi Mowa.
curl -v -X GET "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId/files/logs" -H "Ocp-Apim-Subscription-Key: YourSubscriptionKey"
Lokalizacje każdego pliku dziennika zawierające więcej szczegółów są zwracane w treści odpowiedzi.
Dane rejestrowania są dostępne w magazynie należącym do firmy Microsoft przez 30 dni, a następnie są usuwane. Jeśli twoje własne konto magazynu jest połączone z subskrypcją usług Azure AI, dane rejestrowania nie zostaną automatycznie usunięte.