Spracherkennung-REST-API
Die Spracherkennung-REST-API wird für die Batch-Transkription und für Custom Speech verwendet.
Wichtig
Die Spracherkennung-REST-API v3.1 ist allgemein verfügbar. Die Version 3.0 der Spracherkennung-REST-API wird eingestellt. Weitere Informationen finden Sie im Leitfaden Migrieren von Code von v3.0 zu v3.1 der REST-API.
Verwenden Sie die Spracherkennung-REST-API für Folgendes:
- Custom Speech: Mit Custom Speech können Sie eigene Daten hochladen, ein benutzerdefiniertes Modell testen und trainieren, die Genauigkeit zwischen Modellen vergleichen und ein Modell an einem benutzerdefinierten Endpunkt bereitstellen. Kopieren von Modellen in andere Abonnements, wenn Sie möchten, dass Kollegen Zugriff auf ein von Ihnen erstelltes Modell haben oder wenn Sie ein Modell in mehreren Regionen bereitstellen möchten.
- Batch-Transkription: Transkribieren Sie Audiodateien als Batch aus mehreren URLs oder aus einem Azure-Container.
Die Spracherkennung-REST-API umfasst Features wie:
- Abrufen von Protokollen für jeden Endpunkt, wenn für den betreffenden Endpunkt Protokolle angefordert wurden.
- Anfordern des Manifests für die von Ihnen erstellten Modelle, um lokale Container einzurichten.
- Hochladen von Daten aus Azure-Speicherkonten mithilfe eines SAS-URI (Shared Access Signature).
- Verwenden von eigenem Speicher (Bring Your Own Storage, BYOS): Verwenden Sie Ihre eigenen Speicherkonten für Protokolle, Transkriptionsdateien und andere Daten.
- Einige Vorgänge unterstützen Webhook-Benachrichtigungen. Sie können Ihre Webhooks dort registrieren, wo Benachrichtigungen gesendet werden.
Datasets
Datasets können für Custom Speech genutzt werden. Sie können Datasets verwenden, um verschiedene Modelle zu trainieren und ihre Leistung zu testen. So können Sie beispielsweise die Leistung eines Modells, das mit einem bestimmten Dataset trainiert wurde, mit der Leistung eines Modells vergleichen, das mit einem anderen Dataset trainiert wurde.
Beispiele zum Hochladen von Datasets finden Sie unter Hochladen von Trainings- und Testdatasets für Custom Speech. Die folgende Tabelle enthält alle Vorgänge, die Sie für Datasets ausführen können:
Pfad | Methode | Version 3.1 | Version 3.0 |
---|---|---|---|
/datasets |
GET | Datasets_List | GetDatasets |
/datasets |
POST | Datasets_Create | CreateDataflow |
/datasets/{id} |
Delete | Datasets_Delete | DeleteDataset |
/datasets/{id} |
GET | Datasets_Get | GetDataset |
/datasets/{id} |
PATCH | Datasets_Update | UpdateDataset |
/datasets/{id}/blocks:commit |
POST | Datasets_CommitBlocks | Nicht verfügbar |
/datasets/{id}/blocks |
GET | Datasets_GetBlocks | Nicht verfügbar |
/datasets/{id}/blocks |
PUT | Datasets_UploadBlock | Nicht verfügbar |
/datasets/{id}/files |
GET | Datasets_ListFiles | GetDatasetFiles |
/datasets/{id}/files/{fileId} |
GET | Datasets_GetFile | GetDatasetFile |
/datasets/locales |
GET | Datasets_ListSupportedLocales | GetSupportedLocalesForDatasets |
/datasets/upload |
POST | Datasets_Upload | UploadDatasetFromForm |
Endpunkte
Endpunkte können für Custom Speech genutzt werden. Sie müssen einen benutzerdefinierten Endpunkt bereitstellen, um ein Custom Speech-Modell verwenden zu können.
Beispiele für die Verwaltung von Bereitstellungsendpunkten finden Sie unter Bereitstellen eines Custom Speech-Modells. Die folgende Tabelle enthält alle Vorgänge, die Sie für Endpunkte ausführen können:
Auswertungen
Auswertungen können für Custom Speech genutzt werden. Sie können Auswertungen verwenden, um die Leistung verschiedener Modelle zu vergleichen. So können Sie beispielsweise die Leistung eines Modells, das mit einem bestimmten Dataset trainiert wurde, mit der Leistung eines Modells vergleichen, das mit einem anderen Dataset trainiert wurde.
Beispiele für das Testen und Auswerten von Custom Speech-Modellen finden Sie unter Testen der Erkennungsqualität eines Custom Speech-Modells sowie unter Testgenauigkeit eines Custom Speech-Modells. Die folgende Tabelle enthält alle Vorgänge, die Sie für Auswertungen ausführen können:
Pfad | Methode | Version 3.1 | Version 3.0 |
---|---|---|---|
/evaluations |
GET | Evaluations_List | GetEvaluations |
/evaluations |
POST | Evaluations_Create | CreateEvaluation |
/evaluations/{id} |
Delete | Evaluations_Delete | DeleteEvaluation |
/evaluations/{id} |
GET | Evaluations_Get | GetEvaluation |
/evaluations/{id} |
PATCH | Evaluations_Update | UpdateEvaluation |
/evaluations/{id}/files |
GET | Evaluations_ListFiles | GetEvaluationFiles |
/evaluations/{id}/files/{fileId} |
GET | Evaluations_GetFile | GetEvaluationFile |
/evaluations/locales |
GET | Evaluations_ListSupportedLocales | GetSupportedLocalesForEvaluations |
Integritätsstatus
Der Integritätsstatus gibt Aufschluss über die allgemeine Integrität des Diensts und der Unterkomponenten.
Pfad | Methode | Version 3.1 | Version 3.0 |
---|---|---|---|
/healthstatus |
GET | HealthStatus_Get | GetHealthStatus |
Modelle
Modelle können für Custom Speech und für die Batch-Transkription verwendet werden. Sie können Modelle verwenden, um Audiodateien zu transkribieren. So können Sie beispielsweise Audiodateien unter Verwendung eines Modells transkribieren, das mit einem bestimmten Dataset trainiert wurde.
Weitere Informationen zum Trainieren und Verwalten von Custom Speech-Modellen finden Sie unter Trainieren eines Custom Speech-Modells sowie unter Lebenszyklus eines Custom Speech-Modells. Die folgende Tabelle enthält alle Vorgänge, die Sie für Modelle ausführen können:
Pfad | Methode | Version 3.1 | Version 3.0 |
---|---|---|---|
/models |
GET | Models_ListCustomModels | GetModels |
/models |
POST | Models_Create | CreateModel |
/models/{id}:copyto 1 |
POST | Models_CopyTo | CopyModelToSubscription |
/models/{id} |
Delete | Models_Delete | DeleteModel |
/models/{id} |
GET | Models_GetCustomModel | GetModel |
/models/{id} |
PATCH | Models_Update | UpdateModel |
/models/{id}/files |
GET | Models_ListFiles | Nicht verfügbar |
/models/{id}/files/{fileId} |
GET | Models_GetFile | Nicht verfügbar |
/models/{id}/manifest |
GET | Models_GetCustomModelManifest | GetModelManifest |
/models/base |
GET | Models_ListBaseModels | GetBaseModels |
/models/base/{id} |
GET | Models_GetBaseModel | GetBaseModel |
/models/base/{id}/manifest |
GET | Models_GetBaseModelManifest | GetBaseModelManifest |
/models/locales |
GET | Models_ListSupportedLocales | GetSupportedLocalesForModels |
Projekte
Projekte können für Custom Speech genutzt werden. Custom Speech-Projekte enthalten Modelle, Trainings- und Testdatasets sowie Bereitstellungsendpunkte. Jedes Projekt ist für ein Gebietsschema spezifisch. Sie können beispielsweise ein Projekt für das Englisch in den USA erstellen.
Beispiele für das Erstellen von Projekten finden Sie unter Erstellen eines Custom Speech-Projekts. Die folgende Tabelle enthält alle Vorgänge, die Sie für Projekte ausführen können:
Pfad | Methode | Version 3.1 | Version 3.0 |
---|---|---|---|
/projects |
GET | Projects_List | GetProjects |
/projects |
POST | Projects_Create | CreateProject |
/projects/{id} |
DELETE | Projects_Delete | DeleteProject |
/projects/{id} |
GET | Projects_Get | GetProject |
/projects/{id} |
PATCH | Projects_Update | UpdateProject |
/projects/{id}/datasets |
GET | Projects_ListDatasets | GetDatasetsForProject |
/projects/{id}/endpoints |
GET | Projects_ListEndpoints | GetEndpointsForProject |
/projects/{id}/evaluations |
GET | Projects_ListEvaluations | GetEvaluationsForProject |
/projects/{id}/models |
GET | Projects_ListModels | GetModelsForProject |
/projects/{id}/transcriptions |
GET | Projects_ListTranscriptions | GetTranscriptionsForProject |
/projects/locales |
GET | Projects_ListSupportedLocales | GetSupportedProjectLocales |
Transkriptionen
Transkriptionen können für die Batch-Transkription verwendet werden. Die Batch-Transkription wird für die Transkription großer Mengen an Audiomaterial im Speicher verwendet. Sie sollten mehrere Dateien pro Anforderung senden oder auf einen Azure Blob Storage-Container mit den zu transkribierenden Audiodateien verweisen.
Beispiele für das Erstellen einer Transkription aus mehreren Audiodateien finden Sie unter Erstellen einer Batch-Transkription. Die folgende Tabelle enthält alle Vorgänge, die Sie für Transkriptionen ausführen können:
Pfad | Methode | Version 3.1 | Version 3.0 |
---|---|---|---|
/transcriptions |
GET | Transcriptions_List | GetTranscriptions |
/transcriptions |
POST | Transcriptions_Create | CreateTranscription |
/transcriptions/{id} |
DELETE | Transcriptions_Delete | DeleteTranscription |
/transcriptions/{id} |
GET | Transcriptions_Get | GetTranscription |
/transcriptions/{id} |
PATCH | Transcriptions_Update | UpdateTranscription |
/transcriptions/{id}/files |
GET | Transcriptions_ListFiles | GetTranscriptionFiles |
/transcriptions/{id}/files/{fileId} |
GET | Transcriptions_GetFile | GetTranscriptionFile |
/transcriptions/locales |
GET | Transcriptions_ListSupportedLocales | GetSupportedLocalesForTranscriptions |
Webhooks
Webhooks können für Custom Speech und für die Batch-Transkription verwendet werden. Webhooks sind insbesondere für Datasets, Endpunkte, Auswertungen, Modelle und Transkriptionen relevant. Webhooks können verwendet werden, um Benachrichtigungen zu Erstellungs-, Verarbeitungs-, Abschluss- und Löschereignissen zu erhalten.
Die folgende Tabelle enthält alle Webhookvorgänge, die mit der Spracherkennung-REST-API verfügbar sind.
Pfad | Methode | Version 3.1 | Version 3.0 |
---|---|---|---|
/webhooks |
GET | WebHooks_List | GetHooks |
/webhooks |
POST | WebHooks_Create | CreateHook |
/webhooks/{id}:ping /webhooks/{id}:ping |
POST | WebHooks_Ping | PingHook |
/webhooks/{id}:test 2 |
POST | WebHooks_Test | TestHook |
/webhooks/{id} |
DELETE | WebHooks_Delete | DeleteHook |
/webhooks/{id} |
GET | WebHooks_Get | GetHook |
/webhooks/{id} |
PATCH | WebHooks_Update | UpdateHook |
1 Der Vorgang /webhooks/{id}/ping
(mit „/“) aus der Version 3.0 wird in der Version 3.1 durch den Vorgang /webhooks/{id}:ping
(mit „:“) ersetzt.
2 Der Vorgang /webhooks/{id}/test
(mit „/“) aus der Version 3.0 wird in der Version 3.1 durch den Vorgang /webhooks/{id}:test
(mit „:“) ersetzt.