Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Die Azure Content Understanding-API hat die allgemeine Verfügbarkeit (GA) erreicht. Es führt mehrere neue Funktionen und Updates für Features ein, die in früheren Vorschau-API-Versionen veröffentlicht wurden. Auf der Seite Neuigkeiten finden Sie eine Übersicht über alle Änderungen in der 2025-11-01 Content Understanding-API-GA-Version.
In diesem Artikel werden Änderungen erläutert, die zum Migrieren von Analyzern und Anwendungen erforderlich sind, die mit einer der Vorschau-API-Versionen erstellt wurden (2024-12-01 preview und 2025-05-01 preview).
Voraussetzungen
Richten Sie Standardmodellbereitstellungen für Ihre Ressource für Inhaltsverständnis ein. Durch das Festlegen von Standardeinstellungen erstellen Sie eine Verbindung zu den Microsoft Foundry-Modellen, die Sie für Inhaltsverständnisanfragen verwenden. Wählen Sie eine der folgenden Methoden:
Wechseln Sie zur Seite "Inhaltsverständniseinstellungen".
Wählen Sie oben links die Schaltfläche "+Ressource hinzufügen " aus.
Wählen Sie die Foundry-Ressource aus, die Sie verwenden möchten, und wählen Sie "Nächstes Speichern">aus.
Stellen Sie sicher, dass das Kontrollkästchen "Automatische Bereitstellung für erforderliche Modelle aktivieren" aktiviert ist, wenn keine Standardeinstellungen verfügbar sind . Diese Auswahl stellt sicher, dass Ihre Ressource vollständig mit den erforderlichen
GPT-4.1,GPT-4.1-miniundtext-embedding-3-largeModellen eingerichtet ist. Für unterschiedliche vorkonfigurierte Analysegeräte sind unterschiedliche Modelle erforderlich.
Indem Sie diese Schritte ausführen, richten Sie eine Verbindung zwischen Inhaltsverständnis- und Foundry-Modellen in Ihrer Foundry-Ressource ein.
Aktualisieren von Analysatoren
Um Ihre vorhandenen Analysegeräte zu aktualisieren, empfehlen wir, diesen dreistufigen Prozess zu befolgen.
Schritt 1: Abrufen der Analysedefinition
Rufen Sie die Analysedefinition ab, indem Sie Folgendes aufrufen:
GET /analyzers/{analyzerName}
Die Analysedefinition sieht möglicherweise wie folgt aus, wenn sie mit der 2025-05-01-preview API erstellt wurde.
{
"analyzerId": "my-custom-invoice-analyzer",
"description": "Extracts vendor information, line items, and totals from commercial invoices",
"baseAnalyzerId": "prebuilt-documentSearch",
"config": {
/*...*/
},
"fieldSchema": {/*...*/}
}
Schritt 2: Aktualisieren der Analysedefinition für die GA-API
Nehmen Sie die folgenden Änderungen vor, damit die Analyse mit der GA-API funktioniert.
Fügen Sie die
baseAnalyzerIdEigenschaft auf der obersten Ebene der Analysedefinition hinzu, oder aktualisieren Sie sie, und legen Sie sie auf einen der unterstützten Werte fest:prebuilt-document, , ,prebuilt-audioprebuilt-videooderprebuilt-image. Wählen Sie die Datei aus, die den Dateien entspricht, die Sie mit diesem Analyzer verarbeiten möchten. DieScenarioEigenschaft aus der Vorschauversion ist veraltet.Fügen Sie ein
modelsObjekt hinzu, und geben Sie das Vervollständigungs- und Einbettungsmodell an. Dieses Objekt legt die standardmäßigen generativen Modelle fest, die von dieser Analyse verwendet werden.
Das Schema aus Schritt 1 wird z. B. wie folgt aktualisiert:
{
"analyzerId": "my-custom-invoice-analyzer",
"description": "Extracts vendor information, line items, and totals from commercial invoices",
"baseAnalyzerId": "prebuilt-document",
"config": {
/*...*/
},
"fieldSchema": {/*...*/},
"models": {
"completion": "gpt-4.1",
"embedding": "text-embedding-3-large"
}
}
Tipp
Um eine genauere Übereinstimmung mit dem Verhalten der Vorschauversion herzustellen, verwenden Sie eine generative GPT-4o2024-08-06-Bereitstellung. Für neue Analysegeräte empfehlen wir GPT-4.1 für das Inhaltsverständnis.
Schritt 3: Erstellen eines neuen Analyzers
Sie können die aktualisierte Definition verwenden, um einen neuen Analyzer zu erstellen:
PUT /analyzers/{analyzerName}_updated
Sie müssen den vorhandenen Analyzer löschen, um den Namen wiederzuverwenden.
Berücksichtigen Sie diese anderen API-Änderungen
Inhaltsklassifizierer und Videosegmentierungen werden jetzt in Inhaltsanalyseen zusammengeführt. Verwenden Sie die
contentCategoriesEigenschaften des Analyzers, um Inhalte zu segmentieren und zu klassifizieren. Anleitungen finden Sie unter Erstellen einer Roboter-Prozessautomatisierungs-Lösung (RPA) und Videosegmentierung .Konfidenz und Grounding sind jetzt optionale Eigenschaften für Felder. Die Standardfelddefinition gibt keine Konfidenz und keine Grundierung zurück. Um Konfidenz und Grounding hinzuzufügen, setzen Sie
estimateFieldSourceAndConfidenceauftrue. Dieses Verhalten ist von der2025-05-01-previewAPI unverändert.Die Anforderung zum Abrufen bestimmter Komponenten des
analyzeErgebnisses ist vereinfacht. Rufen Sie folgendes auf, um eingebettete Bilder oder Inhalte abzurufen:GET /analyzerResults/{operationId}/files/{path}pathHier kann Folgendes enthalten:contents/{contentIndex}/pages/{pageNumber}-DocumentContent.pages[*].pageNumbercontents/{contentIndex}/figures/{figureId}-DocumentContent.figures[*].id
Der
analyzeVorgang unterstützt jetzt nur die Analyse von Dateien nach URL. Verwenden Sie den neuenanalyzeBinaryVorgang, um Dateien als Teil des Anforderungstexts als base64-codierte Zeichenfolge hochzuladen. Wenn Sie zuvor den Vorgang zum Hochladen vonanalyzeDateien inline in Ihrem Code verwendet haben, müssen Sie den Code so aktualisieren, dass er stattdessen denanalyzeBinaryVorgang verwendet. Erfahren Sie mehr über denanalyzeBinaryVorgang.Das
analyzeJSON-Nutzlastschema des Vorgangs wird aktualisiert. Es gibt jetzt ein Eingabearray, das die Informationen über die Datei enthält, die analysiert werden soll. Jedes Eingabeelement enthält einen URL-Zeiger auf eine Datei. Erfahren Sie mehr über denanalyzeVorgang.Hinweis
Das Eingabearray unterstützt nur ein einzelnes Element in der
2025-11-01Version.Hier ist ein Beispiel für das aktualisierte Schema für
PUT /analyzers/{analyzerName}:{ "inputs":[ { "url": "https://documentintelligence.ai.azure.com/documents/samples/read/read-healthcare.png" /*This is the file to be analyzed*/ } ] }Wenn Sie kontextbezogene Lern- oder beschriftete Daten verwendet haben, gibt die API-Nutzlast, die das bezeichnete Dataset definiert, jetzt die bezeichneten Daten als Typ an
knowledgeSources. Weitere Informationen finden Sie unter Erstellen oder Ersetzen.Bei Videoanalysatoren werden die Keyframes jetzt als Array von
keyFrameszurückgegeben. Weitere Informationen finden Sie unter "Analysieren".
Neue Funktionen
- Die Feldextraktionsmethode ist optional. Wenn die Methode nicht festgelegt ist, bestimmt die Analyse den Ansatz (
extractodergenerate). Fügen Sie die Eigenschaftmethodnur hinzu, wenn der Wert im Wortlaut extrahiert werden muss. - Es wurde Unterstützung für Konfidenzwerte und Quellverankerung für Felder in Dokumentanalysen hinzugefügt, bei denen die Methode auf 'generieren' festgelegt ist.
- Es gibt nun erhöhte Feldgrenzen von 1.000 Feldern pro Analysator.
- Für Dokumente unterstützt Klassifizierung und Segmentierung bis zu 200 verschiedene Typen.
Veraltete Features
- Die GA-API enthält keinen Pro-Modus, der sich noch in der Vorschau befindet (
2025-05-01-preview). Als Ergebnis wirdAnalysisModeveraltet, und Standard ist der einzige unterstützte Modus in der GA-API. - Das Personenverzeichnis und die Gesichts-API sind nicht Teil der GA-APIs, einschließlich der Videoanalysefunktionen zum Erkennen und Wiedererkennen von Gesichtern in Videos.
- Das
TrainingDataFeature ist veraltet und durch dasknowledgeSourcesFeature ersetzt.