Freigeben über


Versionshinweise zu Azure AI Video Indexer

Rufen Sie diese Seite erneut auf, um die neuesten Aktualisierungen anzuzeigen.

Um mit den neuesten Entwicklungen von Azure AI Video Indexer auf dem neuesten Stand zu bleiben, erhalten Sie in diesem Artikel Informationen zu folgenden Themen:

  • Neueste Versionen
  • Bekannte Probleme
  • Behebung von Programmfehlern
  • Veraltete Funktionen

Mai 2025

Unterstützung zum Anpassen von Textzusammenfassungen hinzugefügt

Unterstützung zum Anpassen der Textzusammenfassung mit dem optionalen addToEndOfSummaryInstructions Parameter zur Api zum Erstellen von Videozusammenfassungen hinzugefügt. Mit diesem Parameter können Sie die Textzusammenfassung Ihres Videos verbessern, indem Sie zusätzliche Informationen mithilfe natürlicher Sprache einfügen. Sie können es beispielsweise verwenden, um Informationen zu den Personen einzuschließen, die im Video angezeigt werden, allgemeine Themen und Marken, die im Video erwähnt werden.

Weitere Informationen finden Sie unter Anpassen einer Textvideozusammenfassung.

April 2025

Verbesserte Fehlerbenachrichtigung

Wenn Sie versuchen, einen nicht unterstützten Dateityp indizieren, gibt die Antwort einen UnsupportedFileType Fehler zurück. Weitere Informationen zu unterstützten Dateitypen finden Sie unter "Unterstützte Dateiformate".

März 2025

Allgemeine Verfügbarkeit von Von Arc aktivierten Azure AI Video Indexer

Azure AI Video Indexer, der von Arc aktiviert ist, ist jetzt allgemein verfügbar. Jetzt können Sie Videoindexer in Ihrer Edgeumgebung ausführen, um Audio- und Videoeinblicke und Textzusammenfassungen zu Videos in mehr als 30 Quellsprachen zu generieren. Weitere Informationen finden Sie unter Azure AI Video Indexer aktiviert von Arc.

Azure AI Video Indexer-Unterstützung für private Endpunkte

Azure AI Video Indexer-Unterstützung für private Endpunkte ist jetzt allgemein verfügbar. Jetzt können Organisationen die Sicherheit verbessern, indem sie private Endpunkte verwenden, um Clients in einem virtuellen Netzwerk den sicheren Zugriff auf Daten über einen privaten Link zu ermöglichen. Dadurch wird sichergestellt, dass der Datenverkehr privat über das Backbone-Netzwerk von Microsoft übertragen wird, anstatt öffentliche Endpunkte zu verwenden. Weitere Informationen finden Sie unter Private Endpunkte mit Azure AI Video Indexer.

Februar 2025

Indonesisch und Litauisch als Quellsprachen hinzugefügt

Wir haben Unterstützung für Videos mit den Sprachen Indonesisch und Litauisch hinzugefügt. Eine Liste der unterstützten Sprachen finden Sie unter Sprachunterstützung in Azure Video Indexer.

URL-Änderung für Widget-mediator.js Datei

Azure AI Video Indexer hat die URL geändert, um auf die mediator.js Datei zuzugreifen, wodurch der eingebettete Videoplayer und Einblicke-Widgets interagieren können. Wenn Ihre Website die datei mediator.js verwendet, empfehlen wir, die URL vor dem 1. Mai zu aktualisieren. Die alte URL funktioniert nicht mehr am 1. Mai, danach können spieler- und insight-Widgets nicht mehr interagieren.

Alte mediator.js-URL: https://breakdown.blob.core.windows.net/public/vb.widgets.mediator.js

Neue mediator.js-URL: https://aka.ms/vi-mediator-file

Weitere Informationen finden Sie unter Einbetten von Widgets in Ihrer App oder in Ihrem Blog.

Multi-modale Videozusammenfassung jetzt allgemein verfügbar

Multimodale Videozusammenfassung ist jetzt allgemein verfügbar für Azure Video Indexer. Dieses Feature verwendet die neueste LLM- und SLM-Technologie wie Azure OpenAI- und Phi-Modelle, um umfassende Zusammenfassungen von Videoinhalten bereitzustellen, indem Einblicke aus mehreren Modalitäten kombiniert werden, einschließlich Audio, Visueller und Text.

Januar 2025

Multimodale Videozusammenfassung mit GPT-4o

Unsere multimodale Videozusammenfassung unterstützt jetzt GPT-4o und erstellt dadurch genauere Zusammenfassungen. Um die multimodale Videozusammenfassung zu verwenden, siehe Textliche Zusammenfassung verwenden.

Erweiterte multimodale Text-Zusammenfassung von Videos mit Keyframes

Wir haben Verbesserungen an unserer Funktion zur multimodalen textuellen Videozusammenfassung vorgenommen. Die aktualisierte Logik erfasst Videoinhalte jetzt besser, indem sie relevantere Keyframes integriert, was zu präziseren Zusammenfassungen führt.

Filipino als Ausgangssprache hinzugefügt

Wir haben Unterstützung für Videos in der Quellsprache Filipino hinzugefügt. Eine Liste der unterstützten Sprachen finden Sie unter Sprachunterstützung in Azure Video Indexer.

Option zur Erkennung gesprochener Satzzeichen in Audio hinzugefügt

Wir haben unseren Upload- und Reindex-APIs einen neuen optionalen Parameter, PunctuationMode, hinzugefügt. Dieser Parameter steuert, ob beim Transkribieren von Audio explizit gesprochene Satzzeichen erkannt werden sollen. Zum Beispiel würde ein gesprochenes „Punkt“ als Punkt .und dot dot dot als Ellipse ...transkribiert werden. Weitere Informationen finden Sie in unserem Entwicklerportal.

Dezember 2024

Filtert Richtlinienaktualisierungen für die multimodale Videozusammenfassung mit Azure OpenAI

Wir haben unsere Richtlinie für Filter für schädliche Inhalte in der multimodalen textuellen Videozusammenfassung aktualisiert. Diese Filter sind nicht mehr obligatorisch, obwohl wir weiterhin empfehlen, sie zu konfigurieren, um sicherzustellen, dass schädliche Inhalte blockiert werden. Wenn Sie die Filter für schädliche Inhalte vollständig deaktivieren möchten, registrieren Sie sich über folgendes Formular: Azure OpenAI –Überprüfung des eingeschränkten Zugriffs: Geänderte Content-Filter.

Darüber hinaus unterstützt die Text-Videozusammenfassung jetzt einen Filter für direkte Angriffe (Jailbreak) mittels Prompt Shields. Es wird empfohlen, diesen Filter zu Ihrem Deployment hinzuzufügen.

Ausführliche Informationen zu den Filtern, die von der multimodalen Videozusammenfassung mit Azure OpenAI profitieren müssen, finden Sie unter Verwenden von Textzusammenfassungen.

November 2024

Multimodale Videozusammenfassung – Cloud und Edge

Wir freuen uns, eine multimodale Videozusammenfassung einzuführen, die unsere Textvideozusammenfassung verbessert, indem Keyframes zusammen mit Audio- und Videoeinblicken analysiert werden. Diese Funktion ist sowohl in der Cloud, die von Azure OpenAI unterstützt wird, als auch am Edge als Teil von VI, das von ARC aktiviert wird, verfügbar. Es verwendet das neueste visuelle Phi3.5-Modell, das für die Ausführung mit GPUs konfiguriert werden kann, um die Leistung zu verbessern.

Erweiterte Prompt-Content-API

Unsere Video-zu-Text-API, auch bekannt als Prompt Content API, unterstützt jetzt weitere Modelle: Llama2, Phi3, Phi3, Phi3.5, GPT-4O und GPT-4O Mini. Diese Erweiterung bietet Ihnen eine größere Flexibilität beim Konvertieren von Videoinhalten in Text und eröffnet Ihnen bei verwendung von Azure Video Indexer weitere Möglichkeiten. Sie können Informationen aus Azure Video Indexer in einem Eingabeaufforderungsformat sammeln, das angepasst werden kann, indem Sie den Modellnamen auswählen und den Eingabeaufforderungsstil anpassen. Die Formatvorlage "Zusammengefasst" eignet sich ideal für Aufgaben wie Videozusammenfassungen, Benennen von Videos und Beschreiben von Hauptereignissen, während die Formatvorlage "Vollständig" für F&A, RAG und Suchanwendungsfälle besser geeignet ist. Weitere Informationen zu dieser API finden Sie unter Azure Video Indexer Operations and Prompt Content.

Oktober 2024

Neuer Beispielcode

Wir haben neuen Beispielcode für den Export von Azure KI Video Indexer-Daten in Azure Data Explorer mithilfe von Logic Apps hinzugefügt.

August 2024

Verbesserte Sicherheit für textbezogene Videozusammenfassungen

Textuelle Videozusammenfassung enthält jetzt Unterstützung zur Verhinderung von Jailbreak-Angriffsrisiken. Dieser neue Sicherheitsfilter muss Ihrem AOAI hinzugefügt werden, um von der sprachmodell-basierten Textzusammenfassung von Videos zu profitieren. Weitere Informationen finden Sie in der Textvideozusammenfassung mit Azure OpenAI.

Textbezogene Videozusammenfassung auf einem Edge-Gerät

Wir haben den Blog-Beitrag Azure KI Video Indexer & introduce Textual Video Summary on the edge: Better Together story" veröffentlich

Juli 2024

Textuelle Zusammenfassung auf VI aktiviert durch Arc

Die Textzusammenfassungsfunktion ist jetzt mit dem neuesten Phi 3-Modell auf dem durch die Arc-Erweiterung aktivierten VI verfügbar. Sie profitieren von derselben Funktionalität wie in der Cloud, einschließlich der Anpassung der Zusammenfassung mit verschiedenen Einstellungen: formell, locker, kurz und lang.

Verbesserungen bei der Spracherkennung

  • Durchlaufzeit und Qualität der Sprachidentifikation wurden verbessert.
  • Wenn in der Datei mehrere Sprachen vorhanden sind (und Sie nach einer einzelnen Sprachidentifikation gefragt haben):
    • Die dominierende Sprache, die am längsten erschien, wird zurückgegeben.
    • Das Artefakt enthält alle Sprachen, die im gesprochenen Teil des Originalvideos identifiziert werden.
  • Das Transkript enthält nur die Zeilen der dominantesten Sprache und schließt Zeilen aus, die unterschiedliche Sprachen enthalten.

Verbesserungen der Spielerfunktionen und der Barrierefreiheit

Der Website-Player wurde auf die neueste Version der Shaka-Basis aktualisiert. Der Spieler ist auch in den Widgets enthalten.

Die Website wurde barrierefreier gestaltet.

Juni 2024

Codebeispiele

  • Um die Suche nach relevanten Videoinhalten für Lernende und Trainer zu vereinfachen, verwenden Sie den Azure AI Video-Indexer mit Microsoft Azure OpenAI. Lesen Sie den Blogbeitrag Zur Verbesserung der Schulungssucherfahrung mit Azure AI Video Indexer und dem Quellcode.
  • Verwenden Sie Azure LogicApps, um autos zu klassifizieren, die in einem Video erkannt wurden. Im Beispiel wird die Bring Your Own-Funktion von Video Indexer verwendet, um Objekte und die GPT-4 von Azure OpenAI zur erweiterten Klassifizierung zu erkennen. Sehen Sie sich die YouTube-Demo und den Beispielcode an.

Erhöhter Grenzwert für die Dateidauer

Alle Voreinstellungen unterstützen jetzt die Indizierung von Dateien bis zu 6 Stunden (der vorherige Grenzwert war 4 Stunden) und die Standardaudiovoreinstellung unterstützt die Indizierung von Dateien bis zu 12 Stunden Länge.

Mai 2024

Textzusammenfassung

Azure AI Video Indexer bietet jetzt eine kurze Zusammenfassung darüber, worum es bei einem Video geht, ohne das gesamte Video ansehen zu müssen. Es kann Ihnen Zeit sparen, indem es lange Videos aufbereitet und Ihnen die Kernaussage in einem kürzeren Format gibt. Es destilliert langwierige Videos in präzise, verdauliche Zusammenfassungen.

Es verwendet Zusammenfassungsalgorithmen, um die relevantesten Erkenntnisse für das Video zu identifizieren. Es umfasst das Bewerten von Erkenntnissen basierend auf ihrer Wichtigkeit und Relevanz für das Gesamtthema. Mit einer benutzerfreundlichen Benutzeroberfläche können Sie Videos eingeben und den benötigten Zusammenfassungstyp anpassen.

Sie können die Zusammenfassung anpassen, indem Sie „Kurz“, „Länger“, „Formell“ oder „Locker“ auswählen und die spezifische Modellimplementierung angeben.

Weitere Informationen zur Textzusammenfassung finden Sie unter "Übersicht über textbezogene Zusammenfassungen".

Azure OpenAI-Integration

Azure AI Video Indexer bietet jetzt eine Integration in Azure OpenAI. Sie können Ihre Azure OpenAI-Ressource verbinden, wenn Sie ein neues Azure Video Indexer-Konto erstellen oder es Ihrem vorhandenen Azure Video Indexer-Konto hinzufügen. Wenn Sie VI mit Azure OpenAI verbinden, können Sie die Textzusammenfassungsfunktion verwenden, die über die API und über das Portal verfügbar ist.

Weitere Informationen zum Verbinden von Azure OpenAI mit Ihrem VI-Konto finden Sie unter Erstellen oder Aktualisieren eines Azure AI Video Indexer-Kontos mit einer Azure OpenAI-Verbindung.

Erweiterung der Prompt-Content-API

Die Aufforderungs-Inhalts-API von Azure AI Video Indexer unterstützt jetzt weitere Sprachmodelle: Phi 2, Llama und GPT 4V. Wenn Sie die Eingabeaufforderungsinhalts-API mit GPT 4V verwenden, gibt sie die Keyframes aus, die das Sprachmodell zusammen mit den anderen Erkenntnissen analysieren kann.

April 2024

Modelle ausschließen

Sie können jetzt Modelle ausschließen, wenn Sie sowohl über die VI-Website als auch über die API indizieren. Wenn Sie ein Video in einen Index hochladen, wählen Sie "Erweiterte Einstellungen>Indizierungsvoreinstellungen" aus, und wählen Sie dann die KI-Modelle aus, die aus den Indizierungsergebnissen ausgeschlossen werden sollen. Es kann effizientere Indizierungs- und VI-Ergebnisse ermöglichen, die nur die Einblicke enthalten, an denen Sie interessiert sind.

Neue Verfügbarkeitsregion

Azure AI Video Indexer ist jetzt in Der Region Deutschland West Central verfügbar.

Februar 2024

AMS-lose Konten und Migrationsleitfaden

  • Alle neuen Videoverpackungen, das Streaming und die Codierung von VI-Konten werden von VI durchgeführt. Jetzt können Sie keine AMS-basierten VI-Konten erstellen. Weitere Informationen finden Sie im Leitfaden zum Erstellen eines neuen Kontos.
  • VI Encoding/Packaging wird mit einem Pauschalpreis von einem Cent pro Minute und kostenlosem Streaming abgerechnet.
  • Sie können Ihre VI-Konten von AMS-basiert auf dem neuen AMS-less-Kontotyp aktualisieren.
  • Sie können sich dafür entscheiden, dass Ihre AMS VI-Ressourcen neu verarbeitet und von VI migriert werden, damit Sie weiterhin auf Ihre Videos und Einblicke zugreifen können. Die Migration beginnt Ende März.
  • Videoindexer-Webapp und Widgets verwenden einen neuen Media Player, der hochgradig leistungsfähig ist und Azure Medienwiedergabe nicht mehr verwendet.

Die folgende Dokumentation führt Sie durch den Prozess der Konto- und Ressourcenmigration:

TLS1.3-Unterstützung

Wir unterstützen TLS 1.3, die neueste Version des TLS-Protokolls (Transport Layer Security), das Daten verschlüsselt, um einen sicheren Kommunikationskanal zwischen zwei Endpunkten bereitzustellen.

Azure AI Video Indexer bereitgestellt in Schweden zentral und US West3

Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in den Regionen Schweden Central und US West3 erstellen.

Januar 2024

Neuer LLM-Prompt-Inhalt

Sie können jetzt Ihre Videoeinblicke mit den LLMs (Large Language Model) für Aufgaben wie Zusammenfassung und Fragebeantwortung verbinden. Die API konvertiert Ihre Videoerkenntnisse in ein "prompt-ready"-Textformat für die Verwendung mit LLMs. Weitere Informationen finden Sie unter Azure AI Video Indexer mit LLM-Eingabeaufforderungen.

Dezember 2023

Neue voreingestellte Option – Standardvideo

Video Indexer hat eine neue Indizierungsvoreinstellung hinzugefügt: „Basic Video“. Es ist auch auf der durch die Arc-Erweiterung aktivierten VI verfügbar. Dabei handelt es sich um eine kostengünstige Indizierungsoption, die viele nützliche KI-Erkenntnisse enthält, darunter OCR, Objekterkennung und visuelle Beschriftungen. Einfaches Video kann verwendet werden, um Einblicke zusammen mit Basic Audio (Basic Audio and Video) oder eigenständig (nur Standardvideo) zu generieren. Weitere Informationen zu Ihren Indizierungsoptionen finden Sie im Konfigurationshandbuch für die Indizierung.

Frames-API abrufen

Sie können jetzt Frames aus einem indizierten Video für einen ausgewählten Videoabschnitt extrahieren, indem Sie eine FramesSasUrls Anfrage stellen. Weitere Informationen finden Sie unter FrameSelection.

Aktualisierungen für "Bring Your Own Model (Vorschau)"

  • Unterstützung der Benutzeroberfläche für benutzerdefinierte Einblicke hinzugefügt.
  • Suchunterstützung für benutzerdefinierte Einblicke hinzugefügt.

Weitere Informationen finden Sie unter Bring Your Own AI Model.

Suchen nach Objekt auf der Azure AI Video Indexer-Website und API

Sie können jetzt mithilfe der Suchfunktion nach Videos mit bestimmten Objekten (z. B. Autos, Motorrädern und mehr) auf der Azure AI Video Indexer-Website oder mithilfe einer Suchanfrage suchen.

November 2023

Video Indexer hat im November folgende Features veröffentlicht:

Azure AI Video Indexer aktiviert von Arc (Vorschau)

Sie können Videoindexer für Ihre Hybridszenarien verwenden, indem Sie sie lokal in einem Kubernetes-Cluster hosten. Weitere Informationen finden Sie in der Übersicht des Azure AI Video Indexers, bereitgestellt von Arc. Sie können die Erweiterung auch ausprobieren, indem Sie das Lernprogramm ausführen.

Eigenes Modell mitbringen (Vorschau)

Sie können Ihr eigenes angepasstes KI-Modell verwenden und die Daten in VideoIndexer-Modelle integrieren. Weitere Informationen finden Sie unter Bring Your Own AI model.

Benutzerdefinierte Tags und Kostenloser Text pro Video (Vorschau)

Sie können benutzerdefinierte Tags und Freitext als Videometadaten zu jedem Video in Ihrem Videoindexer-Konto hinzufügen. Sie können Ihre Videos mit allen für Sie und Ihrem Unternehmen relevanten Informationen kategorisieren und kommentieren. Sie können beispielsweise Tags wie product demo, customer testimonial oder internal training hinzufügen oder Freitext wie This video shows how to use our new feature X oder This video was recorded at our annual conference in Y. Sie können dem Bereich unter dem Video hinzugefügt werden, sobald das Video indiziert ist.

Suche basierend auf benutzerdefinierten Tags und Freitext (Vorschau)

Sie können basierend auf ihren benutzerdefinierten Tags und Freitext nach Videos suchen. Es ermöglicht Ihnen, die Videos zu finden, die Ihren Kriterien leichter und schneller entsprechen. Sie können basierend auf benutzerdefinierten Tags und Freitext in allen unterstützten Sprachen suchen und sie mit anderen Suchfiltern wie Schlüsselwörtern, Gesichtern, Bezeichnungen, Emotionen usw. kombinieren. Sie können auch die erweiterte Suchsyntax verwenden, um komplexere Abfragen auszuführen. Sie können z. B. nach Videos suchen, die über das Tag product demo und den kostenlosen Text feature Xverfügen.

Wir haben zahlreiche Verbesserungen am benutzerdefinierten Personenmodell vorgenommen, was die allgemeine Erfahrung und Genauigkeit verbessert. Personenmodelle sind spezialisierte KI-Modelle, mit denen Sie Ihr eigenes Modell trainieren können, um bestimmte Personen in Ihren Videos zu erkennen. Die neuen Ergänzungen sind:

Hinweis auf die Qualität des Personenmodells (Vorschau)

Sie erhalten einen Hinweis auf die Qualität Ihres angepassten People-Modells (schlecht, fair, gut). Die Qualität wird durch die Anzahl der bilder bestimmt, die für die Kennzeichnung verwendet werden; je mehr Bilder Sie zum Bezeichnen einer Person verwenden, desto höher ist die Wahrscheinlichkeit, die Person richtig zu identifizieren. Beispielsweise ist die Wahrscheinlichkeit, eine Person mit 24 beschrifteten Bildern zu identifizieren, höher als die Wahrscheinlichkeit, eine Person mit zwei beschrifteten Bildern zu identifizieren. Sie können die Anzahl der Bilder sehen, die zum Bezeichnen der einzelnen Personen auf der angepassten Personenmodellseite verwendet werden.

Auswählen eines benutzerdefinierten Personenmodells als Standard (Vorschau)

Sie können jetzt ein angepasstes Personenmodell als Standard auf der Vi-Kontobenutzerebene auswählen, sodass Sie nicht den Modellnamen für jeden Videoupload auswählen müssen. Es kann Zeit und Mühe sparen, wenn Sie Videos hochladen, die Sie mit Ihrem angepassten Personenmodell analysieren möchten.

Gruppieren unbekannter Personen im Video (Vorschau)

Sie können die unbekannten Personen in Ihren Videos nach ihrer Ähnlichkeit gruppiert sehen. Es hilft Ihnen, die unbekannten Personen einfacher und schneller zu kennzeichnen und die Genauigkeit Ihres angepassten Personenmodells zu verbessern. Die Gruppierung der unbekannten Personen sehen Sie auf Ihrer Anpassungsseite > Wählen Sie Leute und navigieren Sie dann zur Registerkarte unbekannte Personen. Es könnte Ihnen zum Beispiel helfen, eine lokale Berühmtheit oder einen lokalen Politiker zu kennzeichnen.

Suchergebnisse mit maximaler Konfidenzbewertung für den namen der identifizierten Person (Vorschau)

Sie können nach dem Namen einer identifizierten Person suchen und erfahren, wann die Person im Video mit dem höchsten Vertrauenswert erscheint. Es hilft dir zu entscheiden, welche Videos am relevantesten sind. Beispielsweise können Sie nach "John Smith" suchen und die Videos abrufen, in denen John Smith von Ihrem angepassten People-Modell erkannt wird, sowie die Konfidenzbewertung für jedes Video.

Vermeiden Sie doppelte Indizierungs-Uploads

Gelegentlich können Sie versehentlich denselben Indizierungsauftrag mehrmals übermitteln. Um diese Situation zu vermeiden, wurde ein neuer optionaler Abfrageparameter hinzugefügt. preventDuplicates Wenn der Dienst auf true festgelegt ist, wird das Hochladen einer Datei abgelehnt und ein Konflikt zurückgegeben, wenn sie bereits indiziert wurde.

Die MD5-Duplikatprüfungen der Upload-URL basieren auf dem Content-MD5-Header der Serverantwort, sofern vorhanden, gemäß RFC 1864: Das Content-MD5-Headerfeld. Speicheranbieter verwenden sie häufig.

Wenn Sie dasselbe Video wiederholt hochladen möchten, können Sie den Parameter auf false festlegen.

Oktober 2023

Neuer Einblick – Objekterkennung

Der Videoindexer hat einen neuen Einblick, die Objekterkennung, sowohl zur Standard- als auch zur erweiterten Videovoreinstellung hinzugefügt. Es kann verwendet werden, um eine breite Palette von Objekten zu identifizieren und nachzuverfolgen, die in Ihren Videos angezeigt werden. Weitere Informationen finden Sie in der Übersicht über die Objekterkennung von Azure AI Video Indexer.To learn more, see Azure AI Video Indexer object detection overview.

September 2023

Infolge der Rücknahme von Azure Media Services (AMS)zum 30. Juni 2024 hat Video Indexer viele damit verbundene Rücknahmen angekündigt. Dazu gehören die Einstellung von Video Indexer Classic-Konten am 30. Juni 2024, API-Änderungen und die nicht mehr unterstützte adaptive Bitrate. Ausführliche Informationen finden Sie unterÄnderungen im Zusammenhang mit der Einstellung des Azure Media Service (AMS).

Juli 2023

Redigieren von Gesichtern mit der Azure KI Video Indexer-API

Sie können jetzt Gesichter mit der Azure KI Video Indexer-API unkenntlich machen. Weitere Informationen finden Sie unter Gesichter unkenntlich machen mit der Azure AI Video Indexer-API.

Erhöhung des API-Anforderungsgrenzwerts

Video Indexer hat das API-Anforderungslimit von 60 Anforderungen pro Minute auf 120 erhöht.

Juni 2023

Die Einstellung von Azure Media Services wurde angekündigt.

Mai 2023

API-Aktualisierungen

Wir führen eine Verhaltensänderung ein, die möglicherweise eine Änderung Ihrer vorhandenen Abfragelogik erfordert. Die Änderung befindet sich in den Listen- und Such-APIs , finden Sie eine detaillierte Änderung zwischen dem aktuellen und dem neuen Verhalten in einer folgenden Tabelle. Möglicherweise müssen Sie Ihren Code aktualisieren, um die neuen APIs nutzen zu können.

Programmierschnittstelle (API) Aktuell Neu Das Update
Videos anzeigen • Alle Videos/Projekte gemäß dem booleschen Parameter 'IsBase' auflisten. Wenn "IsBase" nicht definiert ist, führen Sie beide auf.
• Gibt Videos in allen Status zurück (In Bearbeitung/Verarbeitet/Fehlgeschlagen).
• Die API „Projekte auflisten” gibt nur Videos in allen Status mit Paginierung zurück.
• Die API „Projekte auflisten” gibt nur Projekte (mit Paginierung) zurück.
• Die List Videos API wurde in zwei neue APIs unterteilt: List Videos und List Projects.
• Der Parameter 'IsBase' hat keine Bedeutung mehr.
Videos durchsuchen • Durchsuchen Sie alle Videos/Projekte gemäß dem booleschen Parameter 'IsBase'. Wenn "IsBase" nicht definiert ist, suchen Sie beide.
• Suche nach Videos in allen Status (In Bearbeitung/Verarbeitet/Fehlgeschlagen).
Suchen Sie nur verarbeitete Videos. • Die Videosuche-API durchsucht nur Videos und nicht Projekte.
• Der Parameter 'IsBase' hat keine Bedeutung mehr.
• Die Such-Video-API durchsucht nur verarbeitete Videos (und nicht fehlgeschlagene oder in Bearbeitung befindliche).

Unterstützung für HTTP/2

Unterstützung für HTTP/2 für unsere Data Plane-API hinzugefügt. HTTP/2 bietet mehrere Vorteile gegenüber HTTP/1.1, die weiterhin aus Gründen der Abwärtskompatibilität unterstützt werden. Einer der Hauptvorteile von HTTP/2 ist eine höhere Leistung, bessere Zuverlässigkeit und reduzierte Systemressourcenanforderungen über HTTP/1.1. Mit dieser Änderung wird HTTP/2 sowohl für das Videoindexer-Portal als auch für unsere Data Plane-API unterstützt. Wir empfehlen Ihnen, Ihren Code zu aktualisieren, um diese Änderung nutzen zu können.

Verbesserungen der Themenerkenntnisse

Wir unterstützen jetzt alle fünf Ebenen der IPTC-Ontologie.

April 2023

Resource Health-Unterstützung

Azure AI Video Indexer ist jetzt in Azure Resource Health integriert, sodass Sie die Integrität und Verfügbarkeit jeder Ihrer Azure AI Video Indexer-Ressourcen sehen können. Azure Resource Health hilft auch bei der Diagnose und Lösung von Problemen, und Sie können Warnungen so festlegen, dass sie benachrichtigt werden, wenn Ihre Ressourcen betroffen sind. Weitere Informationen finden Sie in der Übersicht über Azure Resource Health.

Das Animationszeichenerkennungsmodell wird eingestellt.

Das Animationszeichenerkennungsmodell wurde am 1. März 2023 eingestellt. Öffnen Sie bei verwandten Problemen ein Supportticket über das Azure-Portal.

Ausschließen vertraulicher KI-Modelle

Nach der Agenda von Microsoft Responsible AI können Sie mit Azure AI Video Indexer jetzt bestimmte KI-Modelle beim Indizieren von Mediendateien ausschließen. Die Liste der vertraulichen KI-Modelle umfasst:

  • Gesichtserkennung
  • Beobachtete Menschen
  • Gefühle
  • Identifikation von Beschriftungen

Dieses Feature ist derzeit über die API verfügbar und steht in allen Voreinstellungen außer der Voreinstellung "Erweitert" zur Verfügung.

Verbesserungen bei der Erkennung beobachteter Personen

Weitere Informationen finden Sie unter Erhalten Sie Einblicke in die Detektion beobachteter Personen und abgeglichener Gesichter.

März 2023

Unterstützung für Speicher hinter der Firewall

Es empfiehlt sich, Speicherkonten zu sperren und den öffentlichen Zugriff zu deaktivieren, um die Unternehmenssicherheitsrichtlinie zu verbessern oder einzuhalten. Video Indexer kann jetzt mit der Azure Trusted Service Ausnahme über Managed Identities auf nicht öffentlich zugängliche Speicherkonten zugreifen. Weitere Informationen zur Einrichtung finden Sie in unserer Anleitung.

Neue benutzerdefinierte Sprach- und Ausspracheschulung

Azure KI Video Indexer hat eine neue benutzerdefinierte Sprachmodellerfahrung hinzugefügt. Die Erfahrung umfasst die Möglichkeit, benutzerdefinierte Aussprache-Datasets zu verwenden, um die Erkennung falsch wiedergegebener Wörter, Ausdrücke oder Namen zu verbessern. Die benutzerdefinierten Modelle können verwendet werden, um die Transkriptionsqualität von Inhalten mit branchenspezifischer Terminologie zu verbessern. Weitere Informationen finden Sie unter "Anpassen der Sprachmodellübersicht".

Qualitätsverbesserungen bei „Beobachtete Menschen”

„Beobachtete Menschen” unterstützt jetzt auch sitzende Menschen. Zusätzlich zur bestehenden Unterstützung für Menschen, die stehen oder gehen. Die Verbesserung macht beobachtetes Personenmodell vielseitiger und eignet sich für eine breitere Palette von Anwendungsfällen. Wir haben auch die Algorithmen zur Re-Identifizierung und Gruppierung von Modellen um 50 % verbessert. Das Modell kann jetzt personen in mehreren Kameraansichten genauer nachverfolgen und gruppieren.

Optimierung der Indizierungsdauer bei „Beobachtete Menschen”

Wir haben die Speicherauslastung des beobachteten Personenmodells optimiert, was zu einer Verringerung der Indizierungsdauer bei Verwendung der voreingestellten erweiterten Videoanalyse um 60 % führt. Sie können Ihr Videomaterial jetzt effizienter verarbeiten und schneller Ergebnisse erzielen.

Februar 2023

Preise

Am 01. Januar 2023 haben wir die Erweiterte Audio- und Video-SKU für erweiterte Voreinstellungen eingeführt. Wir haben dies getan, um die Verwendung der einzelnen Voreinstellungen, Basic, Standard und Advanced, mit ihren eigenen, unterschiedlichen Zählern in der Azure-Abrechnungsübersicht zu melden. Sie können sie auch in Kostenanalyseberichten anzeigen.

Ab dem 1. Februar freuen wir uns, eine Preisreduzierung von 40 % auf die SKUs Basic Audio Analysis, Audio Analysis und Video Analysis bekannt zu geben. Wir haben Feedback unserer Kunden und Markttrends berücksichtigt, um Änderungen vorzunehmen, die ihnen zugute kommen. Durch die Reduzierung der Preise und die Einführung einer neuen erweiterten SKU bieten wir wettbewerbsfähige Preise und mehr Optionen für Kunden, um Kosten und Features auszugleichen. Darüber hinaus verbessern und fügen wir weiterhin weitere KI-Funktionen hinzu. Sie können diese Kosteneinsparungen nutzen, wenn Sie neue oder neu indizierende Vorgänge durchführen.

Diese Änderung wurde automatisch implementiert. Kunden, die bereits über Azure-Rabatte verfügen, erhalten sie zusätzlich zu den neuen Preisen weiterhin.

Gebühr Grundlegende Audioanalyse Standardaudioanalyse Erweiterte Audioanalyse Standardvideoanalyse Erweiterte Videoanalyse
Pro Eingabeminute $0,0126 $0,024 0,04 USD $0,09 $0,15

Netzwerkdienst-Tag

Video Indexer unterstützt die Verwendung des Netzwerksicherheits-Tags, um Netzwerkverkehr von Video Indexer-IPs in Ihr Netzwerk zuzulassen. Ab dem 22. Januar haben wir unser Network Security Service-Tag von AzureVideoAnalyzerForMedia zu VideoIndexer" umbenannt. Diese Änderung erfordert, dass Sie Ihre Bereitstellungsskripts und/oder vorhandene Konfiguration aktualisieren. Weitere Informationen finden Sie in unserer Netzwerksicherheitsdokumentation .

Januar 2023

Benachrichtigungserfahrung

Die Azure AI Video Indexer-Website verfügt jetzt über einen Benachrichtigungsbereich, in dem Sie über wichtige Produktupdates informiert bleiben können, wie z. B. Dienstauswirkungen, neue Versionen und vieles mehr.

Erkennung von Textlogos

Mit der Erkennung von Textlogos können Sie Textlogos anpassen, die in Videos erkannt werden. Weitere Informationen finden Sie unter Erkennen eines Textlogos.

Wechseln von Verzeichnissen

Sie können jetzt über die Azure AI Video Indexer Websitedie Microsoft Entra ID Verzeichnisse wechseln und Azure AI Video Indexer Konten mandantenübergreifend verwalten.

Sprachunterstützung

  • Neue Sprachen werden jetzt unterstützt: Irisch, Bulgarisch, Katalanisch, Griechisch, Estnisch, Kroatisch, Lettisch, Rumänisch, Slowakisch, Slowenisch, Telugu, Malayalam, Kannada, Isländisch, Armenisch, Gujarati, Malaiisch und Tamilisch.
  • Verwenden Sie eine API, um alle unterstützten Sprachen abzurufen: Unterstützte Sprachen abrufen.

Weitere Informationen finden Sie unter unterstützte Sprachen.

Gesichtsgruppierung

Wir haben die Anzahl der minderwertigen Gesichtserkennungen in der Benutzeroberfläche und in insights.json reduziert. Verbesserung der Qualität und Benutzerfreundlichkeit durch verbesserten Gruppierungsalgorithmus.

November 2022

Die Namen der Referenten können jetzt von der Azure AI Video Indexer-Website bearbeitet werden.

Sie können jetzt neue Lautsprecher hinzufügen, identifizierte Lautsprecher umbenennen und lautsprecher ändern, die einer bestimmten Transkriptzeile zugewiesen sind, mithilfe der Azure AI Video Indexer-Website. Ausführliche Informationen zum Bearbeiten von Sprechern aus dem Zeitachsenbereich finden Sie unter Bearbeiten von Sprechern mit der Azure AI Video Indexer-Website.

Die gleichen Funktionen sind über die Azure AI Video Indexer Upload-Videoindex-API verfügbar.

Oktober 2022

Eine neue integrierte Rolle: „Eingeschränkter Video Indexer-Betrachter“

Die Eingeschränkte Zugriffsrolle "VideoIndexer Restricted Viewer " ist für benutzer der Azure AI Video Indexer-Website vorgesehen. Die zulässigen Aktionen der Rolle betreffen die Azure KI Video Indexer-Website.

Weitere Informationen finden Sie unter Verwalten des Zugriffs mit der Video Indexer-Rolle „Eingeschränkter Betrachter“.

Einblicke zur Erkennung von Slate (Vorschau)

Die folgenden Slate-Erkennungseinblicke (ein Film nach der Produktion) werden automatisch identifiziert, wenn ein Video mithilfe der erweiterten Indizierungsoption indiziert wird:

  • Clapperboard-Erkennung mit Metadatenextraktion.
  • Erkennung digitaler Muster, einschließlich Farbbalken.
  • Textlose Slate-Erkennung, einschließlich Szenenabgleich.

Einzelheiten finden Sie unter Slate-Erkennung.

Unterstützt nun Quellsprachen für STT (Spracherkennung), Übersetzung und Suche auf Ukrainisch und Vietnamesisch. Dies bedeutet, dass Transkription, Übersetzung und Suchfunktionen auch für diese Sprachen auf der Azure AI Video Indexer-Website , Widgets und APIs unterstützt werden.

Weitere Informationen finden Sie unter unterstützte Sprachen.

Bearbeiten des Namens eines Sprechers in der Transkription über die API

Sie können nun den Namen der Lautsprecher in der Transkription mithilfe der Azure AI Video Indexer-API bearbeiten.

Zeitanmerkung auf Word-Ebene mit Konfidenzbewertung

Unterstützung der Zeitanmerkung auf Word-Ebene mit Konfidenzbewertung.

Eine Anmerkung ist eine beliebige Art zusätzlicher Informationen, die einem bereits vorhandenen Text hinzugefügt werden, sei es eine Transkription einer Audiodatei oder einer ursprünglichen Textdatei.

Weitere Informationen finden Sie unter Untersuchen von Transkriptionsinformationen auf Wortebene.

Azure Monitor-Integration zum Aktivieren von Indizierungsprotokollen

Mit dem neuen Protokollsatz, der im folgenden Abschnitt beschrieben wird, können Sie Ihre Indizierungspipeline besser überwachen.

Azure AI Video Indexer unterstützt jetzt Diagnoseeinstellungen für Indizierungsereignisse. Sie können jetzt Protokolle zur Überwachung des Hochladens und der erneuten Indizierung von Mediendateien über Diagnoseeinstellungen in Azure Log Analytics, Speicher, Event Hubs oder eine Drittanbieterlösung exportieren.

Erweiterte unterstützte Sprachen in LID und MLID über die Azure AI Video Indexer-API

Die Unterstützung für weitere Sprachen in der Sprachidentifikation (LID) und der mehrsprachigen Identifikation (MLID) wurde mithilfe der Azure AI Video Indexer-API erweitert.

Die folgenden Sprachen werden jetzt über die API unterstützt:

  • Arabisch (Vereinigte Arabische Emirate)
  • Arabischer Moderner Standard
  • Arabisch (Ägypten)
  • Arabisch (Irak)
  • Arabisch (Jordanien)
  • Arabisch (Kuwait)
  • Arabisch (Oman)
  • Arabisch (Katar)
  • Arabisch (Saudi-Arabien)
  • Arabisch (Arabische Republik Syrien)
  • Tschechisch
  • Dänisch
  • Deutsch
  • Englisch (Australien)
  • Englisch (Vereinigtes Königreich)
  • Englisch (USA)
  • Spanisch
  • Spanisch (Mexiko)
  • Finnisch
  • Französisch (Kanada)
  • Französisch
  • Hebräisch
  • Hindi
  • Italienisch
  • Japanisch
  • Koreanisch
  • Norwegisch
  • Holländisch
  • Polnisch
  • Portugiesisch
  • Portugiesisch (Portugal)
  • Russisch
  • Schwedisch
  • Thailändisch
  • Türkisch
  • Ukrainisch
  • Vietnamesisch
  • Chinesisch (vereinfacht)
  • Chinesisch (Kantonesisch und traditionell)

Um die Liste der Sprachen anzugeben, die bei der automatischen Erkennung mit LID oder MLID identifiziert werden sollen, rufen Sie eine Video-API auf, und legen Sie den customLanguages Parameter so fest, dass er bis zu 10 Sprachen aus den zuvor aufgeführten unterstützten Sprachen enthält. Die in der customLanguages angegebenen Sprachen werden auf Sprachebene verglichen und sollten daher nur ein Gebietsschema pro Sprache enthalten.

Weitere Informationen finden Sie unter unterstützte Sprachen.

Konfigurieren des Konfidenzniveaus in einem Personenmodell mit einer API

Verwenden Sie die API Patch-Personenmodell, um das Konfidenzniveau für die Gesichtserkennung innerhalb eines Personenmodells zu konfigurieren.

Anzeigen von Sprechern in Untertiteln

Sie können jetzt Sprecher in den geschlossenen Untertiteln des Medienplayers von Azure AI Video Indexer sehen. Weitere Informationen finden Sie unter Anzeigen von Untertiteln auf der Azure AI Video Indexer-Website.

Steuern von Begrenzungsrahmen für Gesichter und Personen mithilfe von Parametern

Der neue URL-Parameter boundingBoxes steuert die Option zum Aktivieren bzw. Deaktivieren von Begrenzungsrahmen beim Einbetten eines Players. Weitere Informationen zum Einbetten von Widgets finden Sie hier.

Steuern der automatischen Wiedergabe über die Kontoeinstellungen

Steuern Sie, ob eine Mediendatei automatisch wiedergegeben wird, wenn sie mit der Webapp geöffnet wird, über die Benutzereinstellungen. Navigieren Sie zur Azure AI Video Indexer-Website –> dem Zahnradsymbol (die obere rechte Ecke) –>Benutzereinstellungen –>Automatische Wiedergabe von Mediendateien.

Kopieren der Video-ID aus der Playeransicht

Die Video-ID kann kopiert werden, wenn Sie das Video auf der Azure AI Video Indexer-Website auswählen.

Neues dunkles Design in nativen Azure-Farben

Wählen Sie das gewünschte Design auf der Azure AI Video Indexer-Website aus. Wählen Sie das Zahnradsymbol (oben rechts) und > aus.

Durchsuchen oder Filtern der Kontoliste

Sie können die Kontoliste anhand des Kontonamens oder der Region durchsuchen oder filtern. Wählen Sie Benutzerkonten in der oberen rechten Ecke der Azure AI Video Indexer-Website aus.

September 2022

Allgemeine Verfügbarkeit ARM-basierter Konten

Mit einem auf Azure Resource Management (ARM) basierenden kostenpflichtigen (unbegrenzten) Konten können Sie Folgendes verwenden:

Um ein ARM-basiertes Konto zu erstellen, siehe ein Konto erstellen.

August 2022

Themenrückschlussmodell aktualisieren

Das Azure KI Video Indexer-Modell zur Themeninferenz wurde aktualisiert. Es werden jetzt mehr als 6,5 Millionen Themen extrahiert (z. B. Themen wie Covid-Virus). Um von den neuesten Modellupdates zu profitieren, müssen Sie Ihre Videodateien neu indizieren.

Themenrückschlussmodell jetzt für Azure Government verfügbar

Sie können jetzt das Modell zum Ableiten von Themen in Ihrem kostenpflichtigen Azure AI Video Indexer-Konto in Azure Government in Virginia und Arizona verwenden. Mit dieser Version haben wir die KI-Parität zwischen Azure Global und Azure Government erreicht. Um von den Modellupdates zu profitieren, müssen Sie Ihre Videodateien neu indizieren.

Die Sitzungslänge beträgt jetzt 30 Tage auf der Azure AI Video Indexer-Website

Die Sitzungsdauer der Azure AI Video Indexer-Website wurde auf 30 Tage verlängert. Sie können Ihre Sitzung beibehalten, ohne sich jede Stunde erneut anmelden zu müssen.

Juli 2022

Erkenntnisse zu ausgewählten Kleidungsstücken ermöglichen eine gezieltere Anzeigenschaltung.

Die Erkenntnisse geben Auskunft über die wichtigsten Kleidungsstücke, die von den Personen in einem Video getragen werden, sowie über den Zeitstempel, zu dem die Kleidung zu sehen ist. Es ermöglicht hochwertige kontextbezogene Werbung in Video, bei der relevante Kleidungsanzeigen mit der spezifischen Zeit innerhalb des Videos abgeglichen werden, in dem sie angezeigt werden.

Um die vorgestellte Kleidung einer beobachteten Person anzuzeigen, müssen Sie das Video mithilfe der erweiterten Videoeinstellungen von Azure AI Video Indexer indizieren. Einzelheiten dazu, wie Bilder von ausgewählten Kleidungsstücken eingestuft werden und wie Sie diesen Einblick erhalten, finden Sie unter ausgewählte Kleidungsstücke.

Juni 2022

Erstellen von Verbesserungen im Videoindexer im Azure-Portal

Azure AI Video Indexer unterstützt jetzt die Erstellung neuer Ressourcen mithilfe der vom System zugewiesenen verwalteten Identität oder des Systems und der vom Benutzer zugewiesenen verwalteten Identität für dieselbe Ressource.

Sie können die primäre verwaltete Identität darüber hinaus mithilfe der Registerkarte Identität im Azure-Portal ändern.

Eingeschränkter Zugriff auf Features zur Erkennung von Prominenten und Gesichtsidentifikation

Als Teil des Engagements von Microsoft für verantwortungsvolle KI entwickeln und veröffentlichen wir Azure AI Video Indexer – Identifikations- und Prominentenerkennungsfeatures. Diese Features sollen die Rechte von Einzelpersonen und der Gesellschaft schützen und die transparente Mensch-Computerinteraktion fördern. Daher gibt es einen eingeschränkten Zugriff und eine eingeschränkte Nutzung von Azure AI Video Indexer – von Identifikations- und Prominentenerkennungsfunktionen.

Für die Identifikations- und Prominenten-Erkennungsfeatures ist Registrierung erforderlich, und sie sind nur für von Microsoft verwaltete Kunden und Partner verfügbar. Kunden, die dieses Feature verwenden möchten, müssen sich bewerben und ein Aufnahmeformular einreichen. Weitere Informationen finden Sie unter Azure AI Video Indexer mit eingeschränktem Zugriff.

Weitere Informationen finden Sie im Ankündigungs-Blogbeitrag und zur Investition und Sicherung der Gesichtserkennung.

Mai 2022

Zeilenumbruch in Transkripts

Verbesserte Zeilenumbruchlogik, um das Transkript besser in Sätze zu teilen. Neue Bearbeitungsfunktionen sind jetzt über die Azure AI Video Indexer-Website verfügbar, z. B. hinzufügen einer neuen Zeile und Bearbeiten des Zeitstempels der Zeile. Weitere Informationen finden Sie unter Einfügen oder Entfernen von Transkriptzeilen.

Azure Monitor-Integration

Azure AI Video Indexer unterstützt jetzt Diagnoseeinstellungen für Überwachungsereignisse. Protokolle von Überwachungsereignissen können jetzt über Diagnoseeinstellungen in Azure Log Analytics, Storage, Event Hubs oder eine Drittanbieterlösung exportiert werden.

Die Ergänzungen ermöglichen einen einfacheren Zugriff, um die Daten zu analysieren, den Ressourcenvorgang zu überwachen und automatisch Flows zu erstellen, um auf ein Ereignis zu reagieren. Weitere Informationen finden Sie unter Monitor Azure AI Video Indexer.

Verbesserungen bei Erkenntnissen aus Videos

Der Object Character Reader (OCR) wurde um 60 % verbessert. Gesichtserkennung um 20 % verbessert. Die Beschriftungsgenauigkeit verbesserte sich gegenüber einer Vielzahl von Videos um 30 %. Diese Verbesserungen sind sofort in allen Regionen verfügbar und erfordern keine Änderungen des Kunden.

Diensttag

Azure AI Video Indexer ist jetzt Teil von Network Service Tags. Video Indexer muss häufig auf andere Azure-Ressourcen zugreifen (z. B. Storage). Wenn Sie Ihren eingehenden Datenverkehr in Ihren Ressourcen mit einer Netzwerksicherheitsgruppe sichern, können Sie jetzt Video-Indexer als Teil der integrierten Service-Tags auswählen. Es vereinfacht das Sicherheitsmanagement, da wir das Servicetag mit unseren öffentlichen IPs auffüllen.

Umschalter für Prominentenerkennung

Sie können jetzt das Prominentenerkennungsmodell auf Kontoebene (nur auf klassischem Konto) aktivieren oder deaktivieren. Um das Modell ein- oder auszuschalten, wechseln Sie zur Modellanpassung>und schalten Sie das Modell ein oder aus. Sobald Sie das Modell deaktiviert haben, enthalten die Erkenntnisse des Video-Indexers nicht die Ausgabe des Promi-Modells und führen nicht die Promi-Modell-Pipeline aus.

Name des Azure AI Video Indexer-Repositorys

Ab dem 1. Mai wurde unser neues aktualisiertes Repository des Azure AI Video Indexer-Widgets umbenannt. Verwenden Sie stattdessen https://www.npmjs.com/package/@azure/video-indexer-widgets.

April 2022

Azure Video Analyzer für Medien wieder in Azure AI Video Indexer umbenannt

Ab heute lautet der Medienproduktname des Azure Video Analyzer und aller produktbezogenen Objekte (Webportal, Marketingmaterialien) Azure KI Video Indexer. Es ist eine abwärtskompatible Änderung, die keine Auswirkung auf APIs und Links hat. Neues Logo des Azure AI Video Indexers:

Symbol, das azure AI Video Indexer darstellt.

März 2022

Geschlossene Untertiteldateien unterstützen jetzt auch die Attribute von Sprechern

Mit dem Azure AI Video Indexer können Sie die Merkmale von Lautsprechern basierend auf einer Datei mit Untertiteln einschließen, die Sie herunterladen möchten. Um die Attribute der Sprecher einzubeziehen, wählen Sie Downloads -> Closed Captions -> wählen Sie das herunterladbare Dateiformat für Untertitel (SRT, VTT, TTML, TXT oder CSV) und aktivieren Sie das Kontrollkästchen Sprecher einbeziehen .

Verbesserungen beim Widgetangebot

Die folgenden Verbesserungen wurden vorgenommen:

  • Azure AI Video Indexer Widgets unterstützen mehrere Gebietsschemas im Parameter eines Widgets.
  • Die Erkenntnis-Widgets unterstützen anfängliche Suchparameter und mehrere Sortieroptionen.
  • Die Erkenntnis-Widgets enthalten auch einen Bestätigungsschritt vor dem Löschen eines Gesichts, um Fehler zu vermeiden.
  • Die Widgetanpassung unterstützt jetzt die Breite als Zeichenfolgen (z. B. 100 %, 100vw).

Februar 2022

Öffentliche Vorschau der Azure AI Video Indexer-Kontoverwaltung basierend auf ARM in der Government-Cloud

Die Azure AI Video Indexer-Website unterstützt jetzt die Kontoverwaltung basierend auf ARM in der öffentlichen Vorschau (siehe Versionshinweise vom November 2021).

Verwenden von Open-Source-Code zum Erstellen eines ARM-basierten Kontos

Es wurden neue Codebeispiele hinzugefügt, einschließlich HTTP-Aufrufen zur Nutzung der Azure AI Video Indexer-ARM-API zum Erstellen, Lesen, Aktualisieren und Löschen (CRUD) für Lösungsentwickler.

Januar 2022

Verbesserte Erkennung von Audioeffekten

Die Erkennungsfunktion für Audioeffekte wurde verbessert und erzielt jetzt eine bessere Erkennungsrate gegenüber den folgenden Klassen:

  • Massenreaktionen (Jubel, Klatschen und Buh-Rufe)
  • Schuss oder Explosion
  • Gelächter

Weitere Informationen finden Sie im Artikel zum Erkennen von Audioeffekten.

Unterstützung neuer Quellsprachen für Spracherkennungstechnologie, Übersetzung sowie Suche auf der Website

Azure AI Video Indexer führt die Unterstützung von Quellsprachen für STT (Sprache zu Text), Übersetzung und Suche nach den folgenden Sprachen auf der Azure AI Video Indexer-Website ein:

  • Hebräisch he-IL
  • Portugiesisch pt-PT
  • Persisch fa-IR

Dies bedeutet, dass Transkription, Übersetzung und Suchfunktionen auch für diese Sprachen auf der Azure AI Video Indexer-Website und -Widgets unterstützt werden.

Dezember 2021

Das Projektfeature ist jetzt allgemein verfügbar

Das Projektfeature ist jetzt allgemein verfügbar und kann produktiv verwendet werden. Es gibt keine Preisänderung im Zusammenhang mit der Umstellung „Vorschau auf GA“. Informationen hierzu finden Sie unter Hinzufügen von Videoclips zu Ihren Projekten.

Unterstützung neuer Quellsprachen für Spracherkennung, Übersetzung und Suche auf API-Ebene

Azure AI Video Indexer führt Quellsprachenunterstützung für STT (Sprache zu Text), Übersetzung und Suche in Hebräisch he-IL, Portugiesisch pt-PTund Persisch fa-IR auf API-Ebene ein.

Erkennungsfunktion für übereinstimmende Personen

Beim Indizieren eines Videos mit erweiterten Azure AI Video Indexer-Videoeinstellungen können Sie die neue Erkennungsfunktion für übereinstimmende Personen anzeigen. Wenn in Ihrer Mediendatei Personen ermittelt werden, können Sie jetzt über den Media Player diejenige Person anzeigen, die eine Übereinstimmung erzielt.

November 2021

Öffentliche Vorschau der Azure AI Video Indexer-Kontoverwaltung basierend auf ARM

Azure AI Video Indexer führt eine öffentliche Vorschau der azure Resource Manager (ARM)-basierten Kontoverwaltung ein. Sie können ARM-basierte Azure AI Video Indexer-APIs verwenden, um ein Konto aus dem Azure-Portal zu erstellen, zu bearbeiten und zu löschen.

Hinweis

Die Government-Cloud umfasst Unterstützung für CRUD ARM-basierte Konten aus der Azure AI Video Indexer-API und aus dem Azure-Portal.

Es gibt aktuell keine Unterstützung von der Azure AI Video Indexer Website.

Weitere Informationen finden Sie unter Erstellen eines Azure KI Video Indexer-Kontos.

Personenbekleidungserkennung

Beim Indizieren eines Videos mit den erweiterten Videoeinstellungen des Azure AI Video Indexer können Sie die neue Funktion zur Bekleidungserkennung bei Personen sehen. Wenn personen in Ihrer Mediendatei erkannt werden, können Sie nun den Kleidungstyp anzeigen, den sie über den Media Player tragen.

Gesichtsbegrenzungsrahmen (Vorschau)

Bei der Indizierung von Mediendateien können Sie jetzt einen Begrenzungsrahmen für die erkannten Gesichter aktivieren. Diese Funktion ist verfügbar, wenn Sie für die Indizierung Ihrer Datei die standardäßige, einfache oder erweiterte Indizierungsvoreinstellung verwenden.

Sie können die Begrenzungsrahmen über den Player aktivieren.

Oktober 2021

Einbetten von Widgets in Ihre App mithilfe des Azure AI Video Indexer-Pakets

Verwenden Sie das neue NPM-Paket (Azure AI Video Indexer), @azure/video-analyzer-for-media-widgets um Ihrer App Widgets hinzuzufügen insights und entsprechend Ihren Anforderungen anzupassen.

Mit dem neuen AVAM-Paket können Sie ganz einfach unsere Widgets und Ihre App einbetten und kommunizieren, anstatt ein iframe-Element zum Einbetten des Erkenntniswidgets hinzuzufügen. Weitere Informationen finden Sie unter Einbetten und Anpassen von Azure AI Video Indexer Widgets in Ihrer App

August 2021

Erneutes Indizieren von Video- oder Audiodateien

Es gibt jetzt eine Option zum Erneuten Indizieren von Video- oder Audiodateien, die während des Indizierungsprozesses fehlgeschlagen sind.

Verbesserte Unterstützung für Barrierefreiheit

Fehler im Zusammenhang mit CSS, Design und Barrierefreiheit wurden behoben:

  • Hoher Kontrast
  • Kontoeinstellungen und Ansichten zu Erkenntnissen im Portal.

Juli 2021

Automatische Skalierung reservierter Einheiten für Medien

Am 1. August 2021 hat Azure AI Video Indexer die automatische Skalierung von Media Reserved Units (MRUs) durch Azure Media Services aktiviert, daher müssen Sie sie nicht über Azure AI Video Indexer verwalten. Es ermöglicht preisoptimierung, z. B. Preisreduzierung in vielen Fällen, basierend auf Ihren geschäftlichen Anforderungen, da sie automatisch skaliert wird.

Juni 2021

Azure AI Video Indexer in sechs neuen Regionen bereitgestellt

Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in Den Regionen Frankreich Central, Central US, Brasilien Süd, West Central US, Korea Central und Japan West erstellen.

Mai 2021

Azure AI Video Indexer unterstützt jetzt STT, Übersetzung und Suche in:

  • Chinesisch (Kantonesisch) zh-HK
  • Niederländisch (Niederlande) Nl-NL
  • Tschechisch Cs-CZ
  • Polnisch Pl-PL
  • Schwedisch (Schweden) Sv-SE
  • Norwegisch nb-NO
  • Finnisch fi-FI
  • Französisch (Kanada) fr-CA
  • Thailändisch th-TH
  • Arabisch:
    • Vereinigte Arabische Emirate ar-AE und ar-EG
    • Irak ar-IQ
    • Jordanien ar-JO
    • Kuwait ar-KW
    • Libanon ar-LB
    • Oman ar-OM
    • Katar ar-QA
    • Palästinensische Behörde ar-PS
    • Syrien ar-SY
    • Türkisch tr-TR

Diese Sprachen sind sowohl in der API als auch auf der Azure AI Video Indexer-Website verfügbar. Wählen Sie im Kombinationsfeld unter Ausgangssprache des Videos die Sprache aus.

Neues Design für Azure AI Video Indexer

Es ist ein neues Design verfügbar: „Azure“ zusammen mit den Designs „hell“ und „dunkel“. Um ein Design auszuwählen, wählen Sie auf dem Zahnradsymbol in der oberen rechten Ecke der Website Designs unter "Benutzereinstellungen" aus.

Neuer Open-Source-Code, den Sie verwenden können

Im GitHub-Repository sind drei neue GitHub-Projekte verfügbar:

  • Code, der Ihnen hilft, die neu hinzugefügte Widget-Anpassungzu verwenden.

  • Lösung, die Ihnen hilft, Duplizierung zu Ihren Videobibliotheken hinzuzufügen.

Neue Option zum Umschalten von Begrenzungsrahmen (für beobachtete Personen) für den Player

Wenn Sie ein Video über unsere erweiterten Videoeinstellungen indizieren, werden unsere neuen Funktionen für beobachtete Personen angezeigt. Wenn in Ihrer Mediendatei Personen erkannt werden, können Sie über den Media Player einen Begrenzungsrahmen für die erkannte Person aktivieren.

April 2021

Der Videoindexer-Dienst wurde in Azure AI Video Indexer umbenannt.

Verbesserte Uploadfunktionalität im Portal

Azure AI Video Indexer verfügt über eine neue Upload-Erfahrung auf der Website. Um Ihre Mediendatei hochzuladen, klicken Sie auf der Registerkarte Mediendateien auf die Schaltfläche Hochladen.

Neues Entwicklerportal in gov-cloud verfügbar

Das Azure AI Video Indexer API-Entwicklerportal ist jetzt auch in Azure für US Government verfügbar.

Erkennung beobachteter Personen (Vorschauversion)

Der Azure AI Video Indexer erkennt jetzt beobachtete Personen in Videos. Es enthält Informationen wie den Ort der Person im Videoframe und den genauen Zeitstempel (Start, Ende), wenn eine Person angezeigt wird. Die API gibt die Begrenzungsfeldkoordinaten (in Pixel) für jede erkannte Personeninstanz einschließlich Konfidenz zurück.

Wenn beispielsweise ein Video eine Person enthält, listet der Erkennungsvorgang die Personendarstellungen zusammen mit ihren Koordinaten in den Videoframes auf. Sie können diese Funktion verwenden, um den Weg der Person in einem Video zu bestimmen. Außerdem können Sie ermitteln, ob im Video mehrere Vorkommen derselben Person enthalten sind.

Das neu hinzugefügte Feature zur Erkennung von Personen ist beim Indizieren Ihrer Datei verfügbar, indem Sie die "Erweiterte Option - > oder Erweitertes Video + Audiovoreinstellung (unter "Video + Audioindizierung") auswählen. Standard- und grundlegende Indizierungsvoreinstellungen enthalten dieses neue erweiterte Modell nicht.

Wenn Sie Einblicke in Ihr Video auf der Azure AI Video Indexer-Website anzeigen möchten, wird die Erkennung beobachteter Personen auf der Seite mit Miniaturansichten aller erkannten Personen angezeigt. Sie können eine Miniaturansicht einer Person auswählen und sehen, wo die Person im Videoplayer erscheint.

Das Feature ist auch in der JSON-Datei verfügbar, die von Azure AI Video Indexer generiert wird. Weitere Informationen finden Sie unter "Beobachtete Personen" in einem Video.

Mit Audioeffekterkennung erkannte Akustikereignisse (Vorschau)

Sie können jetzt die erkannten Akustikereignisse in der Untertiteldatei sehen. Die Datei kann von der Azure AI Video Indexer-Website heruntergeladen werden und ist als Artefakt in der GetArtifact-API verfügbar.

Die Komponente Erkennung von Audioeffekten (Vorschau) erkennt verschiedene Akustikereignisse und klassifiziert sie in verschiedene Akustikkategorien (z. B. Schüsse, Schreie, Reaktionen einer Menschenmenge usw.). Weitere Informationen finden Sie im Artikel zum Erkennen von Audioeffekten.

März 2021

Audioanalyse

Die Audioanalyse steht jetzt in einem neuen Paket von Audiofunktionen zu unterschiedlichen Preisen zur Verfügung. Die neue Analysevoreinstellung Basic Audio bietet eine kostengünstige Option, um nur die Transkription von Sprache zu extrahieren, zu übersetzen und die Ausgabe von Untertiteln und Untertiteln zu formatieren. Die Voreinstellung 'Standardaudio' erzeugt zwei separate Meter auf Ihrer Rechnung, einschließlich einer Zeile für Transkription und einer separaten Zeile für die Untertitel- und Beschriftungsformatierung. Weitere Preisinformationen finden Sie auf der Seite mit Media Services-Preisen.

Das neu hinzugefügte Bundle ist verfügbar, wenn Sie Ihre Datei indizieren oder neu indizieren, indem Sie die Option "Erweiterte Option –>Standardaudio voreingestellt" auswählen (unter dem Dropdownfeld "Video + Audioindizierung").

Neues Entwicklerportal

Azure AI Video Indexer verfügt über ein neues Entwicklerportal. Probieren Sie die neuen Azure AI Video Indexer-APIs aus, und suchen Sie alle relevanten Ressourcen an einem zentralen Ort:

Erweiterte Anpassungsmöglichkeiten für das Erkenntnis-Widget

DAS SDK ist jetzt verfügbar, um das Insights-Widget von Azure AI Video Indexer in Ihren eigenen Dienst einzubetten und seinen Stil und seine Daten anzupassen. Das SDK unterstützt das standardmäßige Azure AI Video Indexer Insights Widget und ein vollständig anpassbares Insights-Widget. Codebeispiel ist im GitHub-Repository von Azure AI Video Indexer verfügbar. Mit diesen erweiterten Anpassungsfunktionen kann Lösungsentwickler benutzerdefinierte Formatierungen anwenden und die eigenen KI-Daten des Kunden bereitstellen und diese im Einblicks-Widget (mit oder ohne Azure AI Video Indexer Insights) präsentieren.

Azure AI Video Indexer wird im Norden der USA, im Westen der USA und in Kanada eingesetzt

Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in den Regionen North Central, USA West und Kanada erstellen.

Unterstützung neuer Quellsprachen für Sprache-in-Text (STT), Übersetzung und Suche

Azure AI Video Indexer unterstützt jetzt STT, Übersetzung und Suche in:

  • Dänisch da-DK
  • Norwegisch nb-NO
  • Schwedisch sv-SE
  • Finnisch fi-FI
  • Französisch (Kanada) fr-CA
  • Thailändisch th-TH
  • Arabisch ar-BH, ar-EG, ar-IQ, ar-JO, ar-KW, ar-LB, ar-OM, ar-QA, ar-S und ar-SY, und Türkisch tr-TR.

Die Sprachen sind in der API und auf der Azure AI Video Indexer-Website verfügbar.

Suchen nach Thema auf der Azure AI-Videoindexer-Website

Sie können jetzt die Suchfunktion oben auf der Azure AI Video Indexer-Websiteseite verwenden, um nach Videos mit bestimmten Themen zu suchen.

Februar 2021

Mehrere Kontobesitzer

Die Kontobesitzerrolle wurde zum Azure AI Video Indexer hinzugefügt. Sie können Benutzer hinzufügen, ändern und entfernen sowie deren Rolle ändern. Ausführliche Informationen zum Teilen eines Kontos finden Sie unter Benutzer einladen.

Audioereigniserkennung (Public Preview)

Hinweis

Dieses Feature steht nur in Testkonten zur Verfügung.

Azure AI Video Indexer erkennt jetzt die folgenden Audioeffekte in den nichtspeechischen Segmenten des Inhalts: Schuss, Glasschattierung, Alarm, Sirenen, Explosion, Hunderinde, Schreien, Lachen, Massenreaktionen (Jubeln, Klatschen und Booing) und Stille.

Das neu hinzugefügte Feature für Audioeffekte ist verfügbar, wenn Sie Ihre Datei mit der Voreinstellung Erweiterte Option ->Erweiterte Audiodaten (unter „Video- und Audioindizierung“) indizieren. Die Standardindizierung umfasst nur Stille und Massenreaktionen.

Der Ereignistyp Applaus aus dem vorherigen Modell für Audioeffekte wird nun im Rahmen des Ereignistyps Reaktionen einer Menschenmenge extrahiert.

Wenn Sie wählen, Insights Ihres Videos auf der Azure AI Video Indexer Website anzuzeigen, werden die Audioeffekte auf der Seite angezeigt.

Erweiterung benannter Entitäten

Die extrahierte Personen- und Ortsliste wurde allgemein erweitert und aktualisiert.

Darüber hinaus umfasst das Modell jetzt Personen und Orte im Kontext, die nicht berühmt sind, wie ein "Sam" oder "Home" im Video.

Januar 2021

Azure AI Video Indexer wird in der US Government-Cloud bereitgestellt

Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in der US-Regierungscloud in Virginia und Arizona erstellen. Das Azure AI Video Indexer-Testangebot ist in der genannten Region nicht verfügbar. Für weitere Informationen besuchen Sie die Azure AI Video Indexer Dokumentation.

Azure AI Video Indexer in der Region Indien Zentral bereitgestellt

Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in der Region Indien Zentral erstellen.

Neuer dunkler Modus für die Azure AI Video Indexer-Websiteoberfläche

Die Azure AI Video Indexer-Websiteoberfläche ist jetzt im dunklen Modus verfügbar. Um den dunklen Modus zu aktivieren, öffnen Sie den Einstellungsbereich, und schalten Sie die Option " Dunkler Modus " um.

Dezember 2020

Azure AI Video Indexer in der Schweiz West und Der Schweiz Nord bereitgestellt

Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in den Regionen Schweiz West und Schweiz Nord erstellen.

Oktober 2020

Geplante Änderungen der Azure AI Video Indexer-Website zur Authentifizierung

Ab dem 1. März 2021 können Sie sich nicht mehr mit Facebook oder LinkedIn beim Entwicklerportal der Azure AI Video Indexer-Website registrieren und anmelden.

Sie können sich mit einem der folgenden Anbieter registrieren und anmelden: Microsoft Entra ID, Microsoft und Google.

Hinweis

Die azure AI Video Indexer-Konten, die mit LinkedIn und Facebook verbunden sind, sind nach dem 1. März 2021 nicht zugänglich.

Sie sollten Ihre eigene Microsoft Entra-ID, Microsoft oder Google-E-Mail-Adresse zum Azure AI Video Indexer-Konto einladen , damit Sie den Zugriff erhalten können. Sie können einen weiteren Besitzer unterstützter Anbieter hinzufügen, wie im Abschnitt "Einladung" beschrieben. Alternativ dazu können Sie ein kostenpflichtiges Konto erstellen und die Daten migrieren.

August 2020

Mobiles Design für die Azure AI Video Indexer-Website

Die Azure AI Video Indexer-Websiteumgebung unterstützt jetzt mobile Geräte. Das Nutzererlebnis ist so gestaltet, dass es sich responsiv an die Bildschirmgröße Ihres mobilen Geräts anpasst (ausgenommen sind Anpassungs-Benutzeroberflächen).

Verbesserte Barrierefreiheit und Fehlerbehebungen

Im Rahmen der WCAG-Richtlinien (Web Content Accessibility Guidelines) entspricht das Azure AI Video Indexer-Websiterlebnis der Klasse C in Übereinstimmung mit den Microsoft Accessibility-Standards. Mehrere Fehler im Zusammenhang mit Tastaturnavigation, programmgesteuertem Zugriff und Sprachausgabe wurden gelöst und Verbesserungen eingeführt.

Juli 2020

Allgemeine Verfügbarkeit für die Erkennung mehrerer Sprachen

Die Erkennung mehrerer Sprachen geht von der Vorschau in die allgemeine Verfügbarkeit über und ist für den Einsatz in Produktionsumgebungen bereit.

Es gibt keine Preisänderung im Zusammenhang mit der Umstellung „Vorschau auf GA“.

Verbesserungen der Azure AI Video Indexer-Website

Neue Suchleiste für die Deep Insights-Suche mit zusätzlichen Filterfunktionen wurde hinzugefügt. Die Suchergebnisse wurden ebenfalls verbessert.

Es gibt eine neue Listenansicht mit der Möglichkeit zum Sortieren und Verwalten eines Videoarchivs mit vielen Dateien.

Neues Panel zur einfachen Auswahl und Konfiguration

Wir haben einen Seitenbereich für eine einfache Auswahl und Benutzerkonfiguration hinzugefügt, das eine einfache und schnelle Kontoerstellung und -freigabe sowie die Konfiguration von Einstellungen ermöglicht.

Der Seitenbereich wird auch verwendet, um auf Benutzereinstellungen und Hilfe zuzugreifen.

Juni 2020

Suchen nach Themen

Sie können jetzt die Such-API verwenden, um nach Videos mit bestimmten Themen zu suchen (nur API).

Themen werden als Teil von textScope hinzugefügt (optionaler Parameter). Ausführliche Informationen finden Sie unter API.

Bezeichnungserweiterung

Der Bezeichnungs-Tagger wurde aktualisiert und enthält jetzt mehr visuelle Bezeichnungen, die identifiziert werden können.

Mai 2020

Azure AI Video Indexer im Osten der USA bereitgestellt

Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in der Region Ost-USA erstellen.

Azure KI Video Indexer-URL

Regionale Azure AI Video Indexer-Endpunkte wurden alle vereinheitlicht, sodass sie nur noch mit www beginnen. Keine Aktion erforderlich.

Von nun an nutzen Sie www.videoindexer.ai, ob zum Einbetten von Widgets oder zum Einloggen auf der Azure KI Video Indexer Website.

Beim Aufruf von wus.videoindexer.ai erfolgt eine Umleitung zur www.-Adresse. Weitere Informationen finden Sie unter Einbetten von Azure AI Video Indexer Widgets in Ihren Apps.

April 2020

Neue Funktionen für Widgetparameter

Das Widget Insights weist neue Parameter auf: language und control.

Das Widget Player weist den neuen Parameter locale auf. Sowohl locale als auch language Parameter steuern die Sprache des Spielers.

Weitere Informationen finden Sie im Abschnitt Widgettypen.

Neue Playerskin

Ein neuer Spieler-Skin mit aktualisiertem Design wurde veröffentlicht.

Vorbereitung auf bevorstehende Änderungen

  • Heute geben die folgenden APIs ein Kontoobjekt zurück:

    Das Account-Objekt weist ein Url Feld auf die Position der Azure AI Video Indexer-Website hin. Bei kostenpflichtigen Konten verweist das Url Feld derzeit auf eine interne URL anstelle der öffentlichen Website. In den kommenden Wochen aktualisieren wir sie und geben die URL der Azure AI Video Indexer-Website für alle Konten (Testversion und Bezahlt) zurück.

    Verwenden Sie nicht die internen URLs. Sie sollten die öffentlichen AZURE AI Video Indexer-APIs verwenden.

  • Wenn Sie Azure AI Video Indexer-URLs in Ihre Anwendungen einbetten und die URLs nicht auf die Azure AI Video Indexer-Website oder den Azure AI Video Indexer-API-Endpunkt verweisen (https://api.videoindexer.ai), sondern auf einen regionalen Endpunkt (z https://wus2.videoindexer.ai. B. ), generieren Sie die URLs neu.

    Dies kann auf einer der folgenden Weisen erfolgen:

    • Ersetzen der URL durch eine URL, die auf die Azure AI Video Indexer-Widget-APIs verweist (z. B. das Insights-Widget)

    • Verwenden der Azure AI Video Indexer-Website zum Generieren einer neuen eingebetteten URL:

      Drücken Sie "Wiedergabe", um zur Seite Ihres Videos zu gelangen –> wählen Sie die< Schaltfläche "/>Einbetten" aus,> und kopieren Sie die URL in Ihre Anwendung:

    Die regionalen URLs werden nicht unterstützt. Sie werden in den kommenden Wochen blockiert.

Januar 2020

Unterstützung für individuell anpassbare Sprachoptionen für mehr Sprachen

Azure AI Video Indexer unterstützt jetzt benutzerdefinierte Sprachmodelle für ar-SY , en-UKund en-AU (nur API).

Aktualisierung des Zeitrahmens der Aktion „Konto löschen“

Beim Ausführen der Aktion „Konto löschen“ wird das Konto jetzt innerhalb von 90 Tagen und nicht innerhalb von 48 Stunden gelöscht.

Neues Azure AI Video Indexer GitHub-Repository

Ein neues Azure AI Video Indexer GitHub mit verschiedenen Projekten, Erste-Schritte-Anleitungen und Codebeispielen ist jetzt verfügbar: https://github.com/Azure-Samples/media-services-video-indexer

Swagger-Update

Azure AI Video Indexer hat Authentifizierungen und Operationen in einer einzigen Azure AI Video Indexer OpenAPI-Spezifikation (swagger) vereinheitlicht. Entwickler finden die APIs im Azure AI Video Indexer-Entwicklerportal.

Dezember 2019

Aktualisieren des Transkripts mit der neuen API

Aktualisieren Sie einen bestimmten Abschnitt im Transkript mit der Update-Video-Index-API.

Beheben der Kontokonfiguration auf der Azure KI Video Indexer-Webseite

Sie können jetzt die Konfiguration der Media Services-Verbindung aktualisieren, um sich selbst zu helfen bei Problemen wie:

  • Falsche Azure Media Services-Ressource
  • Kennwortänderungen
  • Die Media Services-Ressourcen wurden zwischen den Abonnements verschoben.

Um die Kontokonfiguration zu beheben, navigieren Sie auf der Azure AI Video Indexer-Website zur Registerkarte "Kontoeinstellungen" > (als Besitzer).

Konfigurieren des Custom Vision-Kontos

Konfigurieren Sie das benutzerdefinierte Vision-Konto für kostenpflichtige Konten mithilfe der Azure AI Video Indexer-Website (zuvor nur die API unterstützt). Melden Sie sich hierzu auf der Azure AI Video Indexer-Website an, und wählen Sie "Modellanpassungsmodell ><>>konfigurieren" aus.

Szenen, Aufnahmen und Keyframes – jetzt in einem Einblicksbereich

Szenen, Aufnahmen und Keyframes werden jetzt zu einer Erkenntnis zusammengeführt, um Nutzung und Navigation zu erleichtern. Wenn Sie die gewünschte Szene auswählen, können Sie sehen, aus welchen Aufnahmen und Keyframes sie besteht.

Benachrichtigung über einen langen Videonamen

Wenn ein Videoname länger als 80 Zeichen ist, zeigt Azure AI Video Indexer einen beschreibenden Fehler beim Upload an.

Benachrichtigung über deaktivierten Streamingendpunkt

Wenn der Streamingendpunkt deaktiviert ist, zeigt azure AI Video Indexer einen beschreibenden Fehler auf der Playerseite an.

Verbesserung der Fehlerbehandlung

Statuscode 409 wird jetzt von Re-Index Video und Update-Videoindex-APIs zurückgegeben, wenn ein Video aktiv indiziert wird. Es verhindert, dass die aktuellen Reindex-Änderungen versehentlich überschrieben werden.

November 2019

  • Unterstützung von benutzerdefinierten koreanischen Sprachmodellen

    Azure AI Video Indexer unterstützt jetzt benutzerdefinierte Sprachmodelle in Koreanisch (ko-KR) sowohl in der API als auch im Portal.

  • Neue unterstützte Sprachen für die Spracherkennung (STT)

    Azure AI Video Indexer-APIs unterstützen jetzt STT in Arabisch Levantine (ar-SY), Englische UK-Regionalsprache (en-GB) und Englische australische Regionalsprache (en-AU).

    Für den Videoupload haben wir zh-HANS durch zh-CNersetzt. Beide werden unterstützt, aber zh-CN wird empfohlen und genauer.

Oktober 2019

  • Suchen nach animierten Figuren im Katalog

    Wenn Sie animierte Figuren indizieren, können Sie jetzt in der Videogalerie des Kontos nach ihnen suchen.

September 2019

Auf der IBC 2019 wurden mehrere Verbesserungen angekündigt:

  • Erkennung animierter Figuren (öffentliche Vorschauversion)

    Die Fähigkeit zum Auffinden, Gruppieren und Erkennen von Figuren in animierten Inhalten mithilfe der Integration in Custom Vision.

  • Mehrsprachige Identifikation (öffentliche Vorschauversion)

    Erkennen von Segmenten in mehreren Sprachen in der Audiospur und Erstellen eines mehrsprachigen Transkripts auf ihrer Grundlage. Erste Unterstützung: Englisch, Spanisch, Deutsch und Französisch. Weitere Informationen finden Sie unter Mehrsprachigen Inhalt transkribieren.

  • Extraktion benannter Entitäten für Personen und Ort

    Extrahiert mithilfe der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) Marken, Standorte und Personen aus Sprache und visuellem Text.

  • Redaktionelle Typklassifizierung für Aufnahmen

    Tagging von Aufnahmen mit redaktionellen Typen wie Nahaufnahme, Halbnah, Zweier-Einstellung, Innenbereich, Außenbereich usw. Weitere Informationen finden Sie unter Erkennung von redaktionellen Aufnahmetypen.

  • Verbesserte Themendeduktion – jetzt mit Abdeckung von Stufe 2

    Das Themendeduktionsmodell unterstützt jetzt mehr Detailebenen der IPTC-Taxonomie. Sämtliche Details finden Sie unter Azure Media Services new AI-powered innovation (Neue, KI-gestützte Innovationen in Azure Media Services).

August 2019

Azure KI Video Indexer für Vereinigtes Königreich, Süden bereitgestellt

Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in der Südregion Großbritannien erstellen.

Neue redaktionelle Aufnahmearten verfügbar

Neue Tags, die Videoaufnahmen hinzugefügt werden, bieten redaktionelle „Aufnahmetypen“, um sie mit gängigen redaktionellen Phrasen zu identifizieren, die im Workflow zur Erstellung von Inhalten verwendet werden, wie z. B.: extreme Nahaufnahme, Nahaufnahme, breit, mittel, zwei Aufnahmen, im Freien, im Innenbereich, linkes Gesicht und rechtes Gesicht (im json verfügbar).

Neue Extraktion von Personen- und Standortentitäten verfügbar

Azure AI Video Indexer identifiziert benannte Orte und Personen über die Verarbeitung natürlicher Sprachen (NLP) aus der OCR und Transkription des Videos. Azure KI Video Indexer verwendet einen Machine Learning-Algorithmus, um zu erkennen, wann bestimmte Standorte (z.B. der Eiffelturm) oder Personen (z.B. John Doe) in einem Video ausgesprochen werden.

Extraktion von Keyframes in nativer Auflösung

Keyframes, die von Azure AI Video Indexer extrahiert wurden, sind in der ursprünglichen Auflösung des Videos verfügbar.

Allgemeine Verfügbarkeit für Trainieren von benutzerdefinierten Gesichtern aus Bildern

Das Trainieren von Gesichtern aus Bildern wurde vom Vorschaumodus in die allgemeine Verfügbarkeit überführt (verfügbar über eine API und im Portal).

Hinweis

Es gibt keine Preisänderung im Zusammenhang mit der Umstellung „Vorschau auf GA“.

Sie können nun die Registerkarte „Katalog“ im Portal ausblenden (ähnlich dem Ausblenden der Registerkarte „Beispiele“).

Maximale URL-Größe erhöht

Unterstützung für URL-Abfragezeichenfolgen von 4096 (anstelle von 2048) bei der Indizierung eines Videos.

Unterstützung für mehrsprachige Projekte

Projekte können nun auf Basis von Videos erstellt werden, die in verschiedenen Sprachen indiziert sind (nur API).

Juli 2019

Editor als Widget

Der KI-Editor von Azure KI Video Indexer ist nun als Widget verfügbar und kann in Kundenanwendungen eingebettet werden.

Aktualisieren des benutzerdefinierten Sprachmodells aus der Untertiteldatei über das Portal

Kunden können im Portal auf der Seite zur Anpassung als Eingabe für Sprachmodelle die Dateiformate VTT, SRT und TTML angeben.

Juni 2019

Azure AI Video Indexer in Japan East bereitgestellt

Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in der Region Japan Ost erstellen.

Erstellen und Reparieren der Konto-API (Vorschau)

Eine neue API wurde hinzugefügt, die es Ihnen ermöglicht, den Azure Media Services-Verbindungsendpunkt oder -Schlüssel zu aktualisieren.

Verbesserung der Fehlerbehandlung beim Hochladen

Wenn das zugrunde liegende Azure Media Services-Konto falsch konfiguriert ist, wird eine beschreibende Meldung zurückgegeben.

Vorschau der Keyframes in der Player-Zeitachse

Sie können jetzt eine Bildvorschau für jeden Moment auf der Zeitleiste des Players sehen.

Editor-Teilauswahl

Sie können jetzt eine Vorschau aller Erkenntnisse anzeigen, die als Ergebnis der Auswahl eines bestimmten Erkenntniszeitraums im Editor ausgewählt sind.

Mai 2019

Aktualisieren des benutzerdefinierte Sprachmodells aus der Untertiteldatei

Die APIs Benutzerdefiniertes Sprachmodell erstellen und Benutzerdefiniertes Sprachmodell aktualisieren unterstützen jetzt VTT-, SRT-, und TTML-Dateiformate als Eingabe für Sprachmodelle.

Wenn Sie die Update Video-Transkript-API aufrufen, wird die Transkription automatisch hinzugefügt. Das dem Video zugeordnete Trainingsmodell wird ebenfalls automatisch aktualisiert. Informationen zum Anpassen und Trainieren Ihrer Sprachmodelle finden Sie unter Anpassen eines Sprachmodells mit Azure AI Video Indexer.

Neue Transkriptformate zum Herunterladen – TXT und CSV

Zusätzlich zum bereits unterstützten Untertitelformat (SRT, VTT und TTML) unterstützt Azure AI Video Indexer jetzt das Herunterladen des Transkripts in TXT- und CSV-Formaten.