Neuerungen beim maschinellen Sehen

Informieren Sie sich über die Neuerungen im Dienst. Dabei kann es sich um Versionshinweise, Videos, Blogbeiträge und andere Informationen handeln. Legen Sie ein Lesezeichen für diese Seite an, um aktuelle Informationen zu neuen Features, Verbesserungen, Fixes und Dokumentationsaktualisierungen zu erhalten.

Juni 2022

Einführung von Vision Studio

Vision Studio ist ein Benutzeroberflächentool, mit dem Sie Features von Azure Cognitive Services für Vision erkunden, erstellen und in Ihre Anwendungen integrieren können.

Vision Studio bietet Ihnen eine Plattform, um verschiedene Dienstfeatures auszuprobieren und zu prüfen, was sie visualisiert zurückgeben. Mithilfe von Language Studio können Sie loslegen, ohne Code schreiben zu müssen, und die verfügbaren Clientbibliotheken und REST-APIs in Ihrer Anwendung verwenden.

Verantwortungsvolle KI für die Gesichtserkennung

Transparenzdokumentation zur Gesichtserkennung

  • Die Transparenzdokumentation unterstützt unsere Kunden dabei, die Genauigkeit und Fairness ihrer Systeme zu verbessern, indem sie sinnvolle menschliche Überprüfungen integrieren, um Fehlidentifizierung oder andere Fehler zu erkennen und zu beheben, Support für Personen mit mutmaßlich falschen Ergebnissen bereitstellen und Schwankungen bei der Genauigkeit aufgrund von variierenden Betriebsbedingungen identifizieren und behandeln.

Ausmusterung vertraulicher Attribute

  • Wir haben Gesichtsanalysefunktionen ausgemustert, mit denen sich emotionale Zustände und Identitätsattribute wie Geschlecht, Alter, Lächeln, Gesichtsbehaarung, Haare und Make-up ableiten lassen.
  • Gesichtserkennungsfunktionen (einschließlich Erkennung von Unschärfe, Belichtung, Brille, Kopfhaltung, Wahrzeichen, Rauschen, Verdeckung, Begrenzungsrahmen für Gesichter) bleiben allgemein verfügbar und erfordern keine Anwendung.

Fairlearn-Paket und das Fairness-Dashboard von Microsoft

  • Das Open-Source-basierte Fairlearn-Paket und das Fairness-Dashboard von Microsoft unterstützen Kunden dabei, die Fairness der Gesichtsüberprüfungsalgorithmen von Microsoft auf der Grundlage ihrer eigenen Daten zu messen, um vor der Bereitstellung ihrer Technologie potenzielle Fairnessprobleme zu identifizieren und zu behandeln, die sich unter Umständen auf verschiedene demografische Gruppen auswirken können.

Richtlinie für eingeschränkten Zugriff

  • Im Zuge der Ausrichtung der Gesichtserkennung auf den aktualisierten Standard für verantwortungsvolle KI wurde für die Gesichtserkennungs-API und maschinelles Sehen eine Richtlinie für eingeschränkten Zugriff implementiert. Bestandskunden haben ein Jahr Zeit, sich zu bewerben und auf Basis der angegebenen Anwendungsfälle eine Freigabe für den weiteren Zugriff auf die Gesichtserkennungsdienste zu erhalten. Details zum eingeschränkten Zugriff auf die Gesichtserkennung finden Sie hier. Details für maschinelles Sehen finden Sie hier.

Kennzeichnung der Vorschauversion von Maschinelles Sehen 3.2 als veraltet

Die Vorschauversionen der 3.2-API werden planmäßig im Dezember 2022 eingestellt. Kunden werden aufgefordert, stattdessen die allgemein verfügbare (GA-) Version der API zu verwenden. Beachten Sie bei der Migration von den 3.2-Vorschauversionen die folgenden Veränderungen:

  1. Die Aufrufe der Bildanalyse- und der Lese-API akzeptieren jetzt einen optionalen model-version-Parameter, mit dem Sie angeben können, welches KI-Modell verwendet werden soll. Standardmäßig wird das neueste Modell verwendet.
  2. Die Aufrufe der Bildanalyse- und der Lese-API geben auch ein model-version-Feld in erfolgreichen API-Antworten zurück. Dieses Feld gibt an, welches Modell verwendet wurde.
  3. Bildanalyse-APIs verwenden jetzt ein anderes Fehlerberichtformat. In der API-Referenzdokumentation erfahren Sie, wie Sie die Fehlerbehandlungscodes anpassen können.

Mai 2022

OCR (Lesen) API-Modell ist allgemein verfügbar (GA)

Maschinelles Sehen OCR (Lesen) API neuestes Modell mit 164 unterstützten Sprachen ist jetzt allgemein als Clouddienst und Container verfügbar.

  • Die OCR-Unterstützung für gedruckten Text wird um 164 neue Sprachen erweitert, einschließlich Arabisch, Hindi und anderen Sprachen, die kyrillische, arabische und Devanagari-Schriften verwenden.
  • Die OCR-Unterstützung für handschriftliche Texte wird mit den Sprachen Englisch, vereinfachtes Chinesisch, Französisch, Deutsch, Italienisch, Japanisch, Koreanisch, Portugiesisch und Spanisch auf 9 Sprachen erweitert.
  • Erweiterte Unterstützung für einzelne Zeichen, handschriftliche Datumsangaben, Beträge, Namen und andere Entitäten, die häufig in Rechnungen gefunden wurden.
  • Verbesserte Verarbeitung digitaler PDF-Dokumente.
  • Die Begrenzung der Eingabedateigröße wurde um 10x auf 500 MB erhöht.
  • Leistungs- und Latenzverbesserungen.
  • Verfügbar als Cloud-Dienst und Docker-Container.

Informationen zur Verwendung des GA-Modells finden Sie in der OCR-Schrittanleitung.

Februar 2022

OCR-API (Lesen) in der Public Preview unterstützt 164 Sprachen

Die OCR-API (Lesen) für maschinelles Sehen erhöht die Anzahl unterstützter Sprachen in der neuesten Vorschauversion auf 164:

  • Die OCR-Unterstützung für gedruckten Text erweitert sich um 42 neue Sprachen, einschließlich Arabisch, Hindi und anderen Sprachen, die arabische und Devanagari-Schriften verwenden.
  • Die OCR-Unterstützung für handschriftliche Texte wird zusätzlich zu den Sprachen Englisch, Chinesisch (vereinfacht), Französisch, Deutsch, Italienisch, Portugiesisch und Spanisch auf Japanisch und Koreanisch erweitert.
  • Verbesserungen, einschließlich besserer Unterstützung für das Extrahieren von handschriftlichen Datumsangaben, Mengen, Namen und einzelnen Zeichenfeldern.
  • Allgemeine Verbesserungen bei Leistung und KI-Qualität

Informationen zur Verwendung der neuen Previewfunktionen finden Sie in der OCR-Schrittanleitung.

Neues Qualitätsattribut in Detection_01 und Detection_03

  • Damit System-Builder und ihre Kunden qualitativ hochwertige Bilder erfassen können, die für hochwertige Ausgaben der Gesichtserkennungs-API erforderlich sind, führen wir ein neues Qualitätsattribut QualityForRecognition ein, um zu entscheiden, ob ein Bild von ausreichender Qualität ist, um die Gesichtserkennung zu versuchen. Der Wert ist eine informelle Bewertung von niedrig, mittel oder hoch. Das neue Attribut ist nur verfügbar, wenn eine Kombination aus den Erkennungsmodellen detection_01 oder detection_03und den Erkennungsmodellen recognition_03 oder recognition_04 verwendet wird. Für die Registrierung von Personen werden nur Bilder der Qualitätsstufe „hoch“ empfohlen, und für Identifikationen wird eine Qualität oberhalb von „mittel“ empfohlen. Weitere Informationen zum neuen Qualitätsattribut finden Sie unter Gesichtserkennung und Attribute. Dort erfahren Sie auch, wie Sie es zusammen mit Schnellstart verwenden.

September 2021

OCR-API (Lesen) in der Public Preview unterstützt 122 Sprachen

Die OCR-API (Lesen) für maschinelles Sehen erhöht die Anzahl unterstützter Sprachen in der neuesten Vorschauversion auf 122:

  • Die optische Zeichenerkennung für gedruckten Text wird in 49 neuen Sprachen unterstützt, einschließlich Russisch, Bulgarisch und anderen kyrillischen sowie weiteren lateinischen Sprachen.
  • Für handschriftlichen Text werden bei der optischen Zeichenerkennung 6 neue Sprachen unterstützt, einschließlich Englisch, Chinesisch (vereinfacht), Französisch, Deutsch, Italienisch, Portugiesisch und Spanisch.
  • Verbesserungen bei der Verarbeitung digitaler PDF-Dateien und Text in maschinenlesbaren Bereichen (Machine Readable Zone, MRZ) von Identitätsdokumenten.
  • Allgemeine Verbesserungen bei Leistung und KI-Qualität

Informationen zur Verwendung der neuen Previewfunktionen finden Sie in der OCR-Schrittanleitung.

August 2021

Spracherweiterung für die Bildmarkierung

Die neueste Version (v3.2) der Bildmarkierung unterstützt ab sofort Tags in 50 Sprachen. Weitere Informationen finden Sie auf der Seite mit den unterstützten Sprachen.

Juli 2021

Neue Verbesserungen für HeadPose und Landmarks in Detection_03

  • Das Modell „Detection_03“ wurde aktualisiert, um Gesichtsmerkmale zu unterstützen.
  • Das Feature für Merkmale in Detection_03 ist insbesondere bei den Augapfelmerkmalen viel präziser, die für die Blicknachverfolgung entscheidend sind.

Mai 2021

Update für den Container für die räumliche Analyse

Für den Container für die räumliche Analyse wurde eine neue Version mit neuen Features veröffentlicht. Mithilfe dieses Docker-Containers können Sie in Echtzeit gestreamte Videodaten analysieren, um zu ermitteln, wie Personen räumlich zueinander in Beziehung stehen und wie sie sich durch physische Umgebungen bewegen.

  • Räumliche Analysevorgänge können jetzt so konfiguriert werden, dass die Ausrichtung einer Person erkannt wird.

    • Ein Ausrichtungsklassifizierer kann für die Vorgänge personcrossingline und personcrossingpolygon aktiviert werden, indem der Parameter enable_orientation konfiguriert wird. Die Standardeinstellung ist „Aus“.
  • Räumliche Analysevorgänge bieten jetzt auch eine Konfiguration zum Erkennen der Geschwindigkeit einer Person beim Gehen/Laufen.

    • Die Geschwindigkeit kann für die Vorgänge personcrossingline und personcrossingpolygon erkannt werden, indem der Klassifizierer enable_speed aktiviert wird, der standardmäßig deaktiviert ist. Die Ausgabe wird in den Ausgaben speed, avgSpeed und minSpeed widergespiegelt.

April 2021

Allgemeine Verfügbarkeit von Maschinelles Sehen v3.2

Die Maschinelles Sehen-API v3.2 ist jetzt mit den folgenden Updates allgemein verfügbar:

  • Verbessertes Bildmarkierungsmodell: analysiert visuelle Inhalte und generiert relevante Tags basierend auf im Bild gezeigten Objekten, Aktionen und Inhalten. Dieses Modell ist über die Bildmarkierungs-API verfügbar. Weitere Informationen finden Sie in der Schrittanleitung und in der Übersicht zur Bildanalyse.
  • Aktualisiertes Inhaltsmoderationsmodell: erkennt nicht jugendfreie Inhalte und stellt Flags zum Filtern von Bildern bereit, die nicht jugendfreie und freizügige visuelle Inhalte enthalten. Dieses Modell ist über die Analyse-API verfügbar. Weitere Informationen finden Sie in der Schrittanleitung und in der Übersicht zur Bildanalyse.
  • OCR (Lesen) für 73 Sprachen verfügbar, einschließlich vereinfachtes und traditionelles Chinesisch, Japanisch, Koreanisch und lateinische Sprachen
  • OCR (Lesen) ist auch als Container ohne Distribution für die lokale Bereitstellung verfügbar.

PersonDirectory-Datenstruktur (Vorschau)

  • Um Gesichtserkennungsvorgänge wie „Identifizieren“ und „Ähnliches suchen“ durchzuführen, müssen Kunden der Gesichtserkennungs-API eine gemischte Liste mit Objekten vom Typ Person erstellen. Das neue PersonDirectory-Element ist eine Datenstruktur, die eindeutige IDs, optionale Namenszeichenfolgen und optionale Benutzermetadaten-Zeichenfolgen für jede Person-Identität enthält, die dem Verzeichnis hinzugefügt wird. Derzeit bietet die Gesichtserkennungs-API die LargePersonGroup-Struktur, die über ähnliche Funktionen verfügt, aber auf 1 Mio. Identitäten beschränkt ist. Die PersonDirectory-Struktur kann auf bis zu 75 Milo. Identitäten hochskaliert werden.
  • Ein weiterer wichtiger Unterschied zwischen PersonDirectory und vorherigen Datenstrukturen besteht darin, dass Sie nach dem Hinzufügen von Gesichtern zu einem Person-Objekt keine Train-Aufrufe mehr tätigen müssen – der Aktualisierungsprozess erfolgt automatisch. Weitere Informationen finden Sie unter Verwenden der PersonDirectory-Struktur.

März 2021

Update der Public Preview von Maschinelles Sehen 3.2

Die Public Preview der Maschinelles Sehen-API v3.2 wurde aktualisiert. Die Vorschauversion verfügt über alle Features des maschinellen Sehens sowie aktualisierte APIs zum Lesen und Analysieren.

Februar 2021

Lese-API v3.2 (Public Preview) mit OCR-Unterstützung für 73 Sprachen

Die Lese-API v3.2 (Public Preview) für maschinelles Sehen ist als Clouddienst und Docker-Container verfügbar und beinhaltet diese Updates:

  • OCR für 73 Sprachen, einschließlich vereinfachtes und traditionelles Chinesisch, Japanisch, Koreanisch und lateinische Sprachen
  • Natürliche Leserichtung für die Textzeilenausgabe (nur lateinische Sprachen)
  • Klassifizierung der Handschrift für Textzeilen zusammen mit einer Konfidenzbewertung (nur lateinische Sprachen)
  • Extrahieren von Text nur für ausgewählte Seiten bei mehrseitigen Dokumenten
  • Verfügbar als Container ohne Distribution für die lokale Bereitstellung.

Weitere Informationen finden Sie in der Lese-API Schrittanleitung.

Neues Erkennungsmodell für die Gesichtserkennungs-API

  • Das neue Modell „Detection 03“ ist das genaueste derzeit verfügbare Erkennungsmodell. Wenn Sie Neukunde sind, empfehlen wir die Verwendung dieses Modells. Mit dem Modell „detection 03“ werden sowohl der Rückruf als auch die Genauigkeit für kleinere Gesichter in Bildern (64 x 64 Pixel) verbessert. Zu den weiteren Verbesserungen zählen eine Gesamtverringerung von False Positives und eine verbesserte Erkennung bei gedrehter Ausrichtung von Gesichtern. Die Kombination von „Detection 03“ mit dem neuen Modell „Recognition 04“ sorgt zudem für eine höhere Erkennungsgenauigkeit. Ausführlichere Informationen finden Sie unter Angeben eines Gesichtserkennungsmodells.

Neue erkennbare Gesichtsattribute

  • Das Attribut "noseAndMouthCovered" ist im aktuellen Modell „Detection 03“ zusammen mit dem zusätzlichen Attribut faceMask verfügbar. Mit Letzterem wird ermittelt, ob die Gesichtsmaske wie vorgesehen Nase und Mund bedeckt. Um die aktuelle Funktion zur Maskenerkennung zu verwenden, müssen Benutzer das Erkennungsmodell in der API-Anforderung angeben: Weisen Sie mit dem Parameter detectionModel die Modellversion zu. Ausführlichere Informationen finden Sie unter Angeben eines Gesichtserkennungsmodells.

Neues Erkennungsmodell für die Gesichtserkennungs-API

  • Das neue Modell „Recognition 04“ ist das genaueste derzeit verfügbare Erkennungsmodell. Wenn Sie Neukunde sind, empfehlen wir die Verwendung dieses Modells zur Überprüfung und Identifizierung. Es erhöht die Genauigkeit von „Recognition 03“ und bietet u. a. eine verbesserte Erkennung von Benutzern, die Mund-Nasen-Bedeckungen (OP-Masken, N95-Masken, Stoffmasken) tragen. Beachten Sie, dass wir davon abraten, Bilder von Benutzern zu registrieren, die Gesichtsbedeckungen tragen, da dies die Erkennungsqualität verringert. Kunden können nun sichere und nahtlose Benutzerumgebungen erstellen, in denen mithilfe des neuesten Modells „Detection 03“ ermittelt wird, ob ein Benutzer eine Mund-Nasen-Bedeckung trägt, und anschließend mithilfe des ebenfalls neuesten Modells „Recognition 04“ die Identität dieses Benutzers bestimmt wird. Ausführlichere Informationen finden Sie unter Angeben eines Gesichtserkennungsmodells.

Januar 2021

Update für den Container für die räumliche Analyse

Für den Container für die räumliche Analyse wurde eine neue Version mit neuen Features veröffentlicht. Mithilfe dieses Docker-Containers können Sie in Echtzeit gestreamte Videodaten analysieren, um zu ermitteln, wie Personen räumlich zueinander in Beziehung stehen und wie sie sich durch physische Umgebungen bewegen.

  • Vorgänge für räumliche Analysen können jetzt so konfiguriert werden, dass erkannt wird, ob eine Person eine schützende Gesichtsbedeckung (beispielsweise eine Maske) trägt.
    • Durch Konfigurieren des Parameters ENABLE_FACE_MASK_CLASSIFIER kann für die Vorgänge personcount, personcrossingline und personcrossingpolygon ein Maskenklassifizierer aktiviert werden.
    • Die Attribute face_mask und face_noMask werden als Metadaten mit Zuverlässigkeitsbewertung für jede im Videostream erkannte Person zurückgegeben.
  • Der Vorgang personcrossingpolygon wurde erweitert, um die Berechnung der Wartezeit einer Person in einer Zone zu ermöglichen. Sie können den Parameter type in der Zonenkonfiguration für den Vorgang auf zonedwelltime festlegen, und ein neues Ereignis vom Typ personZoneDwellTimeEvent enthält das Feld durationMs mit der Anzahl von Millisekunden, die die Person in der Zone verbracht hat.
  • Breaking Change: Das Ereignis personZoneEvent wurde in personZoneEnterExitEvent umbenannt. Dieses Ereignis wird durch den Vorgang personcrossingpolygon ausgelöst, wenn eine Person die Zone betritt oder verlässt. Außerdem werden Richtungsinformationen in Form der nummerierten Seite der durchquerten Zone bereitgestellt.
  • Die Video-URL kann in allen Vorgängen als „Private Parameter/obfuscated“ (Privater Parameter/verschleiert) bereitgestellt werden. Die Verschleierung ist jetzt optional und funktioniert nur, wenn KEY und IV als Umgebungsvariablen bereitgestellt werden.
  • Die Kalibrierung ist für alle Vorgänge standardmäßig aktiviert. Legen Sie do_calibration: false fest, um sie zu deaktivieren.
  • Unterstützung der automatischen Neukalibrierung über den enable_recalibrationParameter wurde hinzugefügt (standardmäßig deaktiviert). Ausführliche Informationen finden Sie unter Vorgänge der räumlichen Analyse
  • Kamerakalibrierungsparameter für DETECTOR_NODE_CONFIG. Ausführliche Informationen finden Sie unter Vorgänge der räumlichen Analyse.

Verbessern der Wartezeit

Dezember 2020

Kundenkonfiguration für den Gesichtserkennungs-ID-Speicher

  • Während der Dienst „Gesichtserkennung“ keine Kundenbilder speichert, werden die extrahierten Features für die Gesichtserkennung auf dem Server gespeichert. Die Gesichtserkennungs-ID ist ein Bezeichner des Features für die Gesichtserkennung und wird in Face – Identify, Face – Verify und Face – Find Similar verwendet. Die gespeicherten Features für die Gesichtserkennung laufen ab und werden 24 Stunden nach dem ursprünglichen Erkennungsaufruf gelöscht. Kunden können jetzt festlegen, wie lange diese Gesichtserkennungs-IDs zwischengespeichert werden. Der Höchstwert beträgt immer noch bis zu 24 Stunden, aber es kann nun ein Mindestwert von 60 Sekunden festgelegt werden. Die neuen Zeitbereiche für zwischengespeicherte Gesichtserkennungs-IDs sind alle Werte zwischen 60 Sekunden und 24 Stunden. Weitere Informationen finden Sie in der API-Referenz Face – Detect (Gesichtserkennung – Detect) (faceIdTimeToLive-Parameter).

November 2020

Beispielregistrierungs-App für die Gesichtserkennung

  • Das Team hat eine Beispielregistrierungs-App für die Gesichtserkennung veröffentlicht, um bewährte Methoden für das Erreichen einer aussagekräftigen Einwilligung und das Erstellen von hochpräzisen Gesichtserkennungssystemen durch Registrierungen mit hoher Qualität zu aufzuzeigen. Das Open-Source-Beispiel finden Sie im Leitfaden Erstellen einer Registrierungs-App für Android mit React und auf GitHub. Entwickler können es bereitstellen oder anpassen.

Oktober 2020

Maschinelles Sehen-API v3.1 GA

Die Maschinelles Sehen-API im Status „Allgemeine Verfügbarkeit“ (GA) wurde auf Version 3.1 aktualisiert.

September 2020

Container für räumliche Analyse Vorschau

Der Container für räumliche Analyse befindet sich nun in der Vorschauphase. Mithilfe des Features der räumlichen Analyse für maschinelles Sehen können Sie in Echtzeit gestreamte Videodaten analysieren, um zu ermitteln, wie Personen räumlich zueinander in Beziehung stehen und wie sie sich durch physische Umgebungen bewegen. Bei der räumlichen Analyse handelt es sich um einen lokal verwendbaren Docker-Container.

Lese-API v3.1 (Public Preview) jetzt mit OCR für Japanisch

Der Lese-API v3.1 (Public Preview) für maschinelles Sehen wurden folgende Funktionen hinzugefügt:

  • OCR für Japanisch

  • Für jede Textzeile wird angegeben, ob es sich um Handschrift oder um gedruckten Text handelt, und es wird eine Zuverlässigkeitsbewertung bereitgestellt (nur lateinische Sprachen).

  • Bei mehrseitigen Dokumenten wird Text nur für ausgewählte Seiten oder für einen ausgewählten Seitenbereich extrahiert.

  • Diese Vorschauversion der Lese-API unterstützt die Sprachen Englisch, Niederländisch, Französisch, Deutsch, Italienisch, Japanisch, Portugiesisch, Chinesisch (vereinfacht) und Spanisch.

Weitere Informationen finden Sie in der Lese-API Schrittanleitung.

August 2020

Kundenseitig verwaltete Verschlüsselung ruhender Daten

  • Der Dienst „Gesichtserkennung“ verschlüsselt Ihre Daten beim Speichern in der Cloud automatisch. Durch die Verschlüsselung des Diensts „Gesichtserkennung“ werden Ihre Daten ausreichend geschützt, um den Sicherheits- und Complianceanforderungen Ihrer Organisation gerecht zu werden. Standardmäßig verwendet Ihr Abonnement von Microsoft verwaltete Verschlüsselungsschlüssel. Es gibt auch eine neue Option namens „CMK“ (kundenseitig verwaltete Schlüssel) zum Verwalten Ihres Abonnements mit Ihren eigenen Schlüsseln. Weitere Informationen finden Sie unter Verschlüsselung für ruhende Daten des Gesichtserkennungsdiensts.

Juli 2020

Lese-API v3.1 (Public Preview) mit OCR für vereinfachtes Chinesisch

In der Lese-API v3.1 (Public Preview) für maschinelles Sehen wurde Unterstützung für vereinfachtes Chinesisch hinzugefügt.

  • Diese Vorschauversion der Lese-API unterstützt die Sprachen Englisch, Niederländisch, Französisch, Deutsch, Italienisch, Portugiesisch, Chinesisch (vereinfacht) und Spanisch.

Weitere Informationen finden Sie in der Lese-API Schrittanleitung.

Mai 2020

Maschinelles Sehen-API v3.0 ist nun allgemein verfügbar und beinhaltet Aktualisierungen der Lese-API:

  • Unterstützung für Englisch, Niederländisch, Französisch, Deutsch, Italienisch, Portugiesisch und Spanisch
  • Höhere Genauigkeit
  • Konfidenzbewertung für jedes extrahierte Wort
  • Neues Ausgabeformat

Weitere Informationen finden Sie in der OCR Übersicht.

April 2020

Neues Erkennungsmodell für die Gesichtserkennungs-API

  • Das neue Modell „recognition 03“ ist das genaueste derzeit verfügbare Modell. Wenn Sie Neukunde sind, empfehlen wir die Verwendung dieses Modells. „recognition 03“ bietet eine höhere Genauigkeit sowohl bei Ähnlichkeitsvergleichen als auch bei Vergleichen zur Personenzuordnung. Weitere Informationen finden Sie unter Angeben eines Gesichtserkennungsmodells.

März 2020

Januar 2020

Lese-API 3.0 Public Preview

Sie können nun Version 3.0 der Lese-API verwenden, um gedruckten oder handschriftlichen Text aus Bildern zu extrahieren. Verglichen mit früheren Versionen bietet die Version 3.0 Folgendes:

  • Höhere Genauigkeit
  • Neues Ausgabeformat
  • Konfidenzbewertung für jedes extrahierte Wort
  • Unterstützung der Sprachen Spanisch und Englisch mit dem Sprachparameter

Informationen zu den ersten Schritten mit der API-Version 3.0 finden Sie in einer Schnellstartanleitung zur Textextraktion.

Juni 2019

Neues Erkennungsmodell für die Gesichtserkennungs-API

April 2019

Verbesserte Attributgenauigkeit

  • Die allgemeine Genauigkeit der Attribute age und headPose wurde verbessert. Das Attribut headPose wird ebenfalls aktualisiert, wobei der Wert pitch jetzt aktiviert ist. Verwenden Sie diese Attribute, indem Sie sie im Parameter returnFaceAttributes des Parameters returnFaceAttributesreturnFaceAttributes angeben.

Verbesserte Verarbeitungsgeschwindigkeit

März 2019

Neues Erkennungsmodell für die Gesichtserkennungs-API

Januar 2019

Momentaufnahmefeature für die Gesichtserkennung

Oktober 2018

API-Meldungen

  • Optimierte Beschreibung für status, createdDateTime, lastActionDateTime und lastSuccessfulTrainingDateTime in status, createdDateTime, and lastActionDateTime.

Mai 2018

Verbesserte Attributgenauigkeit

  • Die Attribute gender, age, glasses, facialHair, hair und makeup wurden deutlich verbessert. Sie können sie mit dem Parameter von Face - Detect verwenden.

Höhere maximale Dateigröße

März 2018

Neue Datenstruktur

Mai 2017

Neue erkennbare Gesichtsattribute

  • Die Attribute hair, makeup, accessory, occlusion, blur, exposure und noise wurden dem hair-Parameter returnFaceAttributes hinzugefügt.
  • In PersonGroup und in Face - Identify werden 10.000 Personen unterstützt.
  • Die Paginierung wird mit den optionalen Parametern und top in PersonGroup Person - List unterstützt.
  • Beim Hinzufügen und Löschen von Gesichtern für verschiedene „FaceLists“ und verschiedene Personen in „PersonGroup“ wird die Parallelität unterstützt.

März 2017

Neues erkennbares Gesichtsattribut

  • Das Attribut emotion wurde dem emotion-Parameter returnFaceAttributes hinzugefügt.

Behobene Probleme

  • Das Gesicht konnte nicht mit dem von Face – Detect (Face – Erkennen) als zurückgegebenen Rechteck in FaceList – Add Face (FaceList – Gesicht hinzufügen) und PersonGroup Person – Add Face (PersonGroup Person – Gesicht hinzufügen) wiedererkannt werden.
  • Die erkennbare Gesichtsgröße wurde festgelegt, um sicherzustellen, dass sie immer zwischen 36 × 36 Pixel und 4.096 × 4.096 Pixel liegt.

November 2016

Neuer Abonnementtarif

  • Ein Standardabonnement wurde für den Gesichtserkennungsspeicher hinzugefügt, damit zusätzliche Gesichter gespeichert werden können, wenn PersonGroup Person - Add Face oder FaceList - Add Face zur Identifikation oder für den Ähnlichkeitsabgleich verwendet wird. Die gespeicherten Bilder werden mit 0,5 US-Dollar pro 1000 Gesichter abgerechnet. Diese Rate wird täglich anteilig berechnet. Abonnements im Free-Tarif sind weiterhin auf eine Gesamtzahl von 1.000 Personen begrenzt.

Oktober 2016

API-Meldungen

  • Die englische Fehlermeldung „There are more than one face in the image“, die für targetFace (FaceList – Gesicht hinzufügen) und PersonGroup Person – Add Face (PersonGroup Person – Gesicht hinzufügen) angezeigt wird, wenn in targetFace mehrere Gesichter vorhanden sind, wurde in „There is more than one face in the image“ geändert.

Juli 2016

Neue Funktionen

  • Die Objektauthentifizierung „Face to Person“ wird in Face - Verify unterstützt.
  • Ein optionaler mode-Parameter wurde hinzugefügt. Mit diesem Parameter wird die Auswahl von zwei Arbeitsmodi unterstützt: matchPerson und matchFace in mode, matchPerson ist der Standardmodus.
  • Ein optionaler confidenceThreshold-Parameter wurde hinzugefügt, damit Benutzer den Schwellenwert festlegen können, der besagt, ob ein Gesicht zu einem Personenobjekt in confidenceThreshold gehört.
  • Die optionalen Parameter start und top wurden in start hinzugefügt, damit Benutzer den Startpunkt und die Gesamtzahl der aufzuführenden PersonGroups angeben können.

Änderungen von V0 bis V1.0

  • Der Stammdienstendpunkt wurde von https://westus.api.cognitive.microsoft.com/face/v0/ auf https://westus.api.cognitive.microsoft.com/face/v1.0/ aktualisiert. Änderungen wurden an Face - Detect, Face - Identify, Face - Find Similar und Face - Group vorgenommen.
  • Die minimal erkennbare Gesichtsgröße wurde auf 36×36 Pixel aktualisiert. Gesichter, die kleiner als 36×36 Pixel sind, werden nicht erkannt.
  • PersonGroup- und Personendaten von V0 wurden als veraltet gekennzeichnet. Auf diese Daten kann mit dem Face-Dienst V1.0 nicht zugegriffen werden.
  • Der V0-Endpunkt der Face-API ist seit dem 30. Juni 2016 veraltet.

Cognitive Services-Updates

Azure-Updateankündigungen für Cognitive Services