Nouveautés d’Azure AI Vision

Découvrez les nouveautés d’Azure AI Vision. Consultez cette page pour rester à jour avec les nouvelles fonctionnalités, améliorations, correctifs et mises à jour de la documentation.

Février 2024

Incorporations multimodales en disponibilité générale : nouveau modèle multilingue

L’API d’incorporations multimodales a été mise à jour et est désormais en disponibilité générale. La nouvelle API 2024-02-01 inclut un nouveau modèle qui prend en charge la recherche de texte dans 102 langues. Le modèle anglais uniquement d’origine est toujours disponible, mais il ne peut pas être combiné avec le nouveau modèle dans le même index de recherche. Si vous avez vectorisé du texte et des images à l’aide du modèle anglais-uniquement, ces vecteurs ne sont pas compatibles avec les vecteurs de texte et d’image multilingues.

Pour obtenir la liste des langues prises en charge, consultez la page Prise en charge linguistique.

Janvier 2024

Nouveau SDK Analyse d’image 1.0.0-beta.1 (changements cassants)

Le SDK Analyse d’image a été réécrit dans la version 1.0.0-beta.1 pour mieux être en phase avec les autres kits SDK Azure. Toutes les API ont changé. Consultez les guides de démarrage rapide, exemples et guides pratiques mis à jour pour plus d’informations sur l’utilisation du nouveau SDK.

Changements majeurs :

Novembre 2023

Analyse Image 4.0 GA

L’API REST Analyse d’image 4.0 est maintenant en disponibilité générale. Suivez le guide de démarrage rapide Analyse Image 4.0 pour commencer.

Les autres fonctionnalités de l’analyse d’image, telles que la personnalisation du modèle, la suppression d’arrière-plan et les incorporations multimodales, restent en préversion publique.

Kit de développement logiciel (SDK) Visage côté client pour la détection du vivant

Le Kit de développement logiciel (SDK) Face Liveness prend en charge la détection du vivant sur les appareils mobiles ou de périphérie de vos utilisateurs. Il est disponible en Java/Kotlin pour Android et Swift/Objective-C pour iOS.

Notre service de détection du vivant répond à la conformité iBeta Niveau 1 et 2 ISO/IEC 30107-3.

Septembre 2023

Mise hors service des versions obsolètes de l’API Vision par ordinateur

Les versions 1.0, 2.0, 3.0 et 3.1 de l’API Vision par ordinateur vont être mises hors service le 13 septembre 2026. Les développeurs ne vont plus pouvoir effectuer d’appels d’API vers ces API après cette date. Nous recommandons à tous les clients concernés d’effectuer une migration de leurs charges de travail vers l’API Vision par ordinateur 3.2 (en disponibilité générale) en suivant ce guide de démarrage rapide dès que possible. Les clients doivent également envisager une migration vers l’API Analyse d’images 4.0 (préversion), qui dispose de nos plus récentes et plus importantes fonctionnalités d’analyse d’images.

Visitez notre Q&A pour toute question.

Mai 2023

Analyse d’images 4.0 - Reconnaissance de produits (préversion publique)

Les API Reconnaissance de produits vous permettent d’analyser des photos d’étagères dans un magasin de vente au détail. Vous pouvez détecter la présence et l’absence de produits et obtenir leurs coordonnées de cadre englobant. Utilisez-la en combinaison avec la personnalisation du modèle pour entraîner un modèle afin d’identifier vos produits spécifiques. Vous pouvez également comparer les résultats de la reconnaissance de produits au document de planogramme de votre magasin. Reconnaissance de produits.

Avril 2023

Jetons d’accès limité Visage

Les éditeurs de logiciels indépendants (ISV) peuvent gérer l’utilisation de l’API Visage de leurs clients en émettant des jetons d’accès qui accordent un accès aux fonctionnalités Visage qui sont normalement contrôlées. Cela permet aux entreprises clientes d’utiliser l’API Visage sans avoir à passer par le processus d’approbation formel. Utilisez des jetons d’accès limité.

Mars 2023

Préversion publique du Kit de développement logiciel (SDK) Analyse d'images 4.0 d’Azure AI Vision

Le modèle de fondation Florence est désormais intégré à Azure AI Vision par ordinateur. Les services Vision améliorés permettent aux développeurs de créer des applications Azure AI Vision responsables et prêtes à être mises sur le marché dans différents secteurs. Les clients peuvent désormais numériser, analyser et connecter leurs données, en toute transparence, à des interactions en langage naturel, en déverrouillant des aperçus puissants à partir de leur contenu image et vidéo pour prendre en charge l’accessibilité, favoriser l’acquisition par le biais du référencement naturel, protéger les utilisateurs contre les contenus nuisibles, améliorer la sécurité et améliorer les temps de réponse aux incidents. Pour plus d’informations, voir Annonce du modèle de fondation Florence de Microsoft.

Kit de développement logiciel (SDK) Analyse d’images 4.0 (Préversion publique)

Image Analysis 4.0 est désormais disponible via les SDK de la bibliothèque de client en C#, C++ et Python. Cette mise à jour inclut également la création de légendes d'images et de légendes denses alimentée par Florence avec des performances à parité humaine.

Image Analysis V4.0 Captioning and Dense Captioning (préversion publique) :

Dans la version 4.0, « Légende » remplace « Décrire », la fonction de légendes d’images ayant été améliorée et enrichie en détail et en compréhension sémantique. Les légendes denses fournissent plus de détails en générant des descriptions d’une phrase pour un maximum de 10 régions de l’image, en plus de la description de l’image entière. La fonctionnalité Légendes denses renvoie également les coordonnées de cadre englobant les régions d’image décrites. Il existe également un nouveau paramètre non genré permettant aux clients de choisir s’ils souhaitent activer l’inférence de genre probabiliste pour le texte de remplacement et les applications Seeing AI. Fournissez automatiquement des légendes enrichies, du texte de remplacement accessible, une optimisation SEO et une curation intelligente des photos pour prendre en charge le contenu numérique. Légendes d’image.

Résumé vidéo et localisateur d’images (préversion publique) :

Recherchez et interagissez avec le contenu vidéo de la même façon intuitive que vous pensez et écrivez. Recherchez du contenu pertinent sans avoir besoin de métadonnées supplémentaires. Disponible uniquement dans Vision Studio.

Personnalisation du modèle Image Analysis 4.0 (préversion publique)

Vous pouvez désormais créer et entraîner vos propres modèles de classification d'images et de détection d'objets à l'aide de Vision Studio ou des API REST v4.0.

API d’incorporations multimodales (préversion publique)

Les API d’incorporations multimodales, qui font partie de l'API Analyse d’images 4.0, permettent la vectorisation de requêtes textuelles et d'images. Vous pouvez ainsi convertir des images et du texte en coordonnées dans un espace vectoriel multidimensionnel. Il est désormais possible d’effectuer une recherche en langage naturel et d’identifier des images pertinentes à l’aide de la recherche de similarité vectorielle.

API de suppression d’arrière-plan (préversion publique)

Faisant partie de l'API Analyse d’images 4.0, l'API de suppression d’arrière-plan vous permet de supprimer l'arrière-plan d'une image. Cette opération peut générer une image de l’objet au premier plan détecté avec un arrière-plan transparent ou une image alpha matte en nuances de gris montrant l’opacité de l’objet détecté au premier plan.

Dépréciation des préversions d’Azure AI Vision 3.0 et 3.1

Les versions préliminaires des API d’Azure AI Vision 3.0 et 3.1 sont programmées pour une suppression le 30 Septembre 2023. Les clients ne vont pas être capables passer des appels vers ces API après cette date. Les clients sont encouragés à plutôt effectuer une migration de leurs charges de travail vers l’API 3.2 en disponibilité générale (GA). N’oubliez pas les modifications suivantes lorsque vous migrez depuis les préversions vers la version 3.2 de l’API :

  • Les appels d’API Analyse Image et Read prennent un paramètre facultatif de version de modèle que vous pouvez utiliser pour indiquer le modèle IA à utiliser. Par défaut, elles utilisent le modèle le plus récent.
  • Les appels d’API Analyse Image et Read renvoient également un champ model-version dans les réponses d’API réussies. Ce champ signale le modèle utilisé.
  • La version 3.2 de l’API d’Azure AI Vision utilise un format de rapport d’erreurs différent. Consultez la documentation de référence sur l’API pour découvrir comment ajuster un code de gestion des erreurs.

octobre 2022

Analyse d’images d’Azure AI Vision 4.0 (préversion publique)

Analyse d’images 4.0 disponible en préversion publique. La nouvelle API inclut le sous-titrage d’images, l’étiquetage d’images, la détection des personnes de la détection d’objet, le découpage intelligent et la fonctionnalité Lecture de reconnaissance optique de caractères, disponibles dans la même opération Analyser l’image. La reconnaissance optique de caractères est optimisée pour les images générales qui ne sont pas des documents avec une API synchrone optimisée pour les performances qui facilite l’incorporation d’expériences basées sur OCR dans vos flux de travail.

Septembre 2022

Abandon de la préversion d’Azure AI Vision 3.0/3.1 Read

Les versions préliminaires de l’API Read d’Azure AI Vision 3.0 et 3.1 seront supprimées le 31 janvier 2023. Les clients sont encouragés à faire référence à la Procédure et aux Démarrages rapides pour bien démarrer avec la version en disponibilité générale (GA) de l’API Read à la place. Les dernières versions en disponibilité générale offrent les avantages suivants :

  • Modèle OCR 2022 le plus récent disponible
  • Extension significative de la couverture linguistique de l’OCR, y compris la prise en charge du texte manuscrit
  • Amélioration de la qualité OCR

Juin 2022

Lancement de Vision Studio

Vision Studio est un ensemble d’outils basés sur une interface utilisateur qui vous permet d’explorer, de créer et d’intégrer des fonctionnalités d’Azure AI Vision dans vos applications.

Vision Studio vous offre une plateforme permettant d’essayer plusieurs fonctionnalités du service et de voir ce qu’elles retournent de manière visuelle. À l’aide de Studio, vous pouvez commencer sans avoir à écrire de code, puis utiliser les bibliothèques de client et les API REST disponibles dans votre application.

IA responsable pour Visage

Note de transparence des visages

  • La note de transparence fournit des conseils pour aider nos clients à améliorer la précision et l’impartialité de leurs systèmes en incorporant une révision humaine significative pour détecter et résoudre les cas de mauvaise identification ou d’autres défaillances, en offrant une assistance aux personnes qui estiment les résultats obtenus incorrects, et en identifiant et en traitant les fluctuations de la précision en raison de variations dans les conditions opérationnelles.

Mise hors service des attributs sensibles

  • Nous avons retiré les fonctionnalités d’analyse faciale qui prétendent déduire les états émotionnels et les attributs d’identité tels que le sexe, l’âge, le sourire, la pilosité faciale, les cheveux et le maquillage.
  • Les fonctionnalités de détection faciale (y compris la détection du flou, de l’exposition, des lunettes, de l’inclinaison de la tête, des points de repère, du bruit, de l’occlusion et du cadre englobant le visage) restent généralement disponibles et ne nécessitent pas d’application.

Package Fairlearn et tableau de bord Impartialité de Microsoft

  • Le package Fairlearn open source et le tableau de bord Impartialité de Microsoft visent à aider les clients à mesurer l’impartialité des algorithmes de vérification faciale de Microsoft sur leurs propres données. Ils peuvent ainsi identifier et résoudre les problèmes d’impartialité potentiels susceptibles d’affecter différents groupes démographiques avant de déployer leur technologie.

Stratégie d’accès limité

  • Dans le cadre de l’alignement de Visage sur la norme IA responsable mise à jour, une nouvelle stratégie d’accès limité a été implémentée pour l’API Visage et Azure AI Vision. Les clients existants ont un an pour appliquer et recevoir l’approbation de l’accès continu aux services de reconnaissance faciale en fonction de leurs cas d’usage fournis. Des informations sur l’accès limité pour Visage sont disponibles ici et pour Azure AI Vision ici.

Abandon de la préversion d’Azure AI Vision 3.2

Les préversions de l’API 3.2 sont prévues pour être mises hors service en décembre 2022. Les clients sont encouragés à utiliser plutôt la version en disponibilité générale (GA) de l’API. N’oubliez pas les modifications suivantes lorsque vous migrez depuis les préversions 3.2 :

  1. Les appels d’API Analyse Image et Read prennent désormais un paramètre de version de modèle facultatif que vous pouvez utiliser pour spécifier le modèle IA à utiliser. Par défaut, elles utilisent le modèle le plus récent.
  2. Les appels d’API Analyse Image et Read renvoient également un champ model-version dans les réponses d’API réussies. Ce champ signale le modèle utilisé.
  3. Les API Analyse Image utilisent désormais un autre format de création de rapports d’erreurs. Consultez la documentation de référence sur l’API pour découvrir comment ajuster un code de gestion des erreurs.

Mai 2022

Le modèle d’API OCR (Read) est en disponibilité générale

Le dernier modèle de l’API OCR (Read) d’Azure AI Vision avec 164 langues prises en charge est désormais en disponibilité générale en tant que service cloud et conteneur.

  • La prise en charge d’OCR pour le texte imprimé s’étend à 164 langues, notamment le russe, l’arabe, l’hindi et d’autres langues utilisant des scripts cyrilliques, arabes et dévanâgarî.
  • La prise en charge d’OCR pour le texte manuscrit s’étend à 9 langues avec l’anglais, le chinois simplifié, le français, l’allemand, l’italien, le japonais, le coréen, le portugais et l’espagnol.
  • Prise en charge améliorée des caractères uniques, des dates manuscrites, des montants, des noms, d’autres entités se trouvant généralement sur les reçus et les factures.
  • Amélioration du traitement des documents PDF numériques.
  • Augmentation de la limite de taille du fichier d’entrée qui a été multipliée par 10 pour atteindre 500 Mo.
  • Amélioration des performances et de la latence.
  • Disponible en tant que service cloud et conteneur Docker.

Consultez le Guide des procédures OCR pour découvrir comment utiliser le modèle en disponibilité générale.

Février 2022

La préversion publique de l’API OCR (Read) prend en charge 164 langues

L’API OCR (Read) d’Azure AI Vision étend les langues prises en charge à 164 dans sa dernière préversion :

  • La prise en charge d’OCR pour le texte tapé s’étend à 42 nouvelles langues, notamment l’arabe, l’hindi et d’autres langues utilisant des scripts arabes et dévanâgarî.
  • La prise en charge d’OCR pour le texte manuscrit s’étend au japonais et au coréen en plus de l’anglais, du chinois simplifié, du français, de l’allemand, de l’italien, du portugais et de l’espagnol.
  • Améliorations, notamment une meilleure prise en charge de l’extraction des dates, des montants, des noms et des zones à un seul caractère écrits à la main.
  • Améliorations de la qualité générale des performances et de l’intelligence artificielle

Consultez le Guide de procédures OCR pour apprendre à utiliser les nouvelles fonctionnalités en préversion.

Nouvel attribut de qualité dans Detection_01 et Detection_03

  • Pour aider les intégrateurs système et leurs clients à capturer les images de qualité élevée nécessaires pour générer des sorties de qualité élevée à partir de l’API Visage, nous introduisons le nouvel attribut de qualité QualityForRecognition pour décider si une image est d’une qualité suffisante pour tenter une reconnaissance faciale. La valeur est une évaluation informelle de faible, moyenne ou élevée. Le nouvel attribut n’est disponible que lorsque vous utilisez une combinaison de modèles de détection detection_01 ou detection_03, et de modèles de reconnaissance recognition_03 ou recognition_04. Seules des images de qualité « élevée » sont recommandées pour l’inscription de personnes, et une qualité supérieure à « moyenne » est recommandée pour les scénarios d’identification. Pour en savoir plus sur le nouvel attribut de qualité, consultez Détection des visages et attributs. Découvrez comment l’utiliser grâce à ce démarrage rapide.

Septembre 2021

La préversion publique de l’API OCR (Read) prend en charge 122 langues

L’API OCR (Read) d’Azure AI Vision étend les langues prises en charge à 122 dans sa dernière préversion :

  • Prise en charge par OCR du texte imprimé dans 49 nouvelles langues, dont le russe, le bulgare et d’autres langues cyrilliques et latines.
  • Prise en charge par OCR du texte manuscrit dans 6 nouvelles langues, dont l’anglais, le chinois simplifié, le français, l’allemand, l’italien, le portugais et l’espagnol.
  • Améliorations du traitement des fichiers PDF numériques et du texte Machine Readable Zone (MRZ) dans les documents d’identité.
  • Améliorations de la qualité générale des performances et de l’intelligence artificielle

Consultez le Guide de procédures OCR pour apprendre à utiliser les nouvelles fonctionnalités en préversion.

Août 2021

Extension des langues de marquage d’image

La dernière version (v3.2) du créateur d’étiquettes d’image prend désormais en charge les étiquettes dans les 50 langues. Pour plus d’informations, consultez la page Prise en charge linguistique.

Juillet 2021

Nouvelles améliorations apportées à HeadPose et Landmarks pour Detection_03

  • Le modèle Detection_03 a été mis à jour pour prendre en charge les points de repère du visage.
  • La fonctionnalité des points de repère de Detection_03 est beaucoup plus précise, en particulier les points de repère relatifs aux globes oculaires qui sont essentiels pour le suivi du regard.

Mai 2021

Mise à jour du conteneur Analyse spatiale

Une nouvelle version du conteneur Analyse spatiale a été publiée avec un nouvel ensemble de fonctionnalités. Ce conteneur Docker vous permet d’analyser des vidéos en streaming en temps réel afin de comprendre les relations spatiales entre les personnes et leurs déplacements dans des environnements physiques.

  • Les opérations d’analyse spatiale peuvent désormais être configurées pour détecter l’orientation à laquelle une personne fait face.

    • Un classifieur d’orientation peut être activé pour les opérations personcrossingline et personcrossingpolygon en configurant le paramètre enable_orientation. Il est défini par défaut sur désactivé.
  • Les opérations d’analyse spatiale proposent également maintenant une configuration pour détecter la vitesse d’une personne lorsqu’elle marche ou qu’elle court.

    • La vitesse peut être détectée pour les opérations personcrossingline et personcrossingpolygon en activant le classifieur enable_speed, qui est désactivé par défaut. Le résultat est reflété dans les sorties speed, avgSpeed et minSpeed.

Avril 2021

Disponibilité générale d’Azure AI Vision v3.2

L’API d’Azure AI Vision v3.2 est maintenant en disponibilité générale avec les mises à jour suivantes :

  • Modèle d’étiquetage d’image amélioré : analyse le contenu visuel et génère des étiquettes pertinentes en fonction des objets, des actions et du contenu affichés dans l’image. Ce modèle est disponible par le biais de l’API Étiqueter l’image. Pour en savoir plus, consultez le guide pratique et la vue d’ensemble de l’Analyse d’images.
  • Modèle de modération du contenu mis à jour : détecte la présence de contenu pour adultes et fournit des indicateurs permettant de filtrer les images qui contiennent du contenu visuel pour adultes, osé et choquant. Ce modèle est disponible par le biais de l’API Analyser. Pour en savoir plus, consultez le guide pratique et la vue d’ensemble de l’Analyse d’images.
  • OCR (lecture) disponible pour 73 langues, dont le chinois simplifié, le chinois traditionnel, le japonais, le coréen et le latin.
  • OCR (lecture) également disponible en tant que conteneur Distroless pour un déploiement local.

Structure de données PersonDirectory (préversion)

  • Pour effectuer des opérations de reconnaissance faciale, comme Identifier et Rechercher semblables, les clients de l’API Visage doivent créer une liste assortie d’objets Person. Le nouveau PersonDirectory est une structure de données qui contient des ID uniques, des chaînes de nom facultatives et des chaînes de métadonnées utilisateur facultatives pour chaque identité Person ajoutée à l’annuaire. Actuellement, l'API Visage offre la structure LargePersonGroup qui comporte des fonctionnalités similaires, mais est limitée à 1 million d'identités. La structure PersonDirectory peut atteindre 75 millions d’identités.
  • Une autre différence majeure entre PersonDirectory et les structures de données précédentes est que vous n'avez plus à passer d'appels d'apprentissage une fois que vous avez ajouté des visages à un objet Person. Le processus de mise à jour est automatique. Pour plus d’informations, consultez Utiliser la structure PersonDirectory.

Mars 2021

Mise à jour de la préversion publique d’Azure AI Vision 3.2

La préversion publique de l’API d’Azure AI Vision v3.2 a été mise à jour. La préversion offre toutes les fonctionnalités d’Azure AI Vision, ainsi que les versions mises à jour des API Read et Analyze.

Février 2021

Préversion publique de l’API Lire v3.2 avec prise en charge de la reconnaissance optique de caractères (OCR) pour 73 langues

La préversion publique de l’API Read d’Azure AI Vision v3.2, disponible en tant que service cloud et conteneur Docker, comprend les mises à jour suivantes :

  • OCR pour 73 langues y compris le chinois simplifié, le chinois traditionnel, le japonais, le coréen et le latin.
  • Ordre de lecture naturel pour la sortie des lignes de texte (langues latines uniquement)
  • Classification du style d’écriture manuscrite pour les lignes de texte avec un score de confiance (langues latines uniquement).
  • Extrayez uniquement le texte des pages sélectionnées pour un document multipage.
  • Disponible en tant que conteneur Distroless pour un déploiement local.

Pour en savoir plus, consultez le guide pratique consacré à l'API Read.

Nouveau modèle de détection de l’API Visage

  • Le nouveau modèle Detection 03 est le modèle de détection le plus précis disponible. Si vous êtes un nouveau client, nous vous recommandons d’utiliser ce modèle. Le modèle detection 03 améliore à la fois le rappel et la précision des visages plus petits présents sur des images (64 x 64 pixels). D’autres améliorations incluent une réduction globale des faux positifs et une détection améliorée sur les orientations de visage pivotées. La combinaison de la détection 03 avec le nouveau modèle Reconnaissance 04 offre également une meilleure précision de reconnaissance. Pour plus d’informations, consultez Spécifier un modèle de détection des visages .

Nouveaux attributs de visage détectables

  • L’attribut faceMask est disponible avec le dernier modèle Détection 03, ainsi que l’attribut ajouté "noseAndMouthCovered", qui détecte si le masque de visage est porté comme prévu, couvrant à la fois le nez et la bouche. Pour utiliser la fonctionnalité de détection de masque la plus récente, les utilisateurs doivent spécifier le modèle de détection dans la demande d’API : affectez la version du modèle avec le paramètre detectionModel à detection_03. Pour plus d’informations, consultez Spécifier un modèle de détection des visages .

Nouveau modèle de reconnaissance de l’API Visage

  • Le nouveau modèle Recognition 04 est le modèle de reconnaissance le plus précis disponible. Si vous êtes un nouveau client, nous vous recommandons d’utiliser ce modèle à des fins de vérification et d’identification. Il améliore la précision du modèle Recognition 03, avec notamment une reconnaissance améliorée des utilisateurs portant un couvre-visage (masque chirurgical, masque N95, masque en tissu). Nous vous recommandons d’inscrire des images d’utilisateurs portant des couvertures faciales, car cela réduira la qualité de la reconnaissance. Les clients peuvent désormais créer des expériences utilisateur sécurisées et fluides capable de détecter si un utilisateur porte un couvre-visage à l’aide du dernier modèle Detection 03, puis de les reconnaître avec le dernier modèle Recognition 04. Pour plus d’informations, consultez Spécifier un modèle de reconnaissance faciale.

Janvier 2021

Mise à jour du conteneur Analyse spatiale

Une nouvelle version du conteneur Analyse spatiale a été publiée avec un nouvel ensemble de fonctionnalités. Ce conteneur Docker vous permet d’analyser des vidéos en streaming en temps réel afin de comprendre les relations spatiales entre les personnes et leurs déplacements dans des environnements physiques.

  • Des opérations d'analyse spatiale peuvent maintenant être configurées pour détecter si une personne porte un appareil de protection respiratoire comme un masque.
    • Un classifieur de masque peut être activé pour les opérations personcount, personcrossingline et personcrossingpolygon en configurant le paramètre ENABLE_FACE_MASK_CLASSIFIER.
    • Les attributs face_mask et face_noMask sont retournés en tant que métadonnées avec un score de confiance pour chaque personne détectée dans le flux vidéo.
  • L’opération personcrossingpolygon a été étendue pour permettre le calcul du temps de séjour d’une personne dans une zone. Vous pouvez définir le paramètre type dans la configuration de zone de l’opération sur zonedwelltime. Un nouvel événement de type personZoneDwellTimeEvent inclut alors le champ durationMs complété avec le nombre de millisecondes que la personne a passé dans la zone.
  • Changement cassant : l’événement personZoneEvent a été renommé personZoneEnterExitEvent. Cet événement est déclenché par l’opération personcrossingpolygon quand une personne entre dans la zone ou la quitte et fournit des informations directionnelles avec le côté numéroté de la zone qui a été franchie.
  • L’URL de la vidéo peut être fournie en tant que « Paramètre privé/obscurci » dans toutes les opérations. L’obscurcissement est actuellement facultatif et ne fonctionne que si KEY et IV sont fournis en tant que variables d’environnement.
  • L’étalonnage est activé par défaut pour toutes les opérations. Définissez do_calibration: false pour le désactiver.
  • Ajout de la prise en charge du réétalonnage automatique (désactivé par défaut) via le paramètre enable_recalibration. Pour plus d'informations, consultez Opérations d'analyse spatiale.
  • Paramètres d’étalonnage de caméra sur DETECTOR_NODE_CONFIG. Pour plus d'informations, consultez Opérations d'analyse spatiale.

Atténuer la latence

Décembre 2020

Configuration du client pour le stockage d’ID de visage

  • Bien que le service Visage ne stocke pas les images des clients, les caractéristiques de visage extraites seront stockées sur le serveur. L’ID de visage est un identificateur de la caractéristique de visage et sera utilisé dans les options Visage - Identifier, Visage - Vérifier et Visage - Rechercher semblables. Les caractéristiques de visage stockées expirent et seront supprimées 24 heures après l’appel de détection d’origine. Les clients peuvent maintenant déterminer la durée de mise en cache de ces ID de visage. La valeur maximale est toujours de 24 heures, mais une valeur minimale de 60 secondes peut maintenant être définie. Les nouvelles plages de temps pour les ID de visage mis en cache sont comprises entre 60 secondes et 24 heures. Pour plus d’informations, consultez les informations de référence sur l’API Visage - Détecter (paramètre faceIdTimeToLive).

Novembre 2020

Exemple d’application d’inscription à Visage

  • L’équipe a publié un exemple d’application d’inscription à Visage pour montrer les bonnes pratiques en matière d’établissement d’un consentement explicite et de création de systèmes de reconnaissance faciale de haute précision par le biais d’inscriptions de haute qualité. L’exemple open source se trouve dans le guide Créer une application d’inscription et sur GitHub, prêt à être déployé ou personnalisé par des développeurs.

Octobre 2020

Disponibilité générale de l’API d’Azure AI Vision v3.1

L’API d’Azure AI Vision en disponibilité générale a été mise à niveau vers la version 3.1.

Septembre 2020

Conteneur Analyse spatiale en préversion

Le conteneur Analyse spatiale est désormais disponible en préversion. La fonctionnalité Analyse spatiale d’Azure AI Vision vous permet d’analyser les vidéos en streaming en temps réel, afin d’analyser les relations spatiales entre les personnes et leurs déplacements dans des environnements physiques. Analyse spatiale est un conteneur Docker que vous pouvez utiliser localement.

La préversion publique de l’API Lire v3.1 ajoute la reconnaissance optique de caractères (OCR) pour le japonais

La préversion publique de l’API Read d’Azure AI Vision v3.1 ajoute les fonctionnalités suivantes :

  • Reconnaissance optique de caractères (OCR) pour le japonais

  • Pour chaque ligne de texte, indiquez si l’apparence correspond à un style d’écriture manuscrite ou d’impression, ainsi qu’un score de confiance (langues latines uniquement).

  • Pour un document multipage, extrayez uniquement le texte des pages sélectionnées ou de la plage de pages.

  • Cette préversion de l’API Lire prend en charge le français, l’allemand, l’anglais, le chinois simplifié, l’espagnol, l’italien, le japonais, le néerlandais et le portugais.

Pour en savoir plus, consultez le guide pratique consacré à l'API Read.

Août 2020

Chiffrement des données au repos géré par le client

  • Le service Visage chiffre automatiquement vos données lors de leur conservation dans le cloud. Le chiffrement du service Visage protège vos données et vous aide à répondre aux engagements de votre entreprise en matière de sécurité et de conformité. Par défaut, votre abonnement utilise des clés de chiffrement gérées par Microsoft. Il existe aussi une nouvelle possibilité de gérer votre abonnement avec vos propres clés appelées clés gérées par le client (CMK). Pour plus d’informations, consultez Clés gérées par le client.

Juillet 2020

Préversion publique de l’API Lire v3.1 avec reconnaissance optique de caractères (OCR) pour le chinois simplifié

La préversion publique de l’API Read d’Azure AI Vision v3.1 ajoute la prise en charge du chinois simplifié.

  • Cette préversion de l’API de lecture prend en charge l’anglais, le néerlandais, le français, l’allemand, l’italien, le portugais, le chinois simplifié et l’espagnol.

Pour en savoir plus, consultez le guide pratique consacré à l'API Read.

Mai 2020

L'API d’Azure AI Vision v3.0 est en phase de disponibilité générale, avec des mises à jour de l'API Read :

  • Prise en charge de l’anglais, du néerlandais, du français, de l’allemand, de l’italien, du portugais et de l’espagnol
  • Précision accrue
  • Score de confiance pour chaque mot extrait
  • Nouveau format de sortie

Pour en savoir plus, consultez la Présentation de la Reconnaissance optique de caractères (OCR).

Avril 2020

Nouveau modèle de reconnaissance de l’API Visage

  • Le nouveau modèle recognition 03 est le modèle le plus précis actuellement disponible. Si vous êtes un nouveau client, nous vous recommandons d’utiliser ce modèle. La reconnaissance 03 offre une meilleure précision pour les comparaisons de similarité et les comparaisons de correspondances de personnes. Pour plus d’informations, consultez Spécifier un modèle de reconnaissance faciale.

Mars 2020

  • La sécurité TLS 1.2 est maintenant appliquée pour toutes les requêtes HTTP adressées à ce service. Pour plus d’informations, consultez sécurité Azure AI services.

Janvier 2020

Préversion publique de l’API de lecture 3.0

Vous avez maintenant utiliser la version 3.0 de l’API Lire pour extraire du texte imprimé ou manuscrit à partir d’images. Par rapport aux versions antérieures, 3.0 fournit :

  • Précision accrue
  • Nouveau format de sortie
  • Score de confiance pour chaque mot extrait
  • Prise en charge de l’espagnol et de l’anglais avec le paramètre de langue

Suivez Démarrage rapide : Extraire du texte pour commencer à utiliser l’API 3.0.

Juin 2019

Nouveau modèle de détection de l’API Visage

Avril 2019

Amélioration de la précision des attributs

  • Amélioration de la précision globale des attributs age et headPose. L’attribut headPose a également été mis à jour ; la valeur pitch est désormais activée. Utilisez ces attributs en les spécifiant dans le paramètre returnFaceAttributes de returnFaceAttributesreturnFaceAttributes.

Amélioration des vitesses de traitement

Mars 2019

Nouveau modèle de reconnaissance de l’API Visage

Janvier 2019

Fonctionnalité d’instantané Visage

  • Cette fonctionnalité permet au service de prendre en charge la migration des données entre les abonnements : Instantané.

Important

L’API Instantané de visage a été mise hors service le 30 juin 2023.

Octobre 2018

Messages d’API

  • Description détaillée de status, createdDateTime, lastActionDateTime et lastSuccessfulTrainingDateTime dans status, createdDateTime et lastActionDateTime.

Mai 2018

Amélioration de la précision des attributs

  • Nous avons considérablement amélioré l’attribut gender ainsi que nous avons amélioré les attributs age, glasses, facialHair, hair et makeup. Utilisez-les avec le paramètre Face - DetectreturnFaceAttributes.

Augmentation de la taille limite des fichiers

Mars 2018

Nouvelle structure de données

Mai 2017

Nouveaux attributs de visage détectables

  • Nous avons ajouté les attributs hair, makeup, accessory, occlusion, blur, exposure et noise dans le paramètre hairreturnFaceAttributes.
  • Les paramètres PersonGroup et Face - Identify acceptent désormais 10 000 personnes.
  • Nous prenons en charge la pagination dans PersonGroup Person - List avec comme paramètres facultatifs start et top.
  • Nous prenons en charge l’accès concurrentiel pour ajouter et supprimer des visages concernant les listes FaceLists et les personnes dans PersonGroup.

Mars 2017

Nouvel attribut de visage détectable

  • Nous avons ajouté l’attribut emotion dans le paramètre emotionreturnFaceAttributes.

Problèmes résolus

  • Visage ne pouvait pas être redétecté, entraînant le renvoi d’un rectangle depuis Face - Detect en tant que targetFace dans FaceList - Add Face et PersonGroup Person - Add Face.
  • La taille du visage détectable est définie pour garantir qu’elle se trouve bien entre 36 x 36 et 4 096 x 4 096 pixels.

Novembre 2016

Nouveau niveau d’abonnement

  • Nous avons ajouté un abonnement Stockage Visage standard qui permet de stocker des visages persistants supplémentaires lorsque vous utilisez PersonGroup Person - Add Face ou FaceList - Add Face pour l’identification ou la mise en correspondance des similitudes. Les images stockées sont facturées au tarif de 0,5 $ tous les 1 000 visages (tarif journalier au prorata). Les abonnements de niveau gratuit sont toujours limités à un total de 1 000 personnes.

Octobre 2016

Messages d’API

  • Nous avons changé le message d’erreur quand plusieurs visages apparaissent dans targetFace. Auparavant, il indiquait « There are more than one face in the image ». Maintenant, il indique « There is more than one face in the image » dans targetFace et PersonGroup Person - Add Face.

Juillet 2016

Nouvelles fonctionnalités

  • Nous prenons en charge l’authentification d’objet Face to Person dans Face - Verify.
  • Nous avons ajouté un paramètre mode facultatif qui permet de sélectionner deux modes de fonctionnement : matchPerson et matchFace dans mode, le paramètre par défaut étant matchPerson.
  • Nous avons ajouté un paramètre confidenceThreshold facultatif qui permet à l’utilisateur de définir le seuil indiquant si un visage appartient à l’objet Person dans confidenceThreshold.
  • Nous avons ajouté les paramètres start et top facultatifs dans start pour permettre à l’utilisateur d’indiquer le point de départ et le nombre total de PersonGroups dans la liste.

Changements apportés entre la version 0 et la version 1.0

  • Nous avons mis à jour le point de terminaison de la racine du service le faisant passer de https://westus.api.cognitive.microsoft.com/face/v0/ à https://westus.api.cognitive.microsoft.com/face/v1.0/. Nous avons apporté des modifications à : Face - Detect, Face - Identify, Face - Find Similar et Face - Group.
  • Nous avons mis à jour la taille minimale pour la détection des visages la faisant passer à 36 x 36 pixels. Les visages dont la taille est inférieure à 36 x 36 pixels ne seront pas détectés.
  • Nous avons abandonné les données PersonGroup et Person qui étaient disponibles dans la version 0 de Visage. Ces données ne sont pas accessibles dans la version 1.0 de Visage.
  • Nous avons abandonné le point de terminaison de la version 0 de l’API Visage au 30 juin 2016.

Mises à jour des services Azure AI

Annonces de mise à jour Azure pour Azure AI services