Novedades de Visión de Azure AI

Obtenga información sobre las novedades de Azure AI Vision. Consulte esta página para mantenerse al día con las nuevas características, mejoras, correcciones y actualizaciones de documentación.

Febrero de 2024

Inserción bidireccional GA: nuevo modelo de varios lenguajes

Se ha actualizado la API de inserción multimodal y ya está disponible de forma general. La nueva API de 2024-02-01 incluye un nuevo modelo que admite la búsqueda de texto en 102 idiomas. El modelo original de solo inglés sigue disponible, pero no se puede combinar con el nuevo modelo en el mismo índice de búsqueda. Si vectoriza texto e imágenes con el modelo de solo inglés, estos vectores no son compatibles con vectores de imagen y texto multilingües.

Consulte la página de idiomas admitidos para obtener la lista de idiomas admitidos.

Enero de 2024

Nuevo SDK de análisis de imágenes 1.0.0-beta.1 (cambios importantes)

El SDK de análisis de imágenes se reescribió en la versión 1.0.0-beta.1 para alinearse mejor con otros SDK de Azure. Todas las API han cambiado. Consulte las guías de inicio rápido, los ejemplos y las guías paso a paso actualizadas para obtener información sobre cómo usar el nuevo SDK.

Cambios importantes:

Noviembre de 2023

Analyze Image 4.0 GA

La API de REST del análisis de imágenes 4.0 ahora está en disponibilidad general. Siga el inicio rápido de Analyze Image 4.0 para comenzar.

Las otras características de Análisis de imágenes, como la personalización del modelo, la eliminación de fondo y las inserciones multimodales, permanecen en versión preliminar pública.

SDK del lado cliente de Face para la detección de vivacidad

El SDK de vivacidad de Face admite la detección de vivacidad en los dispositivos móviles o perimetrales de los usuarios. Está disponible en Java/Kotlin para Android y Swift/Objective-C para iOS.

Nuestro servicio de detección de vivacidad cumple el cumplimiento de iBeta Nivel 1 y 2 ISO/IEC 30107-3.

Septiembre de 2023

Desuso de versiones de API de Computer Vision obsoletas

Las versiones de la API de Computer Vision 1.0, 2.0, 3.0 y 3.1 se retirarán el 13 de septiembre de 2026. Los desarrolladores no podrán realizar llamadas API a estas API después de esa fecha. Se recomienda que todos los clientes afectados migren sus cargas de trabajo a la API de Computer Vision 3.2 con carácter general siguiendo este inicio rápido lo antes posible. Los clientes también deben considerar la posibilidad de migrar a API de Análisis de imágenes 4.0 (versión preliminar), que tiene nuestras funcionalidades de análisis de imágenes más recientes y mejores.

Visite nuestro Q&A para cualquier pregunta.

Mayo de 2023

Image Analysis 4.0 Product Recognition (versión preliminar pública)

Las API de Product Recognition permiten analizar fotos de estantes de una tienda. Puede detectar la presencia y ausencia de productos y obtener las coordenadas del rectángulo de selección. Úselo en combinación con la personalización del modelo para entrenar un modelo para identificar los productos específicos. También puede comparar los resultados de Product Recognition con el documento de planograma de la tienda. Product Recognition.

abril de 2023

Tókenes de acceso limitado: Face

Los fabricantes independientes de software (ISV, por sus siglas en inglés) pueden administrar el uso de la API Face de sus clientes mediante la emisión de tokens de acceso, que conceden acceso a las características de Face que suelen estar controladas. Esto permite a las empresas cliente usar la API Face sin tener que pasar por el proceso de aprobación formal. Uso de tókenes de acceso limitado.

Marzo de 2023

Versión preliminar pública del SDK de Análisis de imágenes de Visión de Azure AI 4.0

El modelo base Florence ahora está integrado en Visión de Azure AI. La mejora de Vision Services permite a los desarrolladores crear aplicaciones de Visión de Azure AI responsables y listas para el mercado en varios sectores. Los clientes ahora pueden digitalizar, analizar y conectar sus datos a interacciones de lenguaje natural, desbloqueando información eficaz de su contenido de imagen y vídeo para admitir la accesibilidad, impulsar la adquisición a través de SEO, proteger a los usuarios del contenido dañino, mejorar la seguridad y mejorar los tiempos de respuesta a incidentes fácilmente. Para obtener más información, consulte Anuncio del modelo base de Florence de Microsoft.

SDK de Image Analysis 4.0 (versión preliminar pública)

Image Analysis 4.0 ya está disponible a través de los kits de desarrollo de software de la biblioteca cliente en C#, C++ y Python. Esta actualización también incluye el subtitulado de imágenes con tecnología Florence y el subtitulado denso en el rendimiento de paridad humana.

Subtitulado y subtitulado denso en Image Analysis V4.0 (versión preliminar pública):

"Descripción" reemplaza "Describe" en V4.0 como la característica mejorada de subtítulos de imágenes enriquecida con detalles y comprensión semántica. El subtitulado denso proporciona más detalles al generar descripciones de una frase de hasta diez regiones de la imagen, además de describir la imagen completa. El subtitulado denso también devuelve las coordenadas del rectángulo delimitador de las regiones de imagen descritas. También hay un nuevo parámetro de género neutro que permite a los clientes elegir si se debe habilitar la inferencia probabilística de género para el texto alternativo y las aplicaciones Seeing AI. Entrega automáticamente subtítulos enriquecidos, texto alternativo accesible, optimización SEO y curación de fotos inteligente para admitir contenido digital. Subtitulado de imágenes.

Resumen de vídeo y localizador de fotogramas (versión preliminar pública):

Busque e interactúe con el contenido de vídeo de la misma manera intuitiva en la que piensa y escribe. Busque contenido relevante sin necesidad de metadatos adicionales. Disponible solo en Vision Studio.

Personalización del modelo de Image Analysis 4.0 (versión preliminar pública)

Ahora puede crear y entrenar sus propios modelos personalizados de clasificación de imágenes y detección de objetos mediante Vision Studio o las API REST v4.0.

Las API de inserciones recomendados (versión preliminar pública)

Las API de inserción de Multimodal, parte de la API Image Analysis 4.0, habilitan la vectorización de imágenes y consultas de texto. Permiten convertir imágenes y texto en coordenadas en un espacio vectorial multidimensional. Ahora puede buscar con lenguaje natural y encontrar imágenes relevantes mediante la búsqueda de similitud vectorial.

API de eliminación de fondo (versión preliminar pública)

Como parte de la API de Image Analysis 4.0, la API de eliminación de fondo permite eliminar el fondo de una imagen. Esta operación puede generar una imagen del objeto en primer plano detectado con un fondo transparente, o una imagen alfa mate en escala de grises que muestra la opacidad del objeto en primer plano detectado.

Azure AI Vision 3.0 & 3.1 versiones preliminares obsoletas

Está previsto que las versiones preliminares de las API de Visión de Azure AI 3.0 y 3.1 se retiren el 30 de septiembre de 2023. Los clientes no podrán realizar llamadas a estas API después de esta fecha. Se recomienda a los clientes que migren sus cargas de trabajo a la API 3.2 de disponibilidad general (GA). Tenga en cuenta los siguientes cambios al migrar de las versiones preliminares a la API 3.2:

  • Las llamadas API Analyze Image y Read toman un parámetro opcional model-version que puede usar para especificar qué modelo de IA se va a usar. De manera predeterminada, usan el modelo más reciente.
  • Las llamadas API Analyze Image y Read también devuelven un campo model-version en respuestas de API correctas. Este campo informa del modelo que se usó.
  • La API de Visión de Azure AI 3.2 utiliza un formato de notificación de errores diferente. Consulte la documentación de referencia de API para obtener información sobre cómo ajustar cualquier código de control de errores.

Octubre de 2022

Análisis de imágenes de Visión de Azure AI 4.0 (versión preliminar pública)

Image Analysis 4.0 se ha publicado en versión preliminar pública. La nueva API incluye título de imagen, etiquetado de imágenes, detección de objetos, recortes inteligentes, detección de personas, y la funcionalidad OCR de lectura, todo ello disponible en la misma operación de Analyze Image. El OCR está optimizado para imágenes generales que no son de documento en una API sincrónica mejorada para el rendimiento que facilita la inserción de experiencias con tecnología de OCR en los flujos de trabajo.

Septiembre de 2022

Desuso de las versiones preliminares de Read de Visión de Azure AI 3.0/3.1

La retirada de las versiones preliminares de Read API de Visión de Azure AI 3.0 y 3.1 están programadas para el 31 de enero de 2023. Se recomienda a los clientes que consulten los procedimientos e inicios rápidos para empezar a trabajar con la versión disponible con carácter general de Read API en su lugar. Las versiones con disponibilidad general más recientes proporcionan las siguientes ventajas:

  • Modelo de OCR disponible con carácter general más reciente de 2022
  • Expansión significativa de la cobertura de idioma de OCR, incluida la compatibilidad con texto manuscrito
  • Calidad mejorada de OCR

Junio de 2022

Inicio de Vision Studio

Vision Studio es un conjunto de herramientas basadas en interfaz de usuario que le permiten explorar, compilar e integrar características de Visión de Azure AI en las aplicaciones.

Vision Studio proporciona una plataforma para probar varias características de servicio y ver lo que devuelven de forma visual. Con Studio, puede empezar a trabajar sin necesidad de escribir código y, después, usar las bibliotecas cliente y las API REST disponibles en la aplicación.

Inteligencia artificial responsable de Face

Nota de transparencia facial

  • La nota de transparencia proporciona instrucciones para ayudar a nuestros clientes a mejorar la precisión y equidad de sus sistemas mediante la incorporación de una revisión humana significativa para detectar y resolver casos de error de identificación o de otros errores, proporcionando soporte a las personas que creen que sus resultados eran incorrectos e identificando y abordando las fluctuaciones en precisión debido a variaciones en las condiciones operativas.

Retirada de atributos confidenciales

  • Hemos retirado las funcionalidades de análisis facial que pretende deducir los estados emocionales y los atributos de identidad, como género, edad, sonrisa, vello facial, cabello y maquillaje.
  • Las funcionalidades de detección facial, (incluida la detección de desenfoque, exposición, gafas, pose de cabeza, puntos de referencia, ruido, oclusión, caja de límite facial) seguirán estando disponibles con carácter general y no requieran una aplicación.

Paquete Fairlearn y panel de equidad de Microsoft

  • El paquete Fairlearn de código abierto y el panel de equidad de Microsoft tienen como objetivo ayudar a los clientes a medir la equidad de los algoritmos de verificación facial de Microsoft en sus propios datos, lo que les permite identificar y abordar posibles problemas de equidad que podrían afectar a diferentes grupos demográficos antes de implementar su tecnología.

Directiva de acceso limitado

  • Como parte de la alineación de Face con el estándar de IA responsable actualizado, se ha implementado una nueva directiva de acceso limitado para Face API y Visión de Azure AI. Los clientes existentes tienen un año para aplicar y recibir la aprobación para el acceso continuo a los servicios de reconocimiento facial en función de sus casos de uso proporcionados. Consulte los detalles sobre el acceso limitado para Face aquí y para Visión de Azure AI aquí.

Entrada en desuso de la versión preliminar de Visión de Azure AI 3.2

Las versiones preliminares de la API 3.2 están programadas para retirarse en diciembre de 2022. Se recomienda a los clientes que usen la versión disponible con carácter general (GA) de la API en su lugar. Tenga en cuenta los siguientes cambios al migrar desde las versiones preliminares 3.2:

  1. Las llamadas API Analyze Image y Read ahora toman un parámetro opcional model-version que puede usar para especificar qué modelo de IA se va a usar. De manera predeterminada, usan el modelo más reciente.
  2. Las llamadas API Analyze Image y Read también devuelven un campo model-version en respuestas de API correctas. Este campo informa del modelo que se usó.
  3. Ahora, las API de análisis de imágenes usan otro formato de informe de errores. Consulte la documentación de referencia de API para obtener información sobre cómo ajustar cualquier código de control de errores.

Mayo de 2022

El modelo de API de OCR (Read) está disponible con carácter general (GA)

El modelo más reciente de la API de OCR (Read) de Visión de Azure AI con 164 idiomas admitidos está ahora disponible con carácter general como un servicio en la nube y un contenedor.

  • La compatibilidad de OCR con texto impreso se amplía a 164 nuevos idiomas, como el árabe, el hindi y otros idiomas que usan scripts en árabe y devanagari.
  • Compatibilidad de OCR con texto manuscrito se amplía a 9 idiomas con inglés, chino simplificado, francés, alemán, italiano, japonés, coreano, portugués y español.
  • Compatibilidad mejorada para caracteres únicos, fechas manuscritas, cantidades, nombres y otras entidades habituales en recibos y facturas.
  • Procesamiento mejorado de documentos PDF digitales.
  • El límite de tamaño del archivo de entrada ha aumentado de 10 a 500 MB.
  • Mejoras de rendimiento y latencia.
  • Disponible como servicio en la nube y contenedor Docker.

Para aprender a usar el modelo GA, consulte la guía paso a paso de OCR.

Febrero de 2022

La versión preliminar pública de OCR (lectura) API admite 164 idiomas

La API de OCR (Read) de Visión de Azure AI expande los idiomas admitidos a 164 con su versión preliminar más reciente:

  • La compatibilidad de OCR con texto impreso se expande a 42 nuevos idiomas, como el árabe, el hindi y otros idiomas que usan scripts en árabe y devangari.
  • Compatibilidad de OCR con texto manuscrito se expande al japonés y al coreano, además de al inglés, chino simplificado, francés, alemán, italiano, portugués y español.
  • Mejoras como mayor compatibilidad para extraer fechas, cantidades, nombres y cuadros de caracteres únicos escritos a mano.
  • Mejoras generales en el rendimiento y en la calidad de la inteligencia artificial

Para aprender a usar las nuevas características en vista previa (gb), consulte la guía paso a paso de OCR.

Nuevo atributo de calidad en Detection_01 y Detection_03

  • Para ayudar a los generadores del sistema y a sus clientes a capturar imágenes de alta calidad, que son necesarias para salidas de alta calidad de Face API, estamos introduciendo un nuevo atributo de calidad QualityForRecognition para ayudar a decidir si una imagen es de calidad suficiente para intentar el reconocimiento facial. El valor es una clasificación informal de baja, media o alta. El nuevo atributo solo está disponible cuando se usan combinaciones de modelos de detección detection_01 o detection_03, y modelos de reconocimiento recognition_03 o recognition_04. Solo se recomiendan imágenes de calidad "alta" para la inscripción de personas, y de una calidad "media" o superior en escenarios de identificación. Para obtener más información sobre el nuevo atributo de calidad, consulte Detección de caras y atributos y vea cómo puede usarlo en el Inicio rápido.

Septiembre de 2021

La versión preliminar pública de OCR (lectura) API admite 122 idiomas

La API de OCR (Read) de Visión de Azure AI expande los idiomas admitidos a 122 con su versión preliminar más reciente:

  • Compatibilidad de OCR con texto impreso en 49 nuevos idiomas, entre los que se incluyen el ruso y el búlgaro, así como otros idiomas cirílicos y procedentes del latín.
  • Compatibilidad de OCR con texto manuscrito en 6 nuevos idiomas, que incluyen inglés, chino simplificado, francés, alemán, italiano, portugués y español.
  • Mejoras para procesar archivos PDF digitales y texto de zona de lectura automática (MRZ) en documentos de identidad.
  • Mejoras generales en el rendimiento y en la calidad de la inteligencia artificial

Para aprender a usar las nuevas características en vista previa (gb), consulte la guía paso a paso de OCR.

Agosto de 2021

Expansión del idioma de etiquetado de imágenes

La versión más reciente (v3.2) del etiquetador de imágenes ahora admite etiquetas en 50 idiomas. Para obtener más información, consulte la página Compatibilidad con idiomas.

Julio de 2021

Nuevas mejoras de HeadPose y Landmarks para Detection_03

  • El modelo Detection_03 se ha actualizado para admitir puntos de referencia faciales.
  • La característica de puntos de referencia de Detection_03 es mucho más precisa, especialmente en los puntos de referencia del globo ocular, que son cruciales para el seguimiento de la mirada.

Mayo de 2021

Actualización del contenedor Spatial Analysis

Se ha lanzado una nueva versión del contenedor Spatial Analysis con un nuevo conjunto de características. Este contenedor de Docker permite analizar vídeo de streaming en tiempo real para comprender las relaciones espaciales entre las personas y su movimiento en entornos físicos.

  • Las operaciones de Spatial Analysis ahora se pueden configurar para detectar la orientación de una persona.

    • Se puede habilitar un clasificador de orientación para las operaciones personcrossingline y personcrossingpolygon mediante la configuración del parámetro enable_orientation. De forma predeterminada, está desactivado.
  • Las operaciones de Spatial Analysis ahora también ofrecen configuración para detectar la velocidad de una persona mientras anda o corre.

    • La velocidad se puede detectar para las operaciones personcrossingline y personcrossingpolygon mediante la activación del clasificador enable_speed, que está desactivado de forma predeterminada. La salida se refleja en las salidas speed, avgSpeed y minSpeed.

Abril de 2021

Visión de Azure AI v3.2 de disponibilidad general

La API de Visión de Azure AI v3.2 ahora está disponible con carácter general con las siguientes actualizaciones:

  • Modelo de etiquetado de imágenes mejorado: analiza el contenido visual y genera etiquetas pertinentes basadas en los objetos, las acciones y el contenido que se muestran en la imagen. Este modelo está disponible mediante la API de etiquetado de imágenes. Consulte la guía paso a paso de análisis de imágenes y la información general para más información.
  • Modelo de moderación de contenido actualizado: detecta la presencia de contenido para adultos y proporciona marcas para filtrar imágenes que contienen contenido visual para adultos, subido de tono y violento. Este modelo está disponible mediante la API de análisis. Consulte la guía paso a paso de análisis de imágenes y la información general para más información.
  • OCR (Read) disponible para 73 idiomas, entre los que se incluyen chino simplificado y tradicional, japonés, coreano y los idiomas procedentes del latín.
  • OCR (Read), que también está disponible como contenedor sin distribución para su implementación local.

Estructura de datos PersonDirectory (versión preliminar)

  • Para realizar operaciones de reconocimiento facial como Identificar y Buscar similares, los clientes de Face API deben crear una lista de objetos Person. El nuevo objeto PersonDirectory es una estructura de datos que contiene identificadores únicos, cadenas de nombre opcionales y cadenas de metadatos de usuario opcionales para cada objeto de identidad Person agregada al directorio. Actualmente, Face API ofrece la estructura LargePersonGroup, que tiene una funcionalidad similar, pero está limitada a un millón de identidades. La estructura PersonDirectory se puede escalar verticalmente hasta 75 millones de identidades.
  • Otra diferencia importante entre PersonDirectory y las estructuras de datos anteriores es que ya no necesitará realizar una llamada a Train después de agregar caras a un objeto Person; el proceso de actualización se produce automáticamente. Para más información, consulte Uso de la estructura PersonDirectory.

Marzo de 2021

Actualización de la versión preliminar pública de Visión de Azure AI 3.2

Se ha actualizado la versión preliminar pública de la API de Visión de Azure AI v3.2. La versión preliminar tiene todas las características de Visión de Azure AI y, además, las API Read y Analyze actualizadas.

Febrero de 2021

Versión preliminar pública de Read API v3.2 con compatibilidad con OCR para 73 idiomas

La versión preliminar pública de la Read API v3.2 de Visión de Azure AI, disponible como servicio en la nube y contenedor de Docker, incluye estas actualizaciones:

  • OCR para 73 idiomas entre los que se incluyen chino simplificado y tradicional, japonés, coreano y los idiomas procedentes del latín.
  • Orden de lectura natural para la salida de la línea de texto (solo para idiomas procedentes del latín).
  • Clasificación de estilos de escritura a mano para líneas de texto junto con una puntuación de confianza (solo para idiomas procedentes del latín).
  • Extracción de texto solo de las páginas seleccionadas de un documento.
  • Disponible como contenedor sin distribución para su implementación local.

Para más información consulte la guía de procedimientos de Read API.

Nuevo modelo de detección de Face API

  • Nuevo modelo de detección de Face API: el nuevo modelo de detección 03 es el más preciso que hay disponible actualmente. Si recién comienza a usar el servicio, se recomienda usar este modelo. La detección 03 mejora la recuperación y la precisión en caras más pequeñas que se encuentran dentro de las imágenes (64 x 64 píxeles). Otras mejoras incluyen una reducción general de falsos positivos y una detección mejorada en las orientaciones de caras rotadas. La combinación de la detección 03 con el nuevo modelo Recognition 04 también proporciona una mayor precisión de reconocimiento. Consulte Especificación de un modelo de detección de caras para más información.

Nuevos atributos de Face detectables

  • El atributo faceMask está disponible con el modelo de detección 03 más reciente, junto con el atributo agregado "noseAndMouthCovered", que detecta si la máscara facial se usa según lo previsto, que cubre la nariz y la boca. Para usar la funcionalidad más reciente de detección de mascarillas, los usuarios deben especificar el modelo de detección en la solicitud de API: asignar la versión del modelo con el parámetro detectionModel a detection_03. Consulte Especificación de un modelo de detección de caras para más información.

Nuevo modelo de reconocimiento de Face API

  • El nuevo modelo de reconocimiento 04 es el más preciso que hay disponible actualmente. Si es un nuevo cliente, se recomienda usar este modelo para la verificación y la identificación. Mejora la precisión del modelo de reconocimiento 03, incluido un mejor reconocimiento de los usuarios que llevan mascarillas faciales (mascarillas quirúrgicas, mascarillas N95 o mascarillas de tela). Recomendamos inscribir imágenes de usuarios que usen fundas faciales, ya que esto reducirá la calidad del reconocimiento. Ahora, los clientes pueden crear experiencias de usuario seguras y eficaces que detecten si un usuario lleva una mascarilla facial con el último modelo de detección 03, y reconocerlos con el último modelo de reconocimiento 04. Consulte Especificación de un modelo de reconocimiento para más información.

Enero de 2021

Actualización del contenedor Spatial Analysis

Se ha lanzado una nueva versión del contenedor Spatial Analysis con un nuevo conjunto de características. Este contenedor de Docker permite analizar vídeo de streaming en tiempo real para comprender las relaciones espaciales entre las personas y su movimiento en entornos físicos.

  • Las operaciones de Spatial Analysis se pueden configurar para detectar si una persona lleva algún tipo de protección facial, como una mascarilla.
    • Se puede habilitar un clasificador de mascarillas para las operaciones personcount, personcrossingline y personcrossingpolygon mediante la configuración del parámetro ENABLE_FACE_MASK_CLASSIFIER.
    • Los atributos face_mask y face_noMask se devolverán como metadatos con una puntuación de confianza para cada persona detectada en el flujo de vídeo
  • La operación personcrossingpolygon se ha ampliado para permitir el cálculo del tiempo que una persona permanece en una zona. Puede establecer el parámetro type en la configuración de zona de la operación en zonedwelltime y un nuevo evento del tipo personZoneDwellTimeEvent incluirá el campo durationMs rellenado con el número de milisegundos que la persona estuvo en la zona.
  • Cambio importante: se ha cambiado el nombre del evento personZoneEvent a personZoneEnterExitEvent. Este evento lo genera la operación personZoneEnterExitEvent cuando una persona entra o sale de la zona y proporciona información direccional con el lado numerado de la zona que se ha atravesado.
  • La dirección URL de vídeo se puede proporcionar como "parámetro privado/ofuscado" en todas las operaciones. La ofuscación es opcional ahora y solo funcionará si se proporcionan KEY y IV como variables de entorno.
  • La calibración está habilitada de forma predeterminada para todas las operaciones. Establezca do_calibration: false para deshabilitarla.
  • Se ha agregado compatibilidad con la recalibración automática (que está deshabilitada de forma predeterminada) mediante el parámetro enable_recalibration. Para más información, consulte Operaciones de Spatial Analysis.
  • Parámetros de calibración de la cámara en DETECTOR_NODE_CONFIG. Para más información, consulte Operaciones de Spatial Analysis.

Mitigación de la latencia

Diciembre de 2020

Configuración del cliente para el almacenamiento del identificador de Face ID

  • Aunque el servicio Face no almacena imágenes de clientes, las características de las caras extraídas se almacenarán en el servidor. Face ID es un identificador de la característica de caras y se usará en Face - Identify (Face: Identificar), Face - Verify (Face: Comprobar) y Face - Find Similar (Face: Buscar similar). Las características de las caras almacenadas expirarán y se eliminarán 24 horas después de la llamada de detección original. Ahora los clientes pueden determinar el período de tiempo en que se almacenan en caché estos valores de Face ID. El valor máximo sigue siendo de 24 horas, pero ahora se puede establecer un valor mínimo de 60 segundos. Los nuevos intervalos de tiempo para los valores de Face ID que se almacenan en caché son cualquier valor entre 60 segundos y 24 horas. Puede encontrar más información en la referencia de la API Face - Detect (el parámetro faceIdTimeToLive).

Noviembre de 2020

Aplicación de inscripción de Face de ejemplo

  • El equipo ha publicado una aplicación de inscripción de Face de ejemplo para mostrar los procedimientos recomendados para establecer un consentimiento significativo y crear sistemas de reconocimiento facial de alta precisión mediante inscripciones de alta calidad. El ejemplo de código abierto se puede encontrar en la guía para Compilar una aplicación de inscripción y en GitHub; está listo para que los desarrolladores lo implementen o personalicen.

Octubre de 2020

Disponibilidad general de la API de Visión de Azure AI v3.1

La versión de la API de Visión de Azure AI en disponibilidad general se ha actualizado a v3.1.

Septiembre de 2020

Versión preliminar del contenedor Spatial Analysis

El contenedor Spatial Analysis ahora está en versión preliminar. La característica Spatial Analysis de Visión de Azure AI permite analizar vídeo de streaming en tiempo real para conocer las relaciones espaciales entre las personas y su movimiento en entornos físicos. Spatial Analysis es un contenedor de Docker que se puede usar de forma local.

La versión preliminar pública de Read API v3.1 agrega OCR para el idioma japonés

La versión preliminar pública de Read API v3.1 de Visión de Azure AI agrega estas funcionalidades:

  • OCR para el idioma japonés

  • En cada línea de texto, indique si la apariencia es escritura a mano o estilo de impresión, junto con una puntuación de confianza (solo en idiomas procedentes del latín).

  • En un documento de varias páginas, extraiga texto solo de las seleccionadas o de un intervalo.

  • Esta versión preliminar de Read API admite los idiomas inglés, holandés, francés, alemán, italiano, portugués, chino simplificado y español.

Para más información consulte la guía de procedimientos de Read API.

Agosto de 2020

Cifrado administrado por el cliente de datos en reposo

  • El servicio Face cifra automáticamente los datos al guardarlos en la nube. El cifrado del servicio Face protege los datos para ayudarle a cumplir los requisitos de cumplimiento y de seguridad de la organización. De forma predeterminada, su suscripción usa claves de cifrado administradas por Microsoft. También hay una opción nueva para administrar la suscripción con claves propias, que se denominan claves administradas por el cliente (CMK). Puede encontrar más detalles en Claves administradas por el cliente.

Julio de 2020

Versión preliminar pública de Read API v3.1 con OCR para chino simplificado

La versión preliminar pública de Read API v3.1 de Visión de Azure AI agrega compatibilidad con chino simplificado.

  • Esta versión preliminar de Read API admite los idiomas inglés, holandés, francés, alemán, italiano, portugués, chino simplificado y español.

Para más información consulte la guía de procedimientos de Read API.

Mayo de 2020

La API de Visión de Azure AI v3.0 entró en disponibilidad general, con actualizaciones para Read API:

  • Compatibilidad con inglés, neerlandés, francés, alemán, italiano, portugués y español
  • Precisión mejorada
  • Puntuación de confianza para cada palabra extraída
  • Nuevo formato de salida

Para más información, consulte la introducción al OCR.

Abril de 2020

Nuevo modelo de reconocimiento de Face API

  • El modelo recognition_03 es el más preciso disponible actualmente. Si recién comienza a usar el servicio, se recomienda usar este modelo. Recognition 03 proporciona una precisión mejorada para comparaciones de similitud y comparaciones de coincidencia de personas. Puede encontrar más detalles en Especificación de un modelo de reconocimiento facial.

Marzo de 2020

  • TLS 1.2 ya se exige en todas las solicitudes HTTP para este servicio. Para más información, consulte Seguridad de servicios de Azure AI.

Enero de 2020

Read API 3.0 versión preliminar pública

Ahora puede usar la versión 3.0 de Read API para extraer texto impreso o manuscrito de las imágenes. En comparación con las versiones anteriores, la versión 3.0 proporciona lo siguiente:

  • Precisión mejorada
  • Nuevo formato de salida
  • Puntuación de confianza para cada palabra extraída
  • Compatibilidad de español e inglés con el parámetro de idioma.

Siga las indicaciones de una de las guías de inicio rápido de extracción de texto para empezar a usar la API 3.0.

Junio de 2019

Nuevo modelo de detección de Face API

Abril de 2019

Mejor precisión de los atributos

  • Se ha mejorado la precisión global de los atributos age y headPose. El atributo headPose también se ha actualizado con el valor pitch habilitado ahora. Use estos atributos especificándolos en el parámetro returnFaceAttributes del parámetro returnFaceAttributesreturnFaceAttributes.

Mayor velocidad de procesamiento

Marzo de 2019

Nuevo modelo de reconocimiento de Face API

Enero de 2019

Característica de instantánea de Face

  • Esta característica permite al servicio facilitar la migración de datos entre suscripciones: instantánea.

Importante

A partir del 30 de junio de 2023, la API de instantánea de Face se ha retirado.

Octubre de 2018

Mensajes de API

  • Se ha refinado la descripción de status, createdDateTime, lastActionDateTime y lastSuccessfulTrainingDateTime en status, createdDateTime y lastActionDateTime.

Mayo de 2018

Mejor precisión de los atributos

  • Se mejoró significativamente el atributo gender y también se mejoraron los atributos age, glasses, facialHair, hair y makeup. Puede usarlos mediante el parámetro returnFaceAttributes de Face: detectar.

Aumento del límite de tamaño de archivo

Marzo de 2018

Nueva estructura de datos

Mayo de 2017

Nuevos atributos de Face detectables

  • Se agregaron los atributos hair, makeup, accessory, occlusion, blur, exposure y noise atributos en el parámetro returnFaceAttributes de hair.
  • Se admiten 10 mil personas en un elemento PersonGroup y en Face: identificar.
  • Se admite la paginación en Persona de PersonGroup: lista con los parámetros opcionales: start y top.
  • Simultaneidad compatible para agregar y eliminar caras de FaceLists diferentes y distintas personas en PersonGroup.

Marzo de 2017

Nuevo atributo de Face detectable

  • Se agregó el atributo emotion atributos en el parámetro returnFaceAttributes de emotion.

Problemas corregidos

Noviembre de 2016

Nuevo nivel de suscripción

  • Se agregó una suscripción a la versión estándar de Almacenamiento de caras, para almacenar caras persistentes adicionales al usar Persona de PersonGroup: agregar cara o FaceList: agregar cara para la identificación o coincidencia de similitudes. Las imágenes almacenadas se cobran a 0,5 USD por 1000 caras y esta tarifa se prorratea por días. Las suscripciones del nivel Gratis siguen estando limitadas a un total de 1000 personas.

Octubre de 2016

Mensajes de API

  • El mensaje de error de más de una cara en targetFace ha cambiado de "Hay más caras en la imagen" a "Hay más de una cara en la imagen" en targetFace y PersonGroup Person - Add Face.

Julio de 2016

Nuevas características

  • Se admite la autenticación del objeto Face to Person en Face:comprobar.
  • Se agregó un parámetro mode opcional que permite seleccionar dos modos de trabajo: matchPerson y matchFace en mode, y el valor predeterminado es matchPerson.
  • Se agregó un parámetro confidenceThreshold opcional para que el usuario establezca el umbral que indicará si una cara pertenece a un objeto Person en confidenceThreshold.
  • Se agregaron los parámetros start y top opcionales en start para permitir que el usuario especifique el punto inicial y el número total de elementos PersonGroups que se van a enumerar.

Cambios en V1.0 desde la versión V0

  • Se actualizó el punto de conexión raíz del servicio de https://westus.api.cognitive.microsoft.com/face/v0/ a https://westus.api.cognitive.microsoft.com/face/v1.0/. Cambios aplicados a: Face: detectar, Face: identificar, Face:buscar similar y Face: grupo.
  • Se actualizó el tamaño mínimo detectable de la cara a 36 x 36 píxeles. No se detectarán caras que tengan menos de 36 x 36 píxeles.
  • Los datos de PersonGroup y Person en Face V0 están en desuso. No se puede acceder a esos datos con el servicio Face V1.0.
  • El punto de conexión V0 de Face API quedó en desuso el 30 de junio de 2016.

Actualizaciones de servicios de Azure AI

Anuncios de actualización de Azure para los servicios de Azure AI