Share via


Novità di Visione artificiale di Azure

Informazioni sulle novità di Visione artificiale di Azure. Controllare questa pagina per rimanere aggiornati con le nuove funzionalità, miglioramenti, correzioni e aggiornamenti della documentazione.

Febbraio 2024

Incorporamenti multilingue ga: nuovo modello multi-linguaggio

L'API di incorporamento di Multimodal è stata aggiornata ed è ora disponibile a livello generale. La nuova 2024-02-01 API include un nuovo modello che supporta la ricerca di testo in 102 lingue. Il modello originale di sola lingua inglese è ancora disponibile, ma non può essere combinato con il nuovo modello nello stesso indice di ricerca. Se il testo e le immagini vettorializzate usano il modello di sola lingua inglese, questi vettori non sono compatibili con vettori di testo e immagine multilingue.

Per l'elenco delle lingue supportate, vedere la pagina del supporto per la lingua.

Gennaio 2024

Nuovo Image Analysis SDK 1.0.0-beta.1 (modifiche di rilievo)

Image Analysis SDK è stato riscritto nella versione 1.0.0-beta.1 per allinearsi meglio ad altri SDK di Azure. Tutte le API sono state modificate. Per informazioni su come usare il nuovo SDK, vedere guide introduttive, esempi e guide pratiche aggiornate.

Modifiche principali:

Novembre 2023

Analizzare l'immagine 4.0 GA

L'API REST Analyze Image 4.0 è ora disponibile a livello generale. Per iniziare, seguire la guida introduttiva Analizzare l'immagine 4.0.

Le altre funzionalità dell'analisi delle immagini, ad esempio la personalizzazione del modello, la rimozione in background e gli incorporamenti multiligine, rimangono in anteprima pubblica.

Viso SDK lato client per il rilevamento dell'attività

Face Liveness SDK supporta il rilevamento del liveness nei dispositivi mobili o perimetrali degli utenti. È disponibile in Java/Kotlin per Android e Swift/Objective-C per iOS.

Il nostro servizio di rilevamento delle attività soddisfa la conformità iBeta Level 1 e 2 ISO/IEC 30107-3.

Settembre 2023

Deprecazione delle versioni dell'API Visione artificiale obsolete

Visione artificiale API versioni 1.0, 2.0, 3.0 e 3.1 verranno ritirati il 13 settembre 2026. Gli sviluppatori non potranno effettuare chiamate API a queste API dopo tale data. È consigliabile che tutti i clienti interessati eseseguono la migrazione dei carichi di lavoro all'API disponibile a livello generale Visione artificiale 3.2 seguendo questa guida introduttiva. I clienti devono anche prendere in considerazione la migrazione all'API Image Analysis 4.0 (anteprima), con le funzionalità di analisi delle immagini più recenti e più avanzate.

Per eventuali domande, visita il nostro Q&A .

Maggio 2023

Riconoscimento del prodotto di Analisi immagini 4.0 (anteprima pubblica)

Le API di riconoscimento dei prodotti consentono di analizzare le foto degli scaffali di un negozio al dettaglio. È possibile rilevare la presenza e l’assenza di prodotti e ottenere le coordinate del rettangolo delimitatore. È da usare in combinazione con la personalizzazione del modello per eseguire il training di un modello per identificare prodotti specifici. È anche possibile confrontare i risultati del riconoscimento dei prodotti con il documento del planogramma del negozio. Riconoscimento del prodotto.

Aprile 2023

Token di accesso con accesso limitato

I fornitori di software indipendenti (ISV) possono gestire l'uso dell'API Viso dei client emettendo token di accesso che concedono l'accesso alle funzionalità viso normalmente gestite. Ciò consente alle aziende client di usare l'API Viso senza dover eseguire il processo di approvazione formale. Usare token di accesso limitati.

Marzo 2023

Anteprima pubblica di Azure AI Vision Image Analysis 4.0 SDK

Il modello di fondazione Firenze è ora integrato in Visione artificiale di Azure. I servizi di Visione artificiale migliorati consentono agli sviluppatori di creare applicazioni di Visione artificiale di Azure responsabili e pronte per il mercato in vari settori. I clienti possono ora digitalizzare, analizzare e connettere facilmente i dati alle interazioni in linguaggio naturale, sbloccare informazioni dettagliate potenti dal contenuto di immagine e video per supportare l'accessibilità, favorire l'acquisizione tramite SEO, proteggere gli utenti da contenuti dannosi, migliorare la sicurezza e migliorare i tempi di risposta agli eventi imprevisti. Per altre informazioni, vedere Annuncio del modello di fondazione Firenze di Microsoft.

Analisi delle immagini 4.0 SDK (anteprima pubblica)

L'analisi delle immagini 4.0 è ora disponibile tramite GLI SDK della libreria client in C#, C++ e Python. Questo aggiornamento include anche la didascalia dell'immagine basata su Firenze e la didascalia densa a prestazioni di parità umana.

Didascalia e didascalia densa Analisi delle immagini V4.0 (anteprima pubblica):

"Caption" sostituisce "Describe" nella versione 4.0 come funzionalità migliorata di didascalia di immagine ricca di dettagli e comprensione semantica. Le didascalie dense forniscono più dettagli generando descrizioni di una frase di un massimo di 10 aree dell'immagine oltre a descrivere l'intera immagine. La funzionalità Dense Captions restituisce anche le coordinate del rettangolo delimitatore delle aree dell'immagine descritte. È anche disponibile un nuovo parametro indipendente dal genere per consentire ai clienti di scegliere se abilitare l'inferenza del genere probabilistico per le applicazioni alt-text e Seeing AI. Recapita automaticamente sottotitoli avanzati, testo alternativo accessibile, ottimizzazione SEO e cura intelligente delle foto per supportare il contenuto digitale. Didascalie delle immagini.

Riepilogo video e localizzatore di fotogrammi (anteprima pubblica):

Cerca e interagisci con il contenuto video nello stesso modo intuitivo che pensi e scrivi. Individuare il contenuto pertinente senza la necessità di metadati aggiuntivi. Disponibile solo in Vision Studio.

Personalizzazione del modello di Analisi immagini 4.0 (anteprima pubblica)

È ora possibile creare ed eseguire il training di modelli personalizzati di classificazione delle immagini e rilevamento oggetti usando Vision Studio o le API REST v4.0.

API di incorporamento della modalità di incorporamento (anteprima pubblica)

L'API di incorporamento di Glossario, parte dell'API Image Analysis 4.0, abilita la vettorizzazione di immagini e query di testo. Consentono di convertire immagini e testo in coordinate in uno spazio vettoriale multidimensionale. È ora possibile cercare con il linguaggio naturale e trovare immagini pertinenti usando la ricerca di somiglianza vettoriale.

API di rimozione in background (anteprima pubblica)

Nell'ambito dell'API Analisi immagini 4.0, l'API di rimozione dello sfondo consente di rimuovere lo sfondo di un'immagine. Questa operazione può restituire un'immagine dell'oggetto in primo piano rilevato con uno sfondo trasparente o un'immagine alfa opacità alfa in scala di grigio che mostra l'opacità dell'oggetto in primo piano rilevato.

Deprecazione delle anteprime di Visione artificiale di Azure 3.0 e 3.1

Le versioni di anteprima delle API di Visione artificiale di Azure 3.0 e 3.1 sono pianificate per essere ritirate il 30 settembre 2023. I clienti non potranno effettuare chiamate a queste API oltre questa data. I clienti sono invitati a eseguire la migrazione dei carichi di lavoro all'API disponibile a livello generale 3.2. Quando si esegue la migrazione dalle versioni di anteprima all'API 3.2, tenere presenti le modifiche seguenti:

  • Le chiamate API Analyze Image and Read accettano un parametro facoltativo model-version che è possibile usare per specificare il modello di intelligenza artificiale da usare. Per impostazione predefinita, usano il modello più recente.
  • Le chiamate api Analizza immagine e lettura restituiscono anche un campo model-version nelle risposte API riuscite. Questo campo indica quale modello è stato usato.
  • L'API Visione artificiale di Azure 3.2 usa un formato di segnalazione errori diverso. Vedere la documentazione di riferimento API per informazioni su come modificare qualsiasi codice di gestione degli errori.

Ottobre 2022

Analisi delle immagini di Visione artificiale di Azure 4.0 (anteprima pubblica)

L'analisi delle immagini 4.0 è stata rilasciata in anteprima pubblica. La nuova API include la didascalia delle immagini, l'assegnazione di tag alle immagini, il rilevamento di oggetti, le colture intelligenti, il rilevamento delle persone e la funzionalità OCR di lettura, tutte disponibili tramite un'unica operazione Analizza immagine. L'OCR è ottimizzato per immagini generali non documentate in un'API sincrona ottimizzata per le prestazioni che semplifica l'incorporamento di esperienze basate su OCR nei flussi di lavoro.

Settembre 2022

Deprecazione delle anteprime di lettura di Visione artificiale di Azure 3.0/3.1

Le versioni di anteprima dell'API di lettura di Visione artificiale di Azure 3.0 e 3.1 sono pianificate per essere ritirate il 31 gennaio 2023. I clienti sono invitati a fare riferimento alle procedure e agli avvii rapidi per iniziare a usare la versione disponibile a livello generale dell'API di lettura. Le versioni GA più recenti offrono i vantaggi seguenti:

  • Modello OCR disponibile a livello generale più recente 2022
  • Espansione significativa della copertura del linguaggio OCR, incluso il supporto per il testo scritto a mano
  • Miglioramento della qualità OCR

Giugno 2022

Avvio di Vision Studio

Vision Studio è uno strumento dell'interfaccia utente che consente di esplorare, compilare e integrare funzionalità di Visione artificiale di Azure nelle applicazioni.

Vision Studio offre una piattaforma per provare diverse funzionalità del servizio e scoprire cosa restituiscono in modo visivo. Usando Studio, è possibile iniziare senza dover scrivere codice e usare, quindi, le librerie client e le API REST disponibili in un'applicazione.

Intelligenza artificiale responsabile per il viso

Nota sulla trasparenza del viso

  • La nota sulla trasparenza fornisce indicazioni per aiutare i nostri clienti a migliorare l'accuratezza e l'equità dei propri sistemi incorporando una revisione umana significativa per rilevare e risolvere i casi di errori di identificazione errata o altri errori, fornendo supporto alle persone che ritengono che i risultati non siano corretti e identificando e risolvendo le fluttuazioni nell'accuratezza a causa di variazioni nelle condizioni operative.

Ritiro degli attributi sensibili

  • Abbiamo ritirato le funzionalità di analisi facciale che hanno lo scopo di dedurre gli stati emotivi e gli attributi di identità, ad esempio sesso, età, sorriso, capelli facciali, capelli e trucco.
  • Le funzionalità di rilevamento facciale( tra cui il rilevamento della sfocatura, l'esposizione, gli occhiali, la testa, i punti di riferimento, il rumore, l'occlusione, il rettangolo di selezione facciale) rimarranno disponibili a livello generale e non richiedono un'applicazione.

Pacchetto Fairlearn e Dashboard equità di Microsoft

Criteri di accesso limitato

  • Nell'ambito dell'allineamento di Face allo standard di intelligenza artificiale responsabile aggiornato, è stato implementato un nuovo criterio di accesso limitato per l'API Viso e Visione artificiale di Azure. I clienti esistenti hanno un anno per richiedere e ricevere l'approvazione per l'accesso continuo ai servizi di riconoscimento facciale in base ai casi d'uso forniti. Vedere i dettagli su Accesso limitato per Viso qui e per Visione artificiale di Azure qui.

Deprecazione di Visione artificiale di Azure 3.2-preview

Le versioni di anteprima dell'API 3.2 sono pianificate per essere ritirate a dicembre 2022. I clienti sono invitati a usare invece la versione disponibile a livello generale dell'API. Quando si esegue la migrazione dalle versioni di anteprima 3.2, tenere presenti le modifiche seguenti:

  1. Le chiamate API Analizza immagine e Lettura accettano ora un parametro facoltativo model-version che è possibile usare per specificare il modello di intelligenza artificiale da usare. Per impostazione predefinita, usano il modello più recente.
  2. Le chiamate api Analizza immagine e lettura restituiscono anche un campo model-version nelle risposte API riuscite. Questo campo indica quale modello è stato usato.
  3. Le API di analisi delle immagini ora usano un formato di segnalazione errori diverso. Vedere la documentazione di riferimento API per informazioni su come modificare qualsiasi codice di gestione degli errori.

Maggio 2022

Il modello di API OCR (Lettura) è disponibile a livello generale

Il modello più recente dell'API OCR (Read) di Visione artificiale di Azure con 164 lingue supportate è ora disponibile a livello generale come servizio cloud e contenitore.

  • Il supporto OCR per la stampa del testo si estende a 164 lingue, tra cui russo, arabo, hindi e altre lingue usando script cirillico, arabo e Devanagari.
  • Il supporto OCR per il testo scritto a mano si espande a 9 lingue con inglese, cinese semplificato, francese, tedesco, italiano, giapponese, coreano, portoghese e spagnolo.
  • Supporto migliorato per singoli caratteri, date scritte a mano, importi, nomi, altre entità comunemente presenti nelle ricevute e nelle fatture.
  • Miglioramento dell'elaborazione di documenti PDF digitali.
  • Il limite di dimensioni del file di input è aumentato da 10x a 500 MB.
  • Miglioramenti delle prestazioni e della latenza.
  • Disponibile come servizio cloud e contenitore Docker.

Vedere la guida pratica di OCR per informazioni su come usare il modello GA.

Febbraio 2022

L'API OCR (Read) Public Preview supporta 164 lingue

L'API OCR (Read) di Visione artificiale di Azure espande le lingue supportate fino a 164 con l'anteprima più recente:

  • Il supporto OCR per la stampa del testo si espande fino a 42 nuove lingue, tra cui arabo, hindi e altre lingue con script arabi e devanagari.
  • Il supporto OCR per il testo scritto a mano si espande in giapponese e coreano, oltre a inglese, cinese semplificato, francese, tedesco, italiano, portoghese e spagnolo.
  • Miglioramenti che includono un supporto migliore per l'estrazione di date scritte a mano, importi, nomi e caselle di caratteri singoli.
  • Miglioramenti generali delle prestazioni e della qualità dell'IA

Vedere la guida pratica di OCR per informazioni su come usare le nuove funzionalità di anteprima.

Nuovo attributo Qualità in Detection_01 e Detection_03

  • Per aiutare i generatori di sistema e i clienti a acquisire immagini di alta qualità, necessarie per output di alta qualità dall'API Viso, stiamo introducendo un nuovo attributo di qualità QualityForRecognition per decidere se un'immagine è di qualità sufficiente per tentare il riconoscimento dei volti. Il valore è una classificazione informale per qualità bassa, media o alta. Il nuovo attributo è disponibile solo quando si usano combinazioni di modelli di rilevamento detection_01 o detection_03 e modelli di riconoscimento recognition_03 o recognition_04. Per gli scenari di identificazione è consigliabile usare solo immagini di qualità "alta", mentre per gli scenari di identificazione è consigliabile una qualità superiore "media". Per altre informazioni sul nuovo attributo di qualità, vedere Rilevamento dei visi e attributi e come usarlo con Avvio rapido.

Settembre 2021

L'API OCR (Read) Public Preview supporta 122 lingue

L'API OCR (Read) di Visione artificiale di Azure espande le lingue supportate fino alla versione 122 con l'anteprima più recente:

  • Supporto OCR per la stampa di testo in 49 nuove lingue, tra cui russo, bulgaro e altre lingue cirillico e più latine.
  • Supporto OCR per testo scritto a mano in 6 nuove lingue che includono inglese, cinese semplificato, francese, tedesco, italiano, portoghese e spagnolo.
  • Miglioramenti per l'elaborazione di pdf digitali e testo della zona leggibile (MRZ) nei documenti di identità.
  • Miglioramenti generali delle prestazioni e della qualità dell'IA

Vedere la guida pratica di OCR per informazioni su come usare le nuove funzionalità di anteprima.

Agosto 2021

Espansione del linguaggio di assegnazione di tag alle immagini

La versione più recente (v3.2) del tagger image supporta ora i tag in 50 lingue. Per altre informazioni, vedere la pagina Supporto per le lingue.

Luglio 2021

Nuovi miglioramenti di HeadPose e punti di riferimento per Detection_03

  • Il modello Detection_03 è stato aggiornato per supportare i punti di riferimento facciali.
  • La caratteristica punti di riferimento in Detection_03 è molto più precisa, soprattutto nei punti di riferimento della palla oculare, che sono fondamentali per il tracciamento dello sguardo fisso.

2021° maggio

Aggiornamento del contenitore Analisi spaziale

È stata rilasciata una nuova versione del contenitore Analisi spaziale che include un nuovo set di funzionalità. Questo contenitore Docker consente di analizzare i video in streaming in tempo reale per comprendere le relazioni spaziali tra le persone e i loro movimenti negli ambienti fisici.

  • Le operazioni di analisi spaziale possono ora essere configurate per rilevare l'orientamento di una persona.

    • È possibile abilitare un classificatore di orientamento per le operazioni personcrossingline e personcrossingpolygon configurando il parametro enable_orientation. L’impostazione è OFF per impostazione predefinita.
  • Le operazioni di analisi spaziale offrono ora anche la configurazione per rilevare la velocità di una persona durante la marcia/esecuzione

    • La velocità può essere rilevata per le operazioni personcrossingline e personcrossingpolygon attivando il classificatore enable_speed, che è disattivato per impostazione predefinita. L'output si riflette negli output speed, avgSpeed e minSpeed.

Aprile 2021

Visione artificiale di Azure v3.2 disponibile a livello generale

L'API Visione artificiale di Azure v3.2 è ora disponibile a livello generale con gli aggiornamenti seguenti:

  • Modello di assegnazione di tag alle immagini migliorato: analizza il contenuto visivo e genera tag pertinenti in base a oggetti, azioni e contenuto visualizzati nell'immagine. Questo modello è disponibile tramite l'API Immagine tag. Per altre informazioni, vedere la guida pratica e la panoramica dell'analisi delle immagini.
  • Modello di moderazione del contenuto aggiornato: rileva la presenza di contenuto per adulti e fornisce flag per filtrare le immagini contenenti contenuto visivo per adulti, audaci e gory. Questo modello è disponibile tramite l'API Analizza. Per altre informazioni, vedere la guida pratica e la panoramica dell'analisi delle immagini.
  • OCR (Lettura) disponibile per 73 lingue, tra cui cinese semplificato e tradizionale, giapponese, coreano e latino.
  • OCR (Lettura) disponibile anche come contenitore senza distribuzione per la distribuzione locale.

Struttura dei dati PersonDirectory (anteprima)

  • Per eseguire operazioni di riconoscimento volto, quali Identifica e Trova simile, i clienti dell'API Viso devono creare un elenco variegato di oggetti Persona. La nuova PersonDirectory è una struttura dei dati che contiene ID univoci, stringhe di nomi facoltative e stringhe di metadati utente facoltative per ogni identità di Persona aggiunta alla directory. Attualmente, l'API Viso offre la struttura LargePersonGroup, che ha una funzionalità simile, ma è limitata a un milione di identità. La struttura PersonDirectory può essere scalabile fino a 75 milioni di identità.
  • Un'altra differenza fondamentale tra PersonDirectory e le strutture dei dati precedenti è che non sarà più necessario effettuare chiamate Training dopo avere aggiunto visi a un oggetto Persona. Il processo di aggiornamento viene eseguito automaticamente. Per altri dettagli, vedere Usare la struttura PersonDirectory.

Marzo 2021

Aggiornamento dell'anteprima pubblica di Azure AI Vision 3.2

L'anteprima pubblica dell'API Visione artificiale di Azure v3.2 è stata aggiornata. La versione di anteprima include tutte le funzionalità di Visione artificiale di Azure insieme alle API di lettura e analisi aggiornate.

Febbraio 2021

API Lettura v3.2 anteprima pubblica con supporto OCR per 73 lingue

L'ANTEPRIMA pubblica dell'API di lettura di Visione artificiale di Azure v3.2, disponibile come servizio cloud e contenitore Docker, include questi aggiornamenti:

  • OCR per 73 lingue, tra cui cinese semplificato e tradizionale, giapponese, coreano e latino.
  • Ordine di lettura naturale per l'output della riga di testo (solo lingue latine)
  • Classificazione dello stile di scrittura manuale per le righe di testo insieme a un punteggio di attendibilità (solo lingue latine).
  • Estrarre testo solo per le pagine selezionate per un documento a più pagine.
  • Disponibile come contenitore senza distribuzione per la distribuzione locale.

Per altre informazioni, vedere la guida pratica per l'API Lettura.

Nuovo modello di rilevamento dell'API Viso

  • Il nuovo modello Detection_03 è il modello di rilevamento più accurato attualmente disponibile. Se si è un nuovo cliente, è consigliabile usare questo modello. Detection_03 migliora sia il richiamo che la precisione sui visi più piccoli trovati all'interno delle immagini (64x64 pixel). Altri miglioramenti includono una riduzione complessiva dei falsi positivi e un miglioramento del rilevamento sugli orientamenti ruotati del viso. La combinazione del rilevamento 03 con il nuovo modello Di riconoscimento 04 offre anche una maggiore accuratezza del riconoscimento. Per altri dettagli, vedere Specificare un modello di rilevamento dei volti.

Nuovi attributi di Viso rilevabili

  • L'attributo faceMask è disponibile con il modello di rilevamento 03 più recente, insieme all'attributo "noseAndMouthCovered"aggiunto , che rileva se la maschera del viso viene indossata come previsto, coprendo sia il naso che la bocca. Per usare la funzionalità di rilevamento della maschera più recente, gli utenti devono specificare il modello di rilevamento nella richiesta API: assegnare la versione del modello con il parametro detectionModel a detection_03. Per altri dettagli, vedere Specificare un modello di rilevamento dei volti.

Nuovo modello di riconoscimento dell'API Viso

  • Il nuovo modello Recognition_04 è il modello di riconoscimento più accurato attualmente disponibile. Se si è un nuovo cliente, è consigliabile usare questo modello per la verifica e l'identificazione. Migliora l'accuratezza del Recognition_03, incluso il riconoscimento migliorato per gli utenti che indossano copri-faccia (maschere chirurgiche, maschere N95, maschere in tessuto). È consigliabile registrare immagini di utenti che indossano copertine del viso, in quanto questo ridurrà la qualità del riconoscimento. Ora i clienti possono creare esperienze utente sicure e senza problemi che rilevano se un utente indossa un copri-faccia con il modello Detection_03 più recente e lo riconosce con il modello Recognition_04 più recente. Per altri dettagli, vedere Specificare un modello di riconoscimento dei volti.

Gennaio 2021

Aggiornamento del contenitore Analisi spaziale

È stata rilasciata una nuova versione del contenitore Analisi spaziale che include un nuovo set di funzionalità. Questo contenitore Docker consente di analizzare i video in streaming in tempo reale per comprendere le relazioni spaziali tra le persone e i loro movimenti negli ambienti fisici.

  • È ora possibile configurare le operazioni di analisi spaziale per rilevare se una persona sta indossando una protezione facciale, ad esempio una mascherina.
    • È possibile abilitare un classificatore di mascherine per le operazioni personcount, personcrossingline e personcrossingpolygon configurando il parametro ENABLE_FACE_MASK_CLASSIFIER.
    • Gli attributi face_mask e face_noMask verranno restituiti come metadati con un punteggio di confidenza per ogni persona rilevata nel flusso video
  • L'operazione personcrossingpolygon è stata estesa per consentire il calcolo del tempo di attesa trascorso da una persona in una zona. È possibile impostare il parametro type nella configurazione zona per l'operazione su zonedwelltime e un nuovo evento di tipo personZoneDwellTimeEvent includerà il campo durationMs popolato con il numero di millisecondi trascorso dalla persona nella zona.
  • Modifica che causa un'interruzione: l'evento personZoneEvent è stato rinominato in personZoneEnterExitEvent. Questo evento viene generato dall'operazione personcrossingpolygon quando una persona entra o esce dalla zona e fornisce informazioni direzionali con il lato numerato della zona incrociata.
  • L'URL video può essere fornito come "Parametro privato/offuscato" in tutte le operazioni. L'offuscamento è facoltativo ora e funzionerà solo se KEY e IV vengono forniti come variabili di ambiente.
  • La calibrazione è abilitata per impostazione predefinita per tutte le operazioni. Impostare do_calibration: false per disabilitarlo.
  • Aggiunta del supporto per la ricalibrazione automatica (per impostazione predefinita disabilitata) tramite il parametro enable_recalibration, vedere Operazioni di analisi spaziale per informazioni dettagliate
  • Parametri di calibrazione della fotocamera per DETECTOR_NODE_CONFIG. Per informazioni dettagliate, vedere Operazioni di analisi spaziale.

Attenuare la latenza

Dicembre 2020

Configurazione del cliente per l'archiviazione ID Viso

  • Anche se il servizio Viso non archivia le immagini dei clienti, le funzionalità viso estratte verranno archiviate nel server. L'ID viso è un identificatore della funzionalità viso e verrà usato in Viso - Identifica, Viso - Verificae Viso - Trova simile. Le funzionalità viso archiviate avranno una scadenza e verranno eliminate 24 ore dopo la chiamata di rilevamento originale. I clienti possono ora determinare l'intervallo di tempo in cui questi ID Viso vengono memorizzati nella cache. Il valore massimo è ancora fino a 24 ore; tuttavia, è ora possibile impostare un valore minimo di 60 secondi. I nuovi intervalli di tempo per gli ID Viso memorizzati nella cache sono compresi tra 60 secondi e 24 ore. Ulteriori dettagli sono disponibili nel riferimento sull'API Viso - Rileva (il parametro faceIdTimeToLive).

Novembre 2020

App di registrazione viso di esempio

  • Il team ha pubblicato un'app di registrazione viso di esempio per illustrare le procedure consigliate per stabilire un consenso significativo e creare sistemi di riconoscimento facciale ad alta precisione tramite registrazioni di alta qualità. L'esempio open source è disponibile nella guida Compilare un'app di registrazione e in GitHub, pronto per la distribuzione o la personalizzazione da parte degli sviluppatori.

Ottobre 2020

API Visione artificiale di Azure v3.1 DISPONIBILE a livello generale

L'API Visione artificiale di Azure in disponibilità generale è stata aggiornata alla versione 3.1.

2020 settembre

Anteprima del contenitore Analisi spaziale

Il contenitore Analisi spaziale è ora disponibile in anteprima. La funzionalità Analisi spaziale di Visione artificiale di Azure consente di analizzare video in streaming in tempo reale per comprendere le relazioni spaziali tra le persone e il loro movimento attraverso ambienti fisici. Analisi spaziale è un contenitore Docker che è possibile usare in locale.

Aggiunta del riconoscimento ottico dei caratteri per il giapponese nell'API di lettura v3.1 (anteprima pubblica)

L'anteprima pubblica dell'API di lettura di Visione artificiale di Azure v3.1 aggiunge queste funzionalità:

  • Riconoscimento ottico dei caratteri (OCR) per la lingua giapponese

  • Per ogni riga di testo, viene indicato se l'aspetto è in stile Scrittura manuale o Stampa, insieme a un punteggio di attendibilità (solo lingue latine).

  • Per un documento di più pagine è possibile estrarre il testo solo per le pagine o l'intervallo di pagine selezionati.

  • Questa versione di anteprima dell'API di lettura supporta le lingue inglese, olandese, francese, tedesco, italiano, giapponese, portoghese, cinese semplificato e spagnolo.

Per altre informazioni, vedere la guida pratica per l'API Lettura.

Agosto 2020

Crittografia gestita dal cliente dei dati inattivi

  • Il servizio Viso crittografa automaticamente i dati quando vengono salvati in modo permanente nel cloud. La crittografia del servizio Viso protegge i dati per contribuire a soddisfare gli obblighi di sicurezza e conformità dell'organizzazione. Per impostazione predefinita, la sottoscrizione usa chiavi di crittografia gestite da Microsoft. È anche possibile gestire la sottoscrizione con le proprie chiavi con chiavi gestite dal cliente. Per altre informazioni, vedere Chiavi gestite dal cliente.

Luglio 2020

Aggiunta del riconoscimento ottico dei caratteri per il cinese semplificato nell'API di lettura v3.1 (anteprima pubblica)

L'anteprima pubblica dell'API di lettura di Visione artificiale di Azure v3.1 aggiunge il supporto per il cinese semplificato.

  • Questa versione di anteprima dell'API di lettura supporta le lingue inglese, olandese, francese, tedesco, italiano, portoghese, cinese semplificato e spagnolo.

Per altre informazioni, vedere la guida pratica per l'API Lettura.

Maggio 2020

L'API Visione artificiale di Azure v3.0 ha immesso la disponibilità generale, con aggiornamenti all'API di lettura:

  • supporto per inglese, olandese, francese, tedesco, italiano, portoghese e spagnolo
  • Miglioramento della precisione
  • Punteggio di attendibilità per ogni parola estratta
  • Nuovo formato di output

Per altre informazioni, vedere la panoramica di OCR.

Aprile 2020

Nuovo modello di riconoscimento dell'API Viso

  • Il nuovo modello Recognition_03 è il modello più accurato attualmente disponibile. Se si è un nuovo cliente, è consigliabile usare questo modello. Il riconoscimento 03 offre una maggiore precisione per confronti di somiglianza e confronti di corrispondenza delle persone. Ulteriori informazioni sono disponibili in Specificare un modello di riconoscimento dei volti.

Marzo 2020

  • TLS 1.2 viene ora applicato per tutte le richieste HTTP a questo servizio. Per altre informazioni, vedere l'articolo sulla sicurezza di Servizi di Azure AI.

Gennaio 2020

Anteprima pubblica dell'API di lettura 3.0

È ora possibile usare la versione 3.0 dell'API di lettura per estrarre testo stampato o scritto a mano dalle immagini. Rispetto alle versioni precedenti, la 3.0 offre:

  • Miglioramento della precisione
  • Nuovo formato di output
  • Punteggio di attendibilità per ogni parola estratta
  • Supporto delle lingue spagnolo e inglese con il parametro di lingua

Per iniziare a usare la versione 3.0 dell'API, seguire l'argomento di avvio rapido sull'estrazione di testo.

2019 giugno

Nuovo modello di rilevamento dell'API Viso

2019 aprile

Miglioramento dell'accuratezza degli attributi

  • Miglioramento dell'accuratezza complessiva degli attributi age e headPose. L'attributo headPose viene aggiornato anche con il valore pitch ora abilitato. Usare questi attributi specificandoli nel parametro returnFaceAttributes di Viso - RilevareturnFaceAttributes.

Velocità di elaborazione migliorate

marzo 2019

Nuovo modello di riconoscimento dell'API Viso

gennaio 2019

Funzionalità Snapshot viso

  • Questa funzione consente al servizio di supportare la migrazione dei dati tra sottoscrizioni: Snapshot.

Importante

A partire dal 30 giugno 2023, l'API Face Snapshot viene ritirata.

2018 ottobre

Messaggi API

maggio 2018

Miglioramento dell'accuratezza degli attributi

  • L'attributo gender è stato migliorato significativamente, inoltre sono stati modificati anche gli attributi age, glasses, facialHair, hair e makeup. Usarli tramite il parametro Face - DetectreturnFaceAttributes.

Aumento del limite sulle dimensioni dei file

marzo 2018

Nuova struttura dei dati

maggio 2017

Nuovi attributi di Viso rilevabili

  • Sono stati aggiunti gli attributi hair, makeup, accessory, occlusion, blur, exposure e noise nel parametro Face - DetectreturnFaceAttributes.
  • PersonGroup e Face - Identify supportano 10.000 persone.
  • È supportata la paginazione in PersonGroup Person - List con i parametri facoltativi: start e top.
  • È supportata la concorrenza nell'aggiunta/nell'eliminazione di volti in FaceList diversi e persone diverse in PersonGroup.

marzo 2017

Nuovo attributo Viso rilevabile

  • È stato aggiunto l'attributo emotion nel parametro Face - DetectreturnFaceAttributes.

Problemi risolti

novembre 2016

Nuovo livello di sottoscrizione

  • È stata aggiunta la sottoscrizione standard ad Archiviazione visi per archiviare visi persistenti aggiuntivi quando si usa PersonGroup Person - Add Face o FaceList - Add Face per l'identificazione o la ricerca di analogie. Il costo delle immagini archiviate è di 0,5 dollari per 1.000 visi e alla tariffa viene applicata la ripartizione proporzionale giornaliera. Le sottoscrizioni del livello gratuito continuano a essere limitate a un totale di 1.000 persone.

ottobre 2016

Messaggi API

luglio 2016

Nuove funzionalità

  • È supportata l'autenticazione dell'oggetto Face to Person in Face - Verify.
  • È stato aggiunto il parametro mode facoltativo che consente la selezione di due modalità di lavoro: matchPerson e matchFace in Face - Find Similar, mentre il parametro predefinito è matchPerson.
  • È stato aggiunto il parametro confidenceThreshold facoltativo per consentire all'utente di impostare la soglia che definisce se un viso appartiene a un oggetto Person in Face - Identify.
  • Sono stati aggiunti i parametri start e top facoltativi in PersonGroup - List per consentire all'utente di specificare il punto iniziale e il numero totale di PersonGroups all'elenco.

Modifiche da V1.0 a V0

  • L'endpoint radice del servizio è stato aggiornato da https://westus.api.cognitive.microsoft.com/face/v0/ a https://westus.api.cognitive.microsoft.com/face/v1.0/. Sono state apportate modifiche a: Face - Detect, Face - Identify, Face - Find Similar e Face - Group.
  • Le dimensioni minime rilevabili per i visi sono state aggiornate a 36 x 36 pixel. I visi di dimensioni inferiori a 36 x 36 pixel non vengono rilevati.
  • I dati di PersonGroup e Person in Viso V0 sono deprecati. Non è possibile accedere a tali dati con il servizio Viso V1.0.
  • L'endpoint V0 dell'API Viso è deprecato dal 30 giugno 2016.

Aggiornamenti dei servizi di intelligenza artificiale di Azure

Annunci di aggiornamento di Azure per i servizi di intelligenza artificiale di Azure