Descrizioni delle immagini
Visione artificiale di Azure può analizzare un'immagine e generare una frase leggibile che ne descrive il contenuto. L'algoritmo restituisce diverse descrizioni in base a caratteristiche visive diverse e a ogni descrizione viene assegnato un punteggio di attendibilità. L'output finale è un elenco di descrizioni ordinate dall'attendibilità più alta a quella più bassa.
In questo momento, l'inglese è l'unica lingua supportata per la descrizione dell'immagine.
Provare le funzionalità di didascalia delle immagini in modo rapido e semplice nel browser usando Vision Studio.
Esempio di descrizione immagine
La risposta JSON seguente illustra cosa restituisce l'API Analyze quando descrive l'immagine di esempio in base alle relative funzionalità visive.
{
"description":{
"tags":[
"outdoor",
"city",
"white"
],
"captions":[
{
"text":"a city with tall buildings",
"confidence":0.48468858003616333
}
]
},
"requestId":"7e5e5cac-ef16-43ca-a0c4-02bd49d379e9",
"metadata":{
"height":300,
"width":239,
"format":"Png"
},
"modelVersion":"2021-05-01"
}
Usare l'API
La funzionalità di descrizione dell'immagine fa parte dell'API Analizza immagine . È possibile chiamare questa API tramite un SDK nativo o con chiamate REST. Includere Description
nel parametro di query visualFeatures . Quindi, quando si ottiene la risposta JSON completa, analizzare la stringa per il contenuto della "description"
sezione.
Passaggi successivi
Informazioni sui concetti correlati relativi all'assegnazione di tag alle immagini e alla categorizzazione delle immagini.