Descrizioni delle immagini

Visione artificiale di Azure può analizzare un'immagine e generare una frase leggibile che ne descrive il contenuto. L'algoritmo restituisce diverse descrizioni in base a caratteristiche visive diverse e a ogni descrizione viene assegnato un punteggio di attendibilità. L'output finale è un elenco di descrizioni ordinate dall'attendibilità più alta a quella più bassa.

In questo momento, l'inglese è l'unica lingua supportata per la descrizione dell'immagine.

Provare le funzionalità di didascalia delle immagini in modo rapido e semplice nel browser usando Vision Studio.

Esempio di descrizione immagine

La risposta JSON seguente illustra cosa restituisce l'API Analyze quando descrive l'immagine di esempio in base alle relative funzionalità visive.

Immagine in bianco e nero di edifici di Manhattan

{
   "description":{
      "tags":[
         "outdoor",
         "city",
         "white"
      ],
      "captions":[
         {
            "text":"a city with tall buildings",
            "confidence":0.48468858003616333
         }
      ]
   },
   "requestId":"7e5e5cac-ef16-43ca-a0c4-02bd49d379e9",
   "metadata":{
      "height":300,
      "width":239,
      "format":"Png"
   },
   "modelVersion":"2021-05-01"
}

Usare l'API

La funzionalità di descrizione dell'immagine fa parte dell'API Analizza immagine . È possibile chiamare questa API tramite un SDK nativo o con chiamate REST. Includere Description nel parametro di query visualFeatures . Quindi, quando si ottiene la risposta JSON completa, analizzare la stringa per il contenuto della "description" sezione.

Passaggi successivi

Informazioni sui concetti correlati relativi all'assegnazione di tag alle immagini e alla categorizzazione delle immagini.