Bildbeschreibungen

Azure KI Vision kann ein Bild analysieren und einen für Menschen lesbaren Ausdruck mit der Beschreibung des Inhalts generieren. Der Algorithmus gibt mehrere Beschreibungen zurück, die auf unterschiedlichen visuellen Merkmalen basieren, wobei jede Beschreibung eine Zuverlässigkeitsbewertung erhält. Die endgültige Ausgabe ist eine Liste mit Beschreibungen, die absteigend nach Zuverlässigkeitsbewertung sortiert ist.

Derzeit wird nur Englisch als Sprache für Bildbeschreibungen unterstützt.

Testen Sie mithilfe von Vision Studio die Features zur Bilduntertitelung ganz schnell und einfach in Ihrem Browser.

Beispiel zur Bildbeschreibung

Die folgende JSON-Antwort veranschaulicht, was die Analyse-API bei der Beschreibung des Beispielbilds anhand seiner visuellen Merkmale zurückgibt.

Ein Schwarzweißbild von Gebäuden in Manhattan

{
   "description":{
      "tags":[
         "outdoor",
         "city",
         "white"
      ],
      "captions":[
         {
            "text":"a city with tall buildings",
            "confidence":0.48468858003616333
         }
      ]
   },
   "requestId":"7e5e5cac-ef16-43ca-a0c4-02bd49d379e9",
   "metadata":{
      "height":300,
      "width":239,
      "format":"Png"
   },
   "modelVersion":"2021-05-01"
}

Verwenden der API

Das Bildbeschreibungsfeature ist Teil der Bildanalyse-API. Sie können diese API über ein natives SDK oder REST-Aufrufe aufrufen. Beziehen Sie Description in den Abfrageparameter visualFeatures ein. Nachdem Sie die vollständige JSON-Antwort erhalten haben, analysieren Sie die Zeichenfolge auf die Inhalte im Abschnitt "description".

Nächste Schritte

Machen Sie sich mit den verwandten Konzepten Taggen von Bildern und Kategorisieren von Bildern vertraut.