Bildbeschreibungen
Azure KI Vision kann ein Bild analysieren und einen für Menschen lesbaren Ausdruck mit der Beschreibung des Inhalts generieren. Der Algorithmus gibt mehrere Beschreibungen zurück, die auf unterschiedlichen visuellen Merkmalen basieren, wobei jede Beschreibung eine Zuverlässigkeitsbewertung erhält. Die endgültige Ausgabe ist eine Liste mit Beschreibungen, die absteigend nach Zuverlässigkeitsbewertung sortiert ist.
Derzeit wird nur Englisch als Sprache für Bildbeschreibungen unterstützt.
Testen Sie mithilfe von Vision Studio die Features zur Bilduntertitelung ganz schnell und einfach in Ihrem Browser.
Beispiel zur Bildbeschreibung
Die folgende JSON-Antwort veranschaulicht, was die Analyse-API bei der Beschreibung des Beispielbilds anhand seiner visuellen Merkmale zurückgibt.
{
"description":{
"tags":[
"outdoor",
"city",
"white"
],
"captions":[
{
"text":"a city with tall buildings",
"confidence":0.48468858003616333
}
]
},
"requestId":"7e5e5cac-ef16-43ca-a0c4-02bd49d379e9",
"metadata":{
"height":300,
"width":239,
"format":"Png"
},
"modelVersion":"2021-05-01"
}
Verwenden der API
Das Bildbeschreibungsfeature ist Teil der Bildanalyse-API. Sie können diese API über ein natives SDK oder REST-Aufrufe aufrufen. Beziehen Sie Description
in den Abfrageparameter visualFeatures ein. Nachdem Sie die vollständige JSON-Antwort erhalten haben, analysieren Sie die Zeichenfolge auf die Inhalte im Abschnitt "description"
.
Nächste Schritte
Machen Sie sich mit den verwandten Konzepten Taggen von Bildern und Kategorisieren von Bildern vertraut.
Feedback
https://aka.ms/ContentUserFeedback.
Bald verfügbar: Im Laufe des Jahres 2024 werden wir GitHub-Tickets als Feedbackmechanismus für Inhalte auslaufen lassen und es durch ein neues Feedbacksystem ersetzen. Weitere Informationen finden Sie unter:Einreichen und Feedback anzeigen für