Dieser Browser wird nicht mehr unterstützt.
Führen Sie ein Upgrade auf Microsoft Edge durch, um die neuesten Features, Sicherheitsupdates und den technischen Support zu nutzen.
Was ist ein multimodales Modell?
Ein Modell, das bilder, aber keinen Text verarbeiten kann.
Ein Modell, das mehr als einen Datentyp, z. B. Text und Bilder, verstehen und arbeiten kann.
Ein Modell, das nur Videoinhalte generiert.
Wie können Entwickler Bilder programmgesteuert mithilfe von Foundry-Bildgenerierungsmodellen generieren?
Durch Senden von Textaufforderungen über die OpenAI-Antwort-API mithilfe eines bereitgestellten Imagemodells
Durch Hochladen von Bildern über die Foundry Playground UI.
Durch Aufrufen des GPT-4.1-Modellendpunkts.
Wenn Sie Bilder programmgesteuert mithilfe des OpenAI Python SDK mit Microsoft Foundry generieren, welchen Wert sollten Sie als Modellparameter in der Anforderung übergeben?
Der ursprüngliche Basismodellname (z. B. gpt-image-1.5).
Der Bereitstellungsname, den Sie dem Imagegenerierungsmodell in Ihrer Foundry-Ressource gegeben haben.
Der Name, den Sie ihrer Foundry-Ressource gegeben haben.
Warum wird die Videogenerierung mit Sora-Modellen in Microsoft Foundry als asynchroner Auftrag behandelt?
Da die Videogenerierung während des Renderings eine Benutzerinteraktion erfordert.
Da die REST-API synchrone Anforderungen nicht unterstützt.
Da die Videogenerierung ressourcenintensiv ist und zeitaufwendig ist.
Sie müssen alle Fragen beantworten, bevor Sie Ihre Arbeit überprüfen können.
War diese Seite hilfreich?
Benötigen Sie Hilfe zu diesem Thema?
Möchten Sie versuchen, Ask Learn zu verwenden, um Sie durch dieses Thema zu klären oder zu leiten?