Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
In diesem Artikel werden die hochmodernen offenen Modelle beschrieben, die von den Databricks Foundation Model-APIs unterstützt werden.
Hinweis
Siehe Unterstützte Foundation-Modelle für Mosaik AI Model Serving für die Verfügbarkeit dieser Modelle und der unterstützten Featurebereiche.
Sie können Abfrageanforderungen an diese Modelle senden, indem Sie die in Ihrem Databricks-Arbeitsbereich verfügbaren Pay-per-Token-Endpunkte verwenden. Informationen zu den Namen der zu verwendenden Modellendpunkte finden Sie in der Tabelle zu Foundation-Modellen verwenden und Modellen mit unterstützter Pay-per-Token-Zahlung.
Zusätzlich zur Unterstützung von Modellen im Pay-per-Token-Modus bieten Foundation Model-APIs auch den Modus mit bereitgestelltem Durchsatz. Databricks empfiehlt den bereitgestellten Durchsatz für Produktionsworkloads. Dieser Modus unterstützt alle Modelle einer Modellarchitekturfamilie (z. B. DBRX-Modelle), einschließlich der fein abgestimmten und benutzerdefinierten vortrainierten Modelle, die im Pay-per-Token-Modus unterstützt werden. Eine Liste der unterstützten Architekturen finden Sie unter Provisioned Throughput Foundation Model-APIs.
Sie können mit diesen unterstützten Modellen mit dem AI Playgroundinteragieren.
Meta Llama 4 Maverick
Wichtig
Siehe anwendbare Modellentwicklerlizenzen und -bedingungen für die Llama-4-Gemeinschaftslizenz und die Richtlinie zur akzeptablen Nutzung.
Llama 4 Maverick ist ein hochmodernes großes Sprachmodell, das von Meta gebaut und trainiert wurde. Es ist das erste Mitglied der Llama-Modellfamilie, das eine Expertenarchitektur-Mischung für Recheneffizienz verwendet. Llama 4 Maverick unterstützt mehrere Sprachen und ist für präzise Bild- und Textverständnisfälle optimiert. Derzeit ist databricks-Unterstützung von Llama 4 Maverick auf Textverständnis-Anwendungsfälle beschränkt. Erfahren Sie mehr über Llama 4 Maverick.
Wie bei anderen großen Sprachmodellen kann die Ausgabe von Llama 4 einige Fakten weglassen und gelegentlich falsche Informationen liefern. Databricks empfiehlt die Verwendung der abrufgestützten Generierung (RAG) in Szenarien, in denen Genauigkeit besonders wichtig ist.
Meta Llama 3.3 70B Instruct
Wichtig
Ab dem 11. Dezember 2024 ersetzt Meta-Llama-3.3-70B-Instruct die Unterstützung von Meta-Llama-3.1-70B-Instruct in den Pay-per-Token-Endpunkten der Foundation Model APIs.
Siehe anwendbare Modellentwicklerlizenzen und -bedingungen für die LLama 3.3 Community-Lizenz und die Richtlinie zur zulässigen Nutzung.
Meta-Llama-3.3-70B-Instruct ist ein hochmodernes großes Sprachmodell mit einem Kontext von 128.000 Token, die von Meta erstellt und trainiert wurden. Das Modell unterstützt mehrere Sprachen und ist für Dialoganwendungsfälle optimiert. Erfahren Sie mehr über die Meta Llama 3.3.
Ähnlich wie bei anderen großen Sprachmodellen kann die Ausgabe von Llama-3 einige Fakten weglassen und gelegentlich falsche Informationen erzeugen. Databricks empfiehlt die Verwendung der abrufgestützten Generierung (RAG) in Szenarien, in denen Genauigkeit besonders wichtig ist.
Meta Llama 3.1 405B Instruct
Wichtig
Die Verwendung dieses Modells mit Foundation-Modell-APIs befindet sich in Public Preview. Wenden Sie sich an Ihr Databricks-Kontoteam, wenn bei Verwendung dieses Modells Endpunktfehler oder Stabilisierungsfehler auftreten.
Siehe anwendbare Modellentwicklerlizenzen und -bedingungen für die Llama 3.1 Community-Lizenz und die Richtlinie zur zulässigen Nutzung.
Meta-Llama-3.1-405B-Instruct ist das größte offen verfügbare, hochmoderne großsprachige Modell, das von Meta erstellt und trainiert wird und von Azure Machine Learning mithilfe des AzureML-Modellkatalogs verteilt wird. Mit diesem Modell können Kunden neue Funktionen wie erweitertes, mehrstufiges Denken und hochwertige synthetische Datengenerierungfreischalten. Dieses Modell ist mit GPT-4-Turbo in Bezug auf Qualität wettbewerbsfähig.
Wie Meta-Llama-3.1-70B-Instruct verfügt dieses Modell über einen Kontext von 128.000 Token und unterstützung in zehn Sprachen. Sie richtet sich an menschliche Vorlieben für Hilfreichkeit und Sicherheit und ist für Dialoganwendungsfälle optimiert. Erfahren Sie mehr über die Meta Llama 3.1 Modelle.
Ähnlich wie bei anderen großen Sprachmodellen kann die Ausgabe von Llama-3.1 einige Fakten weglassen und gelegentlich falsche Informationen liefern. Databricks empfiehlt die Verwendung der abrufgestützten Generierung (RAG) in Szenarien, in denen Genauigkeit besonders wichtig ist.
Meta Llama 3.1 8B Anweisung
Wichtig
Siehe anwendbare Modellentwicklerlizenzen und -bedingungen für die LLama 3.1 Community-Lizenz und die Richtlinie zur zulässigen Verwendung.
Meta-Llama-3.1-8B-Instruct ist ein hochmodernes großes Sprachmodell mit einem Kontext von 128.000 Token, die von Meta erstellt und trainiert wurde. Das Modell unterstützt mehrere Sprachen und ist für Dialoganwendungsfälle optimiert. Erfahren Sie mehr über die Meta Llama 3.1.
Ähnlich wie bei anderen großen Sprachmodellen kann die Ausgabe von Llama-3 einige Fakten weglassen und gelegentlich falsche Informationen erzeugen. Databricks empfiehlt die Verwendung der abrufgestützten Generierung (RAG) in Szenarien, in denen Genauigkeit besonders wichtig ist.
Anthropic Claude Sonnet 4
Wichtig
Kunden sind dafür verantwortlich, ihre Einhaltung der Bedingungen der Anthropic-Richtlinie für die zulässige Nutzung sicherzustellen. Siehe auch den Databricks Master Cloud Services Agreement.
Claude Sonnet 4 ist ein hochmodernes, hybrides Reasoning-Modell, das von Anthropic gebaut und trainiert wurde. Dieses Modell bietet zwei Modi: nahezu sofortige Antworten und erweitertes Denken für tiefere Gründe basierend auf der Komplexität der Aufgabe. Claude Sonnet 4 ist für verschiedene Aufgaben wie Codeentwicklung, umfangreiche Inhaltsanalyse und Agent-Anwendungsentwicklung optimiert.
Wie bei anderen großen Sprachmodellen kann Claude Sonnet 4 einige Fakten weglassen und gelegentlich falsche Informationen liefern. Databricks empfiehlt die Verwendung der abrufgestützten Generierung (RAG) in Szenarien, in denen Genauigkeit besonders wichtig ist.
Dieser Endpunkt wird von Databricks Inc. in AWS innerhalb des Databricks-Sicherheitsperimeters gehostet.
Anthropic Claude Opus 4
Wichtig
Kunden sind dafür verantwortlich, ihre Einhaltung der Bedingungen der Anthropic-Richtlinie für die zulässige Nutzung sicherzustellen. Siehe auch den Databricks Master Cloud Services Agreement.
Claude Opus 4 ist ein hochmodernes, hybrides Denkmodell, das von Anthropic gebaut und trainiert wurde. Dieses Modell bietet zwei Modi: nahezu sofortige Antworten und erweitertes Denken für tiefere Gründe basierend auf der Komplexität der Aufgabe. Claude Opus 4 ist für verschiedene Aufgaben wie erweiterte Codegenerierung, Agent-Orchestrierung, quellübergreifende Forschung, Inhaltserstellung und Zusammenfassung mithilfe der Kontextaufbewahrung optimiert.
Wie bei anderen großen Sprachmodellen kann Claude Opus 4 einige Fakten weglassen und gelegentlich falsche Informationen liefern. Databricks empfiehlt die Verwendung der abrufgestützten Generierung (RAG) in Szenarien, in denen Genauigkeit besonders wichtig ist.
Dieser Endpunkt wird von Databricks Inc. in AWS innerhalb des Databricks-Sicherheitsperimeters gehostet.
Anthropic Claude 3.7 Sonnet
Wichtig
Kunden sind dafür verantwortlich, ihre Einhaltung der Bedingungen der Anthropic-Richtlinie für die zulässige Nutzung sicherzustellen. Siehe auch den Databricks Master Cloud Services Agreement.
Claude 3.7 Sonnet ist ein hochmodernes, hybrides Begründungsmodell, das von Anthropic gebaut und trainiert wurde. Es handelt sich um ein großes Sprachmodell und ein Denkmodell, das schnell reagieren oder seine Schlussfolgerungen basierend auf der Komplexität der Aufgabe erweitern kann. Im erweiterten Denken-Modus sind die Begründungsschritte von Claude 3.7 Sonnet für den Benutzer sichtbar. Claude 3.7 Sonnet ist für verschiedene Aufgaben wie Codegenerierung, mathematisches Denken und Anweisungsverfolgung optimiert.
Wie bei anderen großen Sprachmodellen kann Claude 3.7 einige Fakten weglassen und gelegentlich falsche Informationen liefern. Databricks empfiehlt die Verwendung der abrufgestützten Generierung (RAG) in Szenarien, in denen Genauigkeit besonders wichtig ist.
Dieser Endpunkt wird von Databricks Inc. in AWS innerhalb des Databricks-Sicherheitsperimeters gehostet.
GTE Large (En)
Wichtig
GTE Large (En) steht unter der Apache 2.0 Lizenz, Copyright (c) The Apache Software Foundation, alle Rechte vorbehalten. Kunden sind dafür verantwortlich, die Einhaltung anwendbarer Modelllizenzen sicherzustellen.
allgemeine Texteinbettung (GENERAL Text Embedding, GTE) ist ein Texteinbettungsmodell, das beliebigen Text einem Vektor mit 1024 Dimensionen und einem Einbettungsfenster von 8192-Token zuordnen kann. Diese Vektoren können in Vektorindizes für LLMs und für Aufgaben wie Abruf, Klassifizierung, Fragebeantwortung, Clustering oder semantische Suche verwendet werden. Dieser Endpunkt dient der englischen Version des Modells und generiert keine normalisierten Einbettungen.
Einbettungsmodelle sind besonders effektiv, wenn sie zusammen mit LLMs für Einsatzfälle der retrieval-augmentierten Generierung (RAG) verwendet werden. GTE kann verwendet werden, um relevante Textausschnitte in großen Abschnitten von Dokumenten zu finden, die im Kontext einer LLM verwendet werden können.
BGE Large (En)
BAAI General Embedding (BGE)- ist ein Texteinbettungsmodell, das jeden Text einem Vektor mit 1024 Dimensionen und einem Einbettungsfenster von 512 Token zuordnen kann. Diese Vektoren können in Vektorindizes für LLMs und für Aufgaben wie Abruf, Klassifizierung, Fragebeantwortung, Clustering oder semantische Suche verwendet werden. Dieser Endpunkt dient der englischen Version des Modells und generiert normalisierte Einbettungen.
Einbettungsmodelle sind besonders effektiv, wenn sie zusammen mit LLMs für Einsatzfälle der retrieval-augmentierten Generierung (RAG) verwendet werden. BGE kann verwendet werden, um relevante Textausschnitte in großen Abschnitten von Dokumenten zu finden, die im Kontext eines LLM verwendet werden können.
In RAG-Anwendungen können Sie möglicherweise die Leistung Ihres Abrufsystems verbessern, indem Sie einen Anweisungsparameter einschließen. Die BGE-Autoren empfehlen, die Anweisung "Represent this sentence for searching relevant passages:"
für Abfrageeinbettungen zu testen, obwohl ihre Leistungsauswirkungen domänenabhängig sind.