Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
In diesem Artikel wird die Modellwartungsrichtlinie für die Foundation-Modell-APIs pay-per-token, Foundation Model APIs bereitgestellter Durchsatz und Foundation Model Fine-Tuning-Angebote beschrieben.
Um weiterhin die modernsten Modelle zu unterstützen, kann Databricks unterstützte Modelle aktualisieren oder ältere Modelle für diese Angebote zurückziehen.
Modellrichtlinie für den Ruhestand
In den folgenden Abschnitten wird die Einstellungsrichtlinie für die angegebenen Featureangebote zusammengefasst. Eine Liste der derzeit ausgemusterten Modelle und der vorgesehenen Ausmusterungsdaten finden Sie unter Ausgemusterte Modelle.
Wichtig
Die Einstellungsrichtlinien, die für die Foundation Model-APIs pay-per-token und Foundation Model Fine-Tuning-Angebote gelten, wirken sich nur auf unterstützte Chat- und Abschlussmodelle aus.
APIs für Foundation-Modelle, Bezahlung pro Token
In der folgenden Tabelle wird die Einstellungsrichtlinie für Foundation-Modell-APIs mit Pay-per-Token zusammengefasst.
| Einstellungsbenachrichtigung | Übergang zur Pensionierung | Am Ruhestandsdatum |
|---|---|---|
Databricks führt die folgenden Schritte aus, um Kunden über ein Modell zu informieren, das für den Ruhestand festgelegt ist:
|
Databricks wird das Modell in drei Monaten eingestellt. Während dieses dreimonatigen Zeitraums können Kunden:
|
Das Modell ist nicht mehr für die Verwendung verfügbar und wird aus dem Produkt entfernt. Die anwendbare Dokumentation wird aktualisiert, um die Verwendung eines Ersatzmodells zu empfehlen. |
Basismodell-APIs mit bereitgestelltem Durchsatz
In der folgenden Tabelle wird die Einstellungsrichtlinie für foundation Model-APIs zusammengefasst, die den Durchsatz bereitgestellt haben.
| Einstellungsbenachrichtigung | Übergang zur Pensionierung | Am Ruhestandsdatum |
|---|---|---|
Databricks führt die folgenden Schritte aus, um Kunden über ein Modell zu informieren, das für den Ruhestand festgelegt ist:
|
Databricks wird das Modell in sechs Monaten eingestellt. Während dieses Zeitraums von sechs Monaten:
|
Das Modell ist nicht mehr für die Verwendung verfügbar und wird aus dem Produkt entfernt.
|
Feinabstimmung von Foundation-Modellen
Die folgende Tabelle enthält eine Zusammenfassung der Einstellungsrichtlinie für die Feinabstimmung des Foundation-Modells.
| Einstellungsbenachrichtigung | Übergang zur Pensionierung | Am Ruhestandsdatum |
|---|---|---|
Databricks führt die folgenden Schritte aus, um Kunden über ein Modell zu informieren, das für den Ruhestand festgelegt ist:
|
Databricks zieht das Modell in drei Monaten zurück. Während dieses dreimonatigen Zeitraums können Kunden vorhandene Workflows migrieren, um empfohlene Ersatzmodelle zu verwenden. | Das Modell ist nicht mehr für die Verwendung verfügbar und wird aus dem Produkt entfernt. Die anwendbare Dokumentation wird aktualisiert, um die Verwendung eines Ersatzmodells zu empfehlen. |
Modellupdates
Databricks können inkrementelle Updates an Pay-per-Token-Modelle senden, um Optimierungen zu ermöglichen. Wenn ein Modell aktualisiert wird, bleibt die Endpunkt-URL gleich, aber die Modell-ID im Antwortobjekt ändert sich, um das Datum der Aktualisierung widerzuspiegeln. Wenn beispielsweise ein Update am 3.4.2024 an meta-llama/Meta-Llama-3.3-70B ausgeliefert wird, wird der Modellname im Antwortobjekt auf meta-llama/Meta-Llama-3.3-70B-030424aktualisiert. Databricks verwaltet einen Versionsverlauf der Updates, auf die Sie verweisen können.
Zurückgezogene Modelle
In den folgenden Abschnitten werden die aktuellen und anstehenden Modellrücksetzungen für die Foundation Model Fine-Tuning,Foundation Model APIs pay-per-token und Foundation Model-APIs zusammengefasst, die Durchsatzangebote bereitgestellt haben.
Einstellungen für Foundation Model-APIs mit tokenbasierter Bezahlung
Die folgende Tabelle zeigt Modelleinstellungen sowie ihre Einstellungstermine und die empfohlenen Ersatzmodelle für die Verwendung mit Workloads für Foundation Model-APIs mit tokenbasierter Bezahlung. Databricks empfiehlt, Ihre Anwendungen vor dem angegebenen Einstellungsdatum zu migrieren, um Ersatzmodelle zu verwenden.
Wichtig
Am 11. Dezember 2024 ersetzte Meta-Llama-3.3-70B-Instruct die Unterstützung für Meta-Llama-3.1-70B-Instruct in den Pay-per-Token-Endpunkten der Foundation Model APIs.
| Modell | Ruhestandsdatum | Empfohlenes Ersatzmodell |
|---|---|---|
| Meta Llama 3.1 405B | 15. Februar 2026 | OpenAI GPT OSS 120B |
| Anthropic Claude 3.7 Sonnet | 12. April 2026 | Anthropic Claude Sonnet 4.5 |
| DBRX-Anweisung | 30. April 2025 | Meta-Llama-4-Maverick |
| Mixtral-8x7B-Anweisung | 30. April 2025 | Meta-Llama-4-Maverick |
| Meta-Llama-3.1-70B-Instruct | 11. Dezember 2024 | Meta-Llama-4-Maverick |
| Meta-Llama-3-70B-Instruct | 23. Juli 2024 | Meta-Llama-4-Maverick |
| Meta-Llama-2-70B-Chat | 30. Oktober 2024 | Meta-Llama-4-Maverick |
| MPT 7B-Anweisung | 30. August 2024 | Meta-Llama-4-Maverick |
| MPT 30B-Anweisung | 30. August 2024 | Meta-Llama-4-Maverick |
Wenn Sie langfristige Unterstützung für eine bestimmte Modellversion benötigen, empfiehlt Databricks die Verwendung des bereitgestellten Durchsatzes von Foundation Model-APIs für Ihre Bereitstellungsworkloads.
Bereitgestellte Foundation-Modell-APIs für Durchsatzrücksetzungen
In der folgenden Tabelle sind Modellfamilienrenten, deren Deaktivierungsdaten und empfohlene Ersatzmodelle für die Verwendung für Foundation Model-APIs aufgeführt, die durch den Durchsatz bereitgestellt werden. Databricks empfiehlt, Ihre Anwendungen vor dem angegebenen Einstellungsdatum zu migrieren, um Ersatzmodelle zu verwenden.
| Modellfamilie | Ruhestandsdatum | Empfohlenes Ersatzmodell |
|---|---|---|
| Meta Llama 3.1 405B | 15. Mai 2026 | OpenAI GPT OSS 120B |
| Meta Llama 3 70B | 15. Februar 2026 | Vergleichbares Modell auf dem gleichen Angebot, wie Llama 3.2, 3.3 oder 4 Modell ähnlicher Größe. |
| Meta Llama 3 8B | 15. Februar 2026 | Vergleichbares Modell auf dem gleichen Angebot, wie Llama 3.2, 3.3 oder 4 Modell ähnlicher Größe. |
| Meta Llama 2 70B | 15. Februar 2026 | Vergleichbares Modell auf dem gleichen Angebot, wie Llama 3.2, 3.3 oder 4 Modell ähnlicher Größe. |
| Meta Llama 2 13B | 15. Februar 2026 | Vergleichbares Modell auf dem gleichen Angebot, wie Llama 3.2, 3.3 oder 4 Modell ähnlicher Größe. |
| Meta Llama 2 7B | 15. Februar 2026 | Vergleichbares Modell auf dem gleichen Angebot, wie Llama 3.2, 3.3 oder 4 Modell ähnlicher Größe. |
| Mistral 8x7B | 15. Februar 2026 | Vergleichbares Modell auf dem gleichen Angebot, wie Llama 3.2, 3.3 oder 4 Modell ähnlicher Größe. |
| Mixtral 7B | 15. Februar 2026 | Vergleichbares Modell auf dem gleichen Angebot, wie Llama 3.2, 3.3 oder 4 Modell ähnlicher Größe. |
| DBRX | 19. Dezember 2025 | Vergleichbares Modell auf dem gleichen Angebot, wie Llama 3.2, 3.3 oder 4 Modell ähnlicher Größe. |
| MPT 30B | 19. Dezember 2025 | Vergleichbares Modell auf dem gleichen Angebot, wie Llama 3.2, 3.3 oder 4 Modell ähnlicher Größe. |
| MPT 7B | 19. Dezember 2025 | Vergleichbares Modell auf dem gleichen Angebot, wie Llama 3.2, 3.3 oder 4 Modell ähnlicher Größe. |
Einstellungen für Foundation Model-Feinabstimmung
In der folgenden Tabelle sind ausgemusterte Modellfamilien, deren Deaktivierungsdaten und empfohlene Ersatzmodellfamilien zur Verwendung bei Foundation Model Fine-Tuning-Workloads aufgeführt. Databricks empfiehlt, Ihre Anwendungen vor dem angegebenen Einstellungsdatum zu migrieren, um Ersatzmodelle zu verwenden.
| Modellfamilie | Ruhestandsdatum | Empfohlene Ersatzmodellfamilie |
|---|---|---|
| DBRX | 30. April 2025 | Llama-3.1-70B |
| Mixtral | 30. April 2025 | Llama-3.1-70B |
| Mistral | 30. April 2025 | Llama-3.1-8B |
| Meta-Llama-3.1-405B | 30. Januar 2025 | Llama-3.1-70B |
| Meta-Llama-3 | 7. Januar 2025 | Meta-Llama-3.1 |
| Meta-Llama-2 | 7. Januar 2025 | Meta-Llama-3.1 |
| Code Llama | 7. Januar 2025 | Meta-Llama-3.1 |