Poznámka:
Přístup k této stránce vyžaduje autorizaci. Můžete se zkusit přihlásit nebo změnit adresáře.
Přístup k této stránce vyžaduje autorizaci. Můžete zkusit změnit adresáře.
Tento článek popisuje nejmodernější otevřené modely podporované rozhraními API modelu Databricks Foundation.
Poznámka:
Podívejte se na Supported Foundation Models on Mosaic AI Model Serving pro dostupnost modelů a podporované funkční oblasti.
Žádosti o dotazy můžete těmto modelům odesílat pomocí koncových bodů pro platby za token, které jsou k dispozici v pracovním prostoru Databricks. Podívejte se na používání základních modelů a tabulku s modely podporujícími platbu za token, kde najdete názvy koncových bodů modelů, které se mají použít.
Kromě podpory modelů v režimu plateb za token nabízí rozhraní API základních modelů také režim zřízené propustnosti. Databricks doporučuje předem nastavenou propustnost pro produkční úlohy. Tento režim podporuje všechny modely řady modelů architektury (například modely DBRX), včetně jemně vyladěných a vlastních předtrénovaných modelů podporovaných v režimu plateb za token. Podrobnosti o podporovaných architekturách naleznete v části Rozhraní API pro model založený na zřízené propustnosti.
S těmito podporovanými modely můžete pracovat pomocí AI Playgroundu.
Alibaba Cloud Qwen3-Next 80B A3B Instrukce
Důležitý
Model Qwen3-Next 80B A3B Instruct je v beta verzi a je dostupný jenom v eastus2 dané oblasti.
- Pokyny k povolení tohoto modelu najdete v tématu Správa verzí Preview služby Azure Databricks .
- Qwen3-Next 80B A3B instrukce jsou poskytovány podle licence Apache 2.0, Copyright (c) Nadace Apache Software Foundation. Všechna práva vyhrazena. Zákazníci zodpovídají za zajištění dodržování licenčních podmínek platných pro dané modely.
Název koncového bodu: databricks-qwen3-next-80b-a3b-instruct
Qwen3-Next-80B-A3B-Instruct je vysoce efektivní rozsáhlý jazykový model optimalizovaný pro úlohy s instrukcemi vytvořené a natrénované službou Alibaba Cloud. Tento model je navržený tak, aby zpracovával ultra dlouhé kontexty a exceluje v pracovních postupech s více kroky, generování rozšířeného načítání a podnikových aplikací, které vyžadují deterministické výstupy s vysokou propustností.
Stejně jako u jiných velkých jazykových modelů může výstup pokyn Qwen3-Next 80B A3B vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.
OpenAI GPT OSS 120B
Důležitý
OpenAI GPT OSS 120B je poskytován v rámci licence Apache 2.0, Copyright (c) Apache Software Foundation, Všechna práva vyhrazena. Zákazníci zodpovídají za zajištění dodržování licenčních podmínek platných pro dané modely.
Název koncového bodu: databricks-gpt-oss-120b
GPT OSS 120B je špičkový model uvažování s řetězcem myšlenkových procesů a nastavitelnými úrovněmi úsilí, vytvořený a natrénovaný společností OpenAI. Jedná se o vlajkový open-weight model OpenAI a obsahuje kontextové okno s 128K tokeny. Model je sestavený pro vysoce kvalitní úlohy zdůvodňování.
Stejně jako u jiných velkých jazykových modelů může výstup GPT OSS 120B vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.
OpenAI GPT OSS 20B
Důležitý
OpenAI GPT OSS 20B je poskytován v rámci licence Apache 2.0, Copyright (c) Apache Software Foundation, Všechna práva vyhrazena. Zákazníci zodpovídají za zajištění dodržování licenčních podmínek platných pro dané modely.
Název koncového bodu: databricks-gpt-oss-20b
GPT OSS 20B je nejmodernější odlehčený model pro uvažování, který byl vytvořený a natrénovaný OpenAI. Tento model má kontextové okno s kapacitou 128K tokenů a exceluje v kopilotech v reálném čase a dávkových úlohách automatického odvozování.
Stejně jako u jiných velkých jazykových modelů může výstup GPT OSS 20B vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.
Google Gemma 3 12B
Důležitý
Prosím, podívejte se na příslušné licence a podmínky pro vývojáře modelů Licenci Gemma 3 Community a Politiku přijatelného užití.
Název koncového bodu: databricks-gemma-3-12b
Gemma 3 12B je 12miliardový parametr multimodálního a vizuálního jazykového modelu vyvinutého společností Google jako součást rodiny Gemma 3. Gemma 3 má až 128K tokenového kontextu a poskytuje vícejazyčnou podporu pro více než 140 jazyků. Tento model je navržený tak, aby zpracovával vstupy textu i obrázku a generoval textové výstupy a je optimalizovaný pro případy použití dialogu, generování textu a úlohy porozumění obrázkům, včetně zodpovězení otázek.
Stejně jako u jiných velkých jazykových modelů může výstup Gemma 3 vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.
Meta Llama 4 Maverick
Důležitý
Přečtěte si příslušné licence a podmínky pro vývojáře modelů týkající se licence a zásad přijatelného použití Llama 4 Community.
Název koncového bodu: databricks-llama-4-maverick
Llama 4 Maverick je moderní velký jazykový model vytvořený a vytrénovaný Meta. Jedná se o první modelovou řadu Llama, která využívá kombinaci architektury odborníků pro efektivitu výpočetních prostředků. Llama 4 Maverick podporuje různé jazyky a je optimalizovaný pro přesné porozumění obrazům a textu. V současné době je podpora Llama 4 Maverick omezená na případy použití zaměřené na porozumění textu. Přečtěte si další informace o Llama 4 Maverick.
Stejně jako u jiných velkých jazykových modelů může výstup Llama 4 vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.
Meta Llama 3.3 70B Instrukce
Důležitý
Od 11. prosince 2024 nahrazuje Meta-Llama-3.3-70B-Instruct podporu pro Meta-Llama-3.1-70B-Instruct v rozhraních API základního modelu na koncových bodech účtovaných na základě počtu tokenů.
Podívejte se na příslušné licence a podmínky pro vývojáře modelů LLama 3.3 a na zásady přijatelného použití.
Název koncového bodu: databricks-meta-llama-3-3-70b-instruct
Meta-Llama-3.3-70B-Instruct je nejmodernější rozsáhlý jazykový model s kontextem 128 000 tokenů, vytvořený a natrénovaný společností Meta. Model podporuje více jazyků a je optimalizovaný pro případy použití dialogu. Přečtěte si další informace o meta llama 3.3.
Podobně jako u jiných velkých jazykových modelů může výstup Llama-3 vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.
Meta Llama 3.1 405B Instruktáž
Důležitý
Meta-Llama-3.1-405B-Instruct bude vyřazen,
- Od 15. února 2026 pro úlohy s platbami za tokeny.
- Od 15. května 2026 pro úlohy zřízené propustnosti.
Informace o tom, jak migrovat během vyřazení, najdete v části Vyřazené modely s doporučeným náhradním modelem a pokyny k migraci.
Důležitý
Použití tohoto modelu s rozhraními API základního modelu je ve veřejném náhledu. Pokud při používání tohoto modelu narazíte na selhání koncových bodů nebo chyby stabilizace, obraťte se na svůj tým účtu Databricks.
Podívejte se na příslušné licence a podmínky pro vývojáře modelů pro Llama 3.1 Community License a Acceptable Use Policy.
Název koncového bodu: databricks-meta-llama-3-1-405b-instruct
Meta-Llama-3.1-405B-Instruct je největší otevřeně dostupný špičkový velký jazykový model, sestavený a natrénovaný společností Meta, a je distribuován službou Azure Machine Learning pomocí katalogu modelů AzureML. Použití tohoto modelu umožňuje zákazníkům odemknout nové funkce, jako jsou pokročilé, vícestupňové odůvodnění a vysoce kvalitní syntetické generování dat. Tento model je konkurenceschopný s GPT-4-Turbo z hlediska kvality.
Podobně jako Meta-Llama-3.1-70B-Instruct má tento model kontext 128 000 tokenů a podporu napříč deseti jazyky. Je v souladu s lidskými preferencemi pro užitečnost a bezpečnost a je optimalizovaný pro případy použití dialogu. Přečtěte si další informace o modelech Meta Llama 3.1.
Podobně jako v jiných velkých jazykových modelech může výstup Llama-3.1 vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.
Meta Llama 3.1 8B – pokyn
Důležitý
Podívejte se na příslušné licence a podmínky pro vývojáře modelů LLama 3.1, Community License a Politiku přijatelného použití.
Název koncového bodu: databricks-meta-llama-3-1-8b-instruct
Meta-Llama-3.1-8B-Instruct je špičkový rozsáhlý jazykový model s kontextem 128 000 tokenů, který byl vytvořen a natrénován Meta. Model podporuje více jazyků a je optimalizovaný pro případy použití dialogu. Přečtěte si další informace o meta llama 3.1.
Podobně jako u jiných velkých jazykových modelů může výstup Llama-3 vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.
Anthropic Claude Sonnet 4.5
Důležitý
Zákazníci zodpovídají za zajištění dodržování podmínek zásad přijatelného použití Anthropic. Viz také smlouva o hlavních cloudových službách Databricks.
Název koncového bodu: databricks-claude-sonnet-4-5
Claude Sonnet 4.5 je nejpokročilejší model hybridního odůvodnění Anthropic. Nabízí dva režimy: téměř okamžité odpovědi a rozšířené myšlení pro hlubší odůvodnění na základě složitosti úkolu. Claude Sonnet 4.5 se specializuje na aplikaci, která vyžaduje rovnováhu praktické propustnosti a pokročilého myšlení, jako jsou agenti orientovaný na zákazníky, pracovní postupy psaní produkčního kódu a generování obsahu ve velkém měřítku.
Stejně jako u jiných velkých jazykových modelů může Výstup Clauda Sonnetu 4.5 vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.
Tento koncový bod hostuje Databricks v AWS v zabezpečovacím perimetru Databricks.
Anthropic Claude Sonet 4
Důležitý
Zákazníci zodpovídají za zajištění dodržování podmínek zásad přijatelného použití Anthropic. Viz také smlouva o hlavních cloudových službách Databricks.
Název koncového bodu: databricks-claude-sonnet-4
Claude Sonnet 4 je nejmodernější, hybridní důvodový model vytvořený a natrénovaný Anthropicem. Tento model nabízí dva režimy: téměř okamžité odpovědi a rozšířené myšlení pro hlubší odůvodnění na základě složitosti úkolu. Claude Sonnet 4 je optimalizovaný pro různé úlohy, jako je vývoj kódu, rozsáhlé analýzy obsahu a vývoj aplikací agentů.
Stejně jako u jiných velkých jazykových modelů může výstup Clauda Sonnetu 4 vynechávat některá fakta a občas vytvářet mylné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.
Tento koncový bod hostuje Databricks v AWS v zabezpečovacím perimetru Databricks.
Anthropic Claude Opus 4.1
Důležitý
Zákazníci zodpovídají za zajištění dodržování podmínek zásad přijatelného použití Anthropic. Viz také smlouva o hlavních cloudových službách Databricks.
Název koncového bodu: databricks-claude-opus-4-1
Claude Opus 4.1 je nejmodernější, hybridní důvodový model vytvořený a natrénovaný Anthropicem. Tento obecný jazykový model pro obecné účely je navržený pro komplexní aplikace i aplikace z reálného světa v podnikovém měřítku. Podporuje vstup textu a obrázku s kontextovým oknem tokenu 200K a možnostmi výstupního tokenu 32K. Tento model exceluje na úkolech, jako je generování kódu, výzkum a vytváření obsahu, a pracovní postupy agentů s více kroky bez neustálého lidského zásahu.
Stejně jako u jiných velkých jazykových modelů může Výstup Clauda Opus 4.1 vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.
Tento koncový bod hostuje Databricks v AWS v zabezpečovacím perimetru Databricks.
Anthropic Claude 3.7 Sonet
Důležitý
Zákazníci zodpovídají za zajištění dodržování podmínek zásad přijatelného použití Anthropic. Viz také smlouva o hlavních cloudových službách Databricks.
Název koncového bodu: databricks-claude-3.7-sonnet
Claude 3.7 Sonnet je špičkový, hybridní model zdůvodnění vytvořený a natrénovaný Anthropicem. Jedná se o rozsáhlý jazykový model a model odůvodnění, který dokáže rychle reagovat nebo rozšířit jeho odůvodnění na základě složitosti úlohy. Když je Claude 3.7 Sonnet v rozšířeném režimu myšlení, jeho kroky uvažování jsou viditelné pro uživatele. Claude 3.7 Sonnet je optimalizovaný pro různé úlohy, jako je generování kódu, matematické odůvodnění a instrukce následující.
Stejně jako u jiných velkých jazykových modelů může Výstup Clauda 3.7 vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.
Tento koncový bod hostuje Databricks v AWS v zabezpečovacím perimetru Databricks.
Gte Large (En)
Důležitý
GTE Large (En) je poskytován v rámci licence Apache 2.0, Copyright (c) Apache Software Foundation, Všechna práva vyhrazena. Zákazníci zodpovídají za zajištění dodržování licenčních podmínek platných pro dané modely.
Název koncového bodu: databricks-gte-large-en
Obecné vkládání textu (GTE) je model vkládání textu, který může mapovat jakýkoli text na vektor vkládání 1024 dimenzí a okno vkládání 8192 tokenů. Tyto vektory lze použít v indexech vektorů pro LLM a pro úlohy, jako je načítání, klasifikace, odpovídání na otázky, clustering nebo sémantické vyhledávání. Tento koncový bod slouží anglické verzi modelu a negeneruje normalizované vkládání.
Vkládací modely jsou zvláště efektivní, když se používají společně s LLM pro případy použití generace s rozšířeným vyhledáváním (RAG). GtE lze použít k vyhledání relevantních fragmentů textu ve velkých blocích dokumentů, které lze použít v kontextu LLM.
BGE Large (En)
Název koncového bodu: databricks-bge-large-en
BAAI General Embedding (BGE) je model vkládání textu, který může mapovat jakýkoli text na vektor vkládání 1024 dimenzí a okno vkládání 512 tokenů. Tyto vektory lze použít v indexech vektorů pro LLM a pro úlohy, jako je načítání, klasifikace, odpovídání na otázky, clustering nebo sémantické vyhledávání. Tento koncový bod slouží anglické verzi modelu a generuje normalizované vkládání.
Vkládací modely jsou zvláště efektivní, když se používají společně s LLM pro případy použití generace s rozšířeným vyhledáváním (RAG). BGE lze použít k vyhledání relevantních fragmentů textu ve velkých blocích dokumentů, které lze použít v kontextu LLM.
V aplikacích RAG můžete zlepšit výkon systému načítání zahrnutím parametru instrukce. Autoři BGE doporučují vyzkoušet instrukce "Represent this sentence for searching relevant passages:" pro vkládání dotazů, i když jeho dopad na výkon závisí na doméně.