Sdílet prostřednictvím


Základní modely hostované v Databricks dostupné v rozhraních API pro základní modely

Tento článek popisuje nejmodernější otevřené modely podporované rozhraními API modelu Databricks Foundation.

Poznámka:

Podívejte se na Supported Foundation Models on Mosaic AI Model Serving pro dostupnost modelů a podporované funkční oblasti.

Žádosti o dotazy můžete těmto modelům odesílat pomocí koncových bodů pro platby za token, které jsou k dispozici v pracovním prostoru Databricks. Podívejte se na používání základních modelů a tabulku s modely podporujícími platbu za token, kde najdete názvy koncových bodů modelů, které se mají použít.

Kromě podpory modelů v režimu plateb za token nabízí rozhraní API základních modelů také režim zřízené propustnosti. Databricks doporučuje předem nastavenou propustnost pro produkční úlohy. Tento režim podporuje všechny modely řady modelů architektury (například modely DBRX), včetně jemně vyladěných a vlastních předtrénovaných modelů podporovaných v režimu plateb za token. Podrobnosti o podporovaných architekturách naleznete v části Rozhraní API pro model založený na zřízené propustnosti.

S těmito podporovanými modely můžete pracovat pomocí AI Playgroundu.

Alibaba Cloud Qwen3-Next 80B A3B Instrukce

Důležitý

Model Qwen3-Next 80B A3B Instruct je v beta verzi a je dostupný jenom v eastus2 dané oblasti.

  • Pokyny k povolení tohoto modelu najdete v tématu Správa verzí Preview služby Azure Databricks .
  • Qwen3-Next 80B A3B instrukce jsou poskytovány podle licence Apache 2.0, Copyright (c) Nadace Apache Software Foundation. Všechna práva vyhrazena. Zákazníci zodpovídají za zajištění dodržování licenčních podmínek platných pro dané modely.

Název koncového bodu: databricks-qwen3-next-80b-a3b-instruct

Qwen3-Next-80B-A3B-Instruct je vysoce efektivní rozsáhlý jazykový model optimalizovaný pro úlohy s instrukcemi vytvořené a natrénované službou Alibaba Cloud. Tento model je navržený tak, aby zpracovával ultra dlouhé kontexty a exceluje v pracovních postupech s více kroky, generování rozšířeného načítání a podnikových aplikací, které vyžadují deterministické výstupy s vysokou propustností.

Stejně jako u jiných velkých jazykových modelů může výstup pokyn Qwen3-Next 80B A3B vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.

OpenAI GPT OSS 120B

Důležitý

OpenAI GPT OSS 120B je poskytován v rámci licence Apache 2.0, Copyright (c) Apache Software Foundation, Všechna práva vyhrazena. Zákazníci zodpovídají za zajištění dodržování licenčních podmínek platných pro dané modely.

Název koncového bodu: databricks-gpt-oss-120b

GPT OSS 120B je špičkový model uvažování s řetězcem myšlenkových procesů a nastavitelnými úrovněmi úsilí, vytvořený a natrénovaný společností OpenAI. Jedná se o vlajkový open-weight model OpenAI a obsahuje kontextové okno s 128K tokeny. Model je sestavený pro vysoce kvalitní úlohy zdůvodňování.

Stejně jako u jiných velkých jazykových modelů může výstup GPT OSS 120B vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.

OpenAI GPT OSS 20B

Důležitý

OpenAI GPT OSS 20B je poskytován v rámci licence Apache 2.0, Copyright (c) Apache Software Foundation, Všechna práva vyhrazena. Zákazníci zodpovídají za zajištění dodržování licenčních podmínek platných pro dané modely.

Název koncového bodu: databricks-gpt-oss-20b

GPT OSS 20B je nejmodernější odlehčený model pro uvažování, který byl vytvořený a natrénovaný OpenAI. Tento model má kontextové okno s kapacitou 128K tokenů a exceluje v kopilotech v reálném čase a dávkových úlohách automatického odvozování.

Stejně jako u jiných velkých jazykových modelů může výstup GPT OSS 20B vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.

Google Gemma 3 12B

Důležitý

Prosím, podívejte se na příslušné licence a podmínky pro vývojáře modelů Licenci Gemma 3 Community a Politiku přijatelného užití.

Název koncového bodu: databricks-gemma-3-12b

Gemma 3 12B je 12miliardový parametr multimodálního a vizuálního jazykového modelu vyvinutého společností Google jako součást rodiny Gemma 3. Gemma 3 má až 128K tokenového kontextu a poskytuje vícejazyčnou podporu pro více než 140 jazyků. Tento model je navržený tak, aby zpracovával vstupy textu i obrázku a generoval textové výstupy a je optimalizovaný pro případy použití dialogu, generování textu a úlohy porozumění obrázkům, včetně zodpovězení otázek.

Stejně jako u jiných velkých jazykových modelů může výstup Gemma 3 vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.

Meta Llama 4 Maverick

Důležitý

Přečtěte si příslušné licence a podmínky pro vývojáře modelů týkající se licence a zásad přijatelného použití Llama 4 Community.

Název koncového bodu: databricks-llama-4-maverick

Llama 4 Maverick je moderní velký jazykový model vytvořený a vytrénovaný Meta. Jedná se o první modelovou řadu Llama, která využívá kombinaci architektury odborníků pro efektivitu výpočetních prostředků. Llama 4 Maverick podporuje různé jazyky a je optimalizovaný pro přesné porozumění obrazům a textu. V současné době je podpora Llama 4 Maverick omezená na případy použití zaměřené na porozumění textu. Přečtěte si další informace o Llama 4 Maverick.

Stejně jako u jiných velkých jazykových modelů může výstup Llama 4 vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.

Meta Llama 3.3 70B Instrukce

Důležitý

Od 11. prosince 2024 nahrazuje Meta-Llama-3.3-70B-Instruct podporu pro Meta-Llama-3.1-70B-Instruct v rozhraních API základního modelu na koncových bodech účtovaných na základě počtu tokenů.

Podívejte se na příslušné licence a podmínky pro vývojáře modelů LLama 3.3 a na zásady přijatelného použití.

Název koncového bodu: databricks-meta-llama-3-3-70b-instruct

Meta-Llama-3.3-70B-Instruct je nejmodernější rozsáhlý jazykový model s kontextem 128 000 tokenů, vytvořený a natrénovaný společností Meta. Model podporuje více jazyků a je optimalizovaný pro případy použití dialogu. Přečtěte si další informace o meta llama 3.3.

Podobně jako u jiných velkých jazykových modelů může výstup Llama-3 vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.

Meta Llama 3.1 405B Instruktáž

Důležitý

Meta-Llama-3.1-405B-Instruct bude vyřazen,

  • Od 15. února 2026 pro úlohy s platbami za tokeny.
  • Od 15. května 2026 pro úlohy zřízené propustnosti.

Informace o tom, jak migrovat během vyřazení, najdete v části Vyřazené modely s doporučeným náhradním modelem a pokyny k migraci.

Důležitý

Použití tohoto modelu s rozhraními API základního modelu je ve veřejném náhledu. Pokud při používání tohoto modelu narazíte na selhání koncových bodů nebo chyby stabilizace, obraťte se na svůj tým účtu Databricks.

Podívejte se na příslušné licence a podmínky pro vývojáře modelů pro Llama 3.1 Community License a Acceptable Use Policy.

Název koncového bodu: databricks-meta-llama-3-1-405b-instruct

Meta-Llama-3.1-405B-Instruct je největší otevřeně dostupný špičkový velký jazykový model, sestavený a natrénovaný společností Meta, a je distribuován službou Azure Machine Learning pomocí katalogu modelů AzureML. Použití tohoto modelu umožňuje zákazníkům odemknout nové funkce, jako jsou pokročilé, vícestupňové odůvodnění a vysoce kvalitní syntetické generování dat. Tento model je konkurenceschopný s GPT-4-Turbo z hlediska kvality.

Podobně jako Meta-Llama-3.1-70B-Instruct má tento model kontext 128 000 tokenů a podporu napříč deseti jazyky. Je v souladu s lidskými preferencemi pro užitečnost a bezpečnost a je optimalizovaný pro případy použití dialogu. Přečtěte si další informace o modelech Meta Llama 3.1.

Podobně jako v jiných velkých jazykových modelech může výstup Llama-3.1 vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.

Meta Llama 3.1 8B – pokyn

Důležitý

Podívejte se na příslušné licence a podmínky pro vývojáře modelů LLama 3.1, Community License a Politiku přijatelného použití.

Název koncového bodu: databricks-meta-llama-3-1-8b-instruct

Meta-Llama-3.1-8B-Instruct je špičkový rozsáhlý jazykový model s kontextem 128 000 tokenů, který byl vytvořen a natrénován Meta. Model podporuje více jazyků a je optimalizovaný pro případy použití dialogu. Přečtěte si další informace o meta llama 3.1.

Podobně jako u jiných velkých jazykových modelů může výstup Llama-3 vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.

Anthropic Claude Sonnet 4.5

Důležitý

Zákazníci zodpovídají za zajištění dodržování podmínek zásad přijatelného použití Anthropic. Viz také smlouva o hlavních cloudových službách Databricks.

Název koncového bodu: databricks-claude-sonnet-4-5

Claude Sonnet 4.5 je nejpokročilejší model hybridního odůvodnění Anthropic. Nabízí dva režimy: téměř okamžité odpovědi a rozšířené myšlení pro hlubší odůvodnění na základě složitosti úkolu. Claude Sonnet 4.5 se specializuje na aplikaci, která vyžaduje rovnováhu praktické propustnosti a pokročilého myšlení, jako jsou agenti orientovaný na zákazníky, pracovní postupy psaní produkčního kódu a generování obsahu ve velkém měřítku.

Stejně jako u jiných velkých jazykových modelů může Výstup Clauda Sonnetu 4.5 vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.

Tento koncový bod hostuje Databricks v AWS v zabezpečovacím perimetru Databricks.

Anthropic Claude Sonet 4

Důležitý

Zákazníci zodpovídají za zajištění dodržování podmínek zásad přijatelného použití Anthropic. Viz také smlouva o hlavních cloudových službách Databricks.

Název koncového bodu: databricks-claude-sonnet-4

Claude Sonnet 4 je nejmodernější, hybridní důvodový model vytvořený a natrénovaný Anthropicem. Tento model nabízí dva režimy: téměř okamžité odpovědi a rozšířené myšlení pro hlubší odůvodnění na základě složitosti úkolu. Claude Sonnet 4 je optimalizovaný pro různé úlohy, jako je vývoj kódu, rozsáhlé analýzy obsahu a vývoj aplikací agentů.

Stejně jako u jiných velkých jazykových modelů může výstup Clauda Sonnetu 4 vynechávat některá fakta a občas vytvářet mylné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.

Tento koncový bod hostuje Databricks v AWS v zabezpečovacím perimetru Databricks.

Anthropic Claude Opus 4.1

Důležitý

Zákazníci zodpovídají za zajištění dodržování podmínek zásad přijatelného použití Anthropic. Viz také smlouva o hlavních cloudových službách Databricks.

Název koncového bodu: databricks-claude-opus-4-1

Claude Opus 4.1 je nejmodernější, hybridní důvodový model vytvořený a natrénovaný Anthropicem. Tento obecný jazykový model pro obecné účely je navržený pro komplexní aplikace i aplikace z reálného světa v podnikovém měřítku. Podporuje vstup textu a obrázku s kontextovým oknem tokenu 200K a možnostmi výstupního tokenu 32K. Tento model exceluje na úkolech, jako je generování kódu, výzkum a vytváření obsahu, a pracovní postupy agentů s více kroky bez neustálého lidského zásahu.

Stejně jako u jiných velkých jazykových modelů může Výstup Clauda Opus 4.1 vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.

Tento koncový bod hostuje Databricks v AWS v zabezpečovacím perimetru Databricks.

Anthropic Claude 3.7 Sonet

Důležitý

Zákazníci zodpovídají za zajištění dodržování podmínek zásad přijatelného použití Anthropic. Viz také smlouva o hlavních cloudových službách Databricks.

Název koncového bodu: databricks-claude-3.7-sonnet

Claude 3.7 Sonnet je špičkový, hybridní model zdůvodnění vytvořený a natrénovaný Anthropicem. Jedná se o rozsáhlý jazykový model a model odůvodnění, který dokáže rychle reagovat nebo rozšířit jeho odůvodnění na základě složitosti úlohy. Když je Claude 3.7 Sonnet v rozšířeném režimu myšlení, jeho kroky uvažování jsou viditelné pro uživatele. Claude 3.7 Sonnet je optimalizovaný pro různé úlohy, jako je generování kódu, matematické odůvodnění a instrukce následující.

Stejně jako u jiných velkých jazykových modelů může Výstup Clauda 3.7 vynechat některá fakta a příležitostně vytvářet falešné informace. Databricks doporučuje používat načítání rozšířené generace (RAG) ve scénářích, kde je přesnost obzvláště důležitá.

Tento koncový bod hostuje Databricks v AWS v zabezpečovacím perimetru Databricks.

Gte Large (En)

Důležitý

GTE Large (En) je poskytován v rámci licence Apache 2.0, Copyright (c) Apache Software Foundation, Všechna práva vyhrazena. Zákazníci zodpovídají za zajištění dodržování licenčních podmínek platných pro dané modely.

Název koncového bodu: databricks-gte-large-en

Obecné vkládání textu (GTE) je model vkládání textu, který může mapovat jakýkoli text na vektor vkládání 1024 dimenzí a okno vkládání 8192 tokenů. Tyto vektory lze použít v indexech vektorů pro LLM a pro úlohy, jako je načítání, klasifikace, odpovídání na otázky, clustering nebo sémantické vyhledávání. Tento koncový bod slouží anglické verzi modelu a negeneruje normalizované vkládání.

Vkládací modely jsou zvláště efektivní, když se používají společně s LLM pro případy použití generace s rozšířeným vyhledáváním (RAG). GtE lze použít k vyhledání relevantních fragmentů textu ve velkých blocích dokumentů, které lze použít v kontextu LLM.

BGE Large (En)

Název koncového bodu: databricks-bge-large-en

BAAI General Embedding (BGE) je model vkládání textu, který může mapovat jakýkoli text na vektor vkládání 1024 dimenzí a okno vkládání 512 tokenů. Tyto vektory lze použít v indexech vektorů pro LLM a pro úlohy, jako je načítání, klasifikace, odpovídání na otázky, clustering nebo sémantické vyhledávání. Tento koncový bod slouží anglické verzi modelu a generuje normalizované vkládání.

Vkládací modely jsou zvláště efektivní, když se používají společně s LLM pro případy použití generace s rozšířeným vyhledáváním (RAG). BGE lze použít k vyhledání relevantních fragmentů textu ve velkých blocích dokumentů, které lze použít v kontextu LLM.

V aplikacích RAG můžete zlepšit výkon systému načítání zahrnutím parametru instrukce. Autoři BGE doporučují vyzkoušet instrukce "Represent this sentence for searching relevant passages:" pro vkládání dotazů, i když jeho dopad na výkon závisí na doméně.

Další zdroje informací