Not
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Den här artikeln beskriver de toppmoderna öppna modeller som stöds av Api:er för Databricks Foundation-modell.
Anmärkning
Se Grundmodeller som stöds på Mosaic AI Model Serving för regionstillgänglighet för dessa modeller och de funktionsområden som stöds.
Du kan skicka frågeförfrågningar till dessa modeller med hjälp av de pay-per-token-slutpunkter som är tillgängliga på din Databricks-arbetsyta. Se Använd grundmodeller och tabellen för modeller som stöds av betalning per token för namnen på de modellslutpunkter som ska användas.
Förutom att stödja modeller i pay-per-token-läge erbjuder Foundation Model API:er också ett reserverat dataflödesläge. Databricks rekommenderar tilldelad kapacitet för produktionsarbetslaster. Det här läget stöder alla modeller av en modellarkitekturfamilj (till exempel DBRX-modeller), inklusive finjusterade och anpassade förtränade modeller som stöds i pay-per-token-läge. Se API:er för etablerad dataflödesmodell för listan över arkitekturer som stöds.
Du kan interagera med dessa modeller som stöds med hjälp av AI Playground.
Alibaba Cloud Qwen3-Next 80B A3B Instruktion
Viktig
Modellen Qwen3-Next 80B A3B Instruct är i Beta och är endast tillgänglig i eastus2 regionen.
- Mer information om hur du aktiverar den här modellen finns i Hantera förhandsversioner av Azure Databricks .
- Qwen3-Next 80B A3B Instruct tillhandahålls under och omfattas av Apache 2.0-licensen, copyright (c) Apache Software Foundation, Alla rättigheter reserverade. Kunderna ansvarar för att säkerställa efterlevnaden av tillämpliga modelllicenser.
Slutpunktsnamn: databricks-qwen3-next-80b-a3b-instruct
Qwen3-Next-80B-A3B-Instruct är en mycket effektiv stor språkmodell som är optimerad för instruktions-följande uppgifter som skapats och tränats av Alibaba Cloud. Den här modellen är utformad för att hantera ultralånga kontexter och excels i arbetsflöden i flera steg, hämtningsförhöjd generering och företagsprogram som kräver deterministiska utdata vid högt dataflöde.
Precis som med andra stora språkmodeller kan Qwen3-Next 80B A3B Instruct-utdata utelämna vissa fakta och ibland generera falsk information. Databricks rekommenderar att du använder hämtning förstärkt generering (RAG) i scenarier där noggrannhet är särskilt viktig.
OpenAI GPT OSS 120B
Viktig
OpenAI GPT OSS 120B tillhandahålls under och omfattas av Apache 2.0-licensen, Copyright (c) Apache Software Foundation, Alla rättigheter reserverade. Kunderna ansvarar för att säkerställa efterlevnaden av tillämpliga modelllicenser.
Slutpunktsnamn: databricks-gpt-oss-120b
GPT OSS 120B är en toppmodern resonemangsmodell med tankekedja och justerbara resonemangsnivåer som skapats och tränats av OpenAI. Det är OpenAI:s flaggskeppsmodell med öppen åtkomst och har ett kontextfönster med 128 000 token. Modellen är byggd för högkvalitativa resonemangsuppgifter.
Precis som med andra stora språkmodeller kan GPT OSS 120B-utdata utelämna vissa fakta och ibland generera falsk information. Databricks rekommenderar att du använder hämtning förstärkt generering (RAG) i scenarier där noggrannhet är särskilt viktig.
OpenAI GPT OSS 20B
Viktig
OpenAI GPT OSS 20B tillhandahålls under och omfattas av Apache 2.0-licensen, Copyright (c) Apache Software Foundation, Alla rättigheter reserverade. Kunderna ansvarar för att säkerställa efterlevnaden av tillämpliga modelllicenser.
Slutpunktsnamn: databricks-gpt-oss-20b
GPT OSS 20B är en toppmodern, lättviktig resonemangsmodell som skapats och tränats av OpenAI. Den här modellen har ett kontextfönster med 128K token och utmärker sig i realtidsapplikationer och batchinferensuppgifter.
Precis som med andra stora språkmodeller kan GPT OSS 20B-utdata utelämna vissa fakta och ibland generera falsk information. Databricks rekommenderar att du använder hämtning förstärkt generering (RAG) i scenarier där noggrannhet är särskilt viktig.
Google Gemma 3 12B
Viktig
Se Tillämpliga licenser och villkor för modellutvecklare för Gemma 3 Community-licensen och policyn för godtagbar användning.
Slutpunktsnamn: databricks-gemma-3-12b
Gemma 3 12B är en multimodal modell med 12 miljarder parametrar och visionsspråk som utvecklats av Google som en del av Gemma 3-familjen. Gemma 3 har upp till 128 000 tokenkontexter och ger flerspråkigt stöd för över 140 språk. Den här modellen är utformad för att hantera både text- och bildindata och generera textutdata, och är optimerad för dialoganvändningsfall, textgenerering och bildtolkningsuppgifter, inklusive frågesvar.
Precis som med andra stora språkmodeller kan Gemma 3-utdata utelämna vissa fakta och ibland generera falsk information. Databricks rekommenderar att du använder hämtning förstärkt generering (RAG) i scenarier där noggrannhet är särskilt viktig.
Meta Llama 4 Maverick
Viktig
Se Tillämpliga licenser och villkor för modellutvecklare för policyn för Llama 4 Community-licens och godtagbar användning.
Slutpunktsnamn: databricks-llama-4-maverick
Llama 4 Maverick är en toppmodern stor språkmodell som skapats och tränats av Meta. Det är den första i Llama-modellfamiljen som använder en blandning av experters arkitektur för beräkningseffektivitet. Llama 4 Maverick stöder flera språk och är optimerad för exakta användningsfall för bild- och texttolkning. För närvarande är Databricks-stöd för Llama 4 Maverick begränsat till användningsfall för texttolkning. Läs mer om Llama 4 Maverick.
Precis som med andra stora språkmodeller kan Llama 4-utdata utelämna vissa fakta och ibland generera falsk information. Databricks rekommenderar att du använder hämtning förstärkt generering (RAG) i scenarier där noggrannhet är särskilt viktig.
Meta Llama 3.3 70B Instruktion
Viktig
Från och med den 11 december 2024 ersätter Meta-Llama-3.3-70B-Instruct stödet för Meta-Llama-3.1-70B-Instruct i Foundation Model API:ers betalning per token-slutpunkter.
Se Tillämpliga licenser och villkor för modellutvecklare för communitylicensen LLama 3.3 och policyn för godtagbar användning.
Slutpunktsnamn: databricks-meta-llama-3-3-70b-instruct
Meta-Llama-3.3-70B-Instruct är en toppmodern stor språkmodell med en kontext av 128 000 token som har skapats och tränats av Meta. Modellen stöder flera språk och är optimerad för dialoganvändningsfall. Läs mer om Meta Llama 3.3.
På samma sätt som andra stora språkmodeller kan Llama-3:s utdata utelämna vissa fakta och ibland generera falsk information. Databricks rekommenderar att du använder hämtning förstärkt generering (RAG) i scenarier där noggrannhet är särskilt viktig.
Meta Llama 3.1 405B Instruera
Viktig
Meta-Llama-3.1-405B-Instruct kommer att dras tillbaka,
- Från och med den 15 februari 2026 för belastningar med betalning per token.
- Från och med den 15 maj 2026 för tilldelade genomströmningsarbetsbelastningar.
Se Tillbakadragna modeller för den rekommenderade ersättningsmodellen och vägledning om hur du migrerar under utfasningsperioden.
Viktig
Användningen av den här modellen med FOUNDATION Model-API:er finns i offentlig förhandsversion. Kontakta ditt Databricks-kontoteam om du stöter på slutpunktsfel eller stabiliseringsfel när du använder den här modellen.
Se Tillämpliga licenser och villkor för modellutvecklare för policyn för Community-licens för Llama 3.1 och godtagbar användning.
Slutpunktsnamn: databricks-meta-llama-3-1-405b-instruct
Meta-Llama-3.1-405B-Instruct är den största öppet tillgängliga, toppmoderna stora språkmodellen som skapats och tränats av Meta och distribueras av Azure Machine Learning med hjälp av AzureML-modellkatalogen. Med den här modellen kan kunderna låsa upp nya funktioner, till exempel avancerade resonemang i flera steg och högkvalitativ syntetisk datagenerering. Den här modellen är konkurrenskraftig med GPT-4-Turbo vad gäller kvalitet.
Precis som Meta-Llama-3.1-70B-Instruct har den här modellen en kontext med 128 000 token och stöd på tio språk. Det överensstämmer med mänskliga preferenser för användbarhet och säkerhet och är optimerat för dialoganvändningsfall. Läs mer om Meta Llama 3.1-modellerna.
På samma sätt som andra stora språkmodeller kan Llama-3.1s utdata utelämna vissa fakta och ibland generera falsk information. Databricks rekommenderar att du använder hämtning förstärkt generering (RAG) i scenarier där noggrannhet är särskilt viktig.
Meta Llama 3.1 8B Instruera
Viktig
Se Tillämpliga licenser och villkor för modellutvecklare för communitylicensen för LLama 3.1 och policyn för godtagbar användning.
Slutpunktsnamn: databricks-meta-llama-3-1-8b-instruct
Meta-Llama-3.1-8B-Instruct är en toppmodern stor språkmodell med en kontext av 128 000 token som har skapats och tränats av Meta. Modellen stöder flera språk och är optimerad för dialoganvändningsfall. Läs mer om Meta Llama 3.1.
På samma sätt som andra stora språkmodeller kan Llama-3:s utdata utelämna vissa fakta och ibland generera falsk information. Databricks rekommenderar att du använder hämtning förstärkt generering (RAG) i scenarier där noggrannhet är särskilt viktig.
Antropisk Claude Sonnet 4.5
Viktig
Kunderna ansvarar för att säkerställa att de följer villkoren i Anthropics policy för godtagbar användning. Se även Databricks Master Cloud Services-avtalet.
Slutpunktsnamn: databricks-claude-sonnet-4-5
Claude Sonnet 4.5 är Anthropics mest avancerade hybridskälmodell. Det erbjuder två lägen: nästan omedelbara svar och utökat tänkande för djupare resonemang baserat på uppgiftens komplexitet. Claude Sonnet 4.5 är specialiserat på program som kräver en balans mellan praktiskt dataflöde och avancerat tänkande som kundinriktade agenter, arbetsflöden för produktionskodning och innehållsgenerering i stor skala.
Precis som med andra stora språkmodeller kan Claude Sonnet 4.5-utdata utelämna vissa fakta och ibland generera falsk information. Databricks rekommenderar att du använder hämtning förstärkt generering (RAG) i scenarier där noggrannhet är särskilt viktig.
Den här slutpunkten hanteras av Databricks i AWS inom Databricks säkerhetsperimeter.
Antropisk Claude Sonnet 4
Viktig
Kunderna ansvarar för att säkerställa att de följer villkoren i Anthropics policy för godtagbar användning. Se även Databricks Master Cloud Services-avtalet.
Slutpunktsnamn: databricks-claude-sonnet-4
Claude Sonnet 4 är en toppmodern hybridmodell som skapats och tränats av Anthropic. Den här modellen erbjuder två lägen: nästan omedelbara svar och utökat tänkande för djupare resonemang baserat på uppgiftens komplexitet. Claude Sonnet 4 är optimerad för olika uppgifter som kodutveckling, storskalig innehållsanalys och utveckling av agentprogram.
Precis som med andra stora språkmodeller kan Claude Sonnet 4-utdata utelämna vissa fakta och ibland generera falsk information. Databricks rekommenderar att du använder hämtning förstärkt generering (RAG) i scenarier där noggrannhet är särskilt viktig.
Den här slutpunkten hanteras av Databricks i AWS inom Databricks säkerhetsperimeter.
Antropisk Claude Opus 4.1
Viktig
Kunderna ansvarar för att säkerställa att de följer villkoren i Anthropics policy för godtagbar användning. Se även Databricks Master Cloud Services-avtalet.
Slutpunktsnamn: databricks-claude-opus-4-1
Claude Opus 4.1 är en toppmodern hybridmodell som skapats och tränats av Anthropic. Den här stora språkmodellen för generell användning är utformad för både komplexa resonemang och verkliga program i företagsskala. Den stöder text- och bildindata, med ett 200 000 token-kontextfönster och kapacitet för 32 000 utdatatoken. Den här modellen utmärker sig för uppgifter som kodgenerering, skapande av forskning och innehåll och arbetsflöden för flera steg agenter utan konstant mänsklig inblandning.
Precis som med andra stora språkmodeller kan Claude Opus 4.1-utdata utelämna vissa fakta och ibland generera falsk information. Databricks rekommenderar att du använder hämtning förstärkt generering (RAG) i scenarier där noggrannhet är särskilt viktig.
Den här slutpunkten hanteras av Databricks i AWS inom Databricks säkerhetsperimeter.
Anthropic Claude 3.7 Sonett
Viktig
Kunderna ansvarar för att säkerställa att de följer villkoren i Anthropics policy för godtagbar användning. Se även Databricks Master Cloud Services-avtalet.
Slutpunktsnamn: databricks-claude-3.7-sonnet
Claude 3.7 Sonnet är en toppmodern hybridmodell som skapats och tränats av Anthropic. Det är en stor språkmodell och en resonemangsmodell som snabbt kan svara eller utöka sitt resonemang baserat på uppgiftens komplexitet. I läget för utökat tänkande är Claude 3.7 Sonnets resonemangssteg synliga för användaren. Claude 3.7 Sonnet är optimerat för olika uppgifter såsom kodgenerering, matematisk resonemang och instruktionsföljning.
Precis som med andra stora språkmodeller kan Claude 3.7-utdata utelämna vissa fakta och ibland generera falsk information. Databricks rekommenderar att du använder hämtning förstärkt generering (RAG) i scenarier där noggrannhet är särskilt viktig.
Den här slutpunkten hanteras av Databricks i AWS inom Databricks säkerhetsperimeter.
GTE Large (En)
Viktig
GTE Large (En) tillhandahålls under och omfattas av Apache 2.0-licensen, Copyright (c) Apache Software Foundation, Alla rättigheter reserverade. Kunderna ansvarar för att säkerställa efterlevnaden av tillämpliga modelllicenser.
Slutpunktsnamn: databricks-gte-large-en
Allmän textinbäddning (GTE) är en textinbäddningsmodell som kan mappa valfri text till en inbäddningsvektor med 1 024 dimensioner och ett inbäddningsfönster med 8 192 token. Dessa vektorer kan användas i vektorindex för LLM:er och för uppgifter som hämtning, klassificering, frågesvar, klustring eller semantisk sökning. Den här slutpunkten hanterar den engelska versionen av modellen och genererar inte normaliserade inbäddningar.
Inbäddningsmodeller är särskilt effektiva när de används tillsammans med LLM:er för användningsfall med utökad generering baserad på återhämtning (RAG). GTE kan användas för att hitta relevanta textfragment i stora delar av dokument som kan användas i kontexten för en LLM.
Stor BGE (En)
Slutpunktsnamn: databricks-bge-large-en
BAAI Allmän inbäddning (BGE) är en textinbäddningsmodell som kan mappa valfri text till en inbäddningsvektor med 1 024 dimensioner och ett inbäddningsfönster med 512 token. Dessa vektorer kan användas i vektorindex för LLM:er och för uppgifter som hämtning, klassificering, frågesvar, klustring eller semantisk sökning. Den här slutpunkten hanterar den engelska versionen av modellen och genererar normaliserade inbäddningar.
Inbäddningsmodeller är särskilt effektiva när de används tillsammans med LLM:er för användningsfall med utökad generering baserad på återhämtning (RAG). BGE kan användas för att hitta relevanta textfragment i stora delar av dokument som kan användas i kontexten för en LLM.
I RAG-program kanske du kan förbättra prestandan för ditt hämtningssystem genom att inkludera en instruktionsparameter. BGE-författarna rekommenderar att du provar instruktionen "Represent this sentence for searching relevant passages:" för frågeinbäddningar, även om dess prestandapåverkan är domänberoende.