Delen via


Ondersteunde modellen voor Databricks Foundation Models-API's

In dit artikel worden de geavanceerde open modellen beschreven die worden ondersteund door de Databricks Foundation-model-API's.

Opmerking

Zie Ondersteunde basismodellen op Mosaic AI Model Serving voor beschikbaarheid in regio's van deze modellen en de ondersteunde functiegebieden.

U kunt queryaanvragen naar deze modellen verzenden met behulp van de eindpunten voor betalen per token die beschikbaar zijn in uw Databricks-werkruimte. Zie Gebruik basismodellen en de tabel met modellen die betaling per token ondersteunen voor de namen van de modeleindpunten om te gebruiken.

Naast het ondersteunen van modellen in de betalen-per-token modus, biedt de Foundation Model-API ook de gereserveerde doorvoermodus aan. Databricks raadt geprovisioneerde doorvoer aan voor productiewerkbelastingen. Deze modus ondersteunt alle modellen van een modelarchitectuurfamilie (bijvoorbeeld DBRX-modellen), inclusief de nauwkeurig afgestemde en aangepaste vooraf getrainde modellen die worden ondersteund in de modus betalen per token. Zie Provisioned throughput Foundation Model API's voor de lijst met ondersteunde architecturen.

U kunt met deze ondersteunde modellen communiceren met behulp van de AI Playground-.

Meta Llama 4 Maverick

Belangrijk

Zie Toepasselijke modelontwikkelaarslicenties en voorwaarden voor de Llama 4-communitylicentie en het beleid voor acceptabel gebruik.

Llama 4 Maverick is een geavanceerd groot taalmodel gebouwd en getraind door Meta. Het is de eerste van de Llama-modelfamilie dat gebruikmaakt van een combinatie van experts-architectuur voor rekenefficiƫntie. Llama 4 Maverick ondersteunt meerdere talen en is geoptimaliseerd voor nauwkeurige gebruiksvoorbeelden voor afbeeldingen en tekstbegrip. Momenteel is Databricks-ondersteuning voor Llama 4 Maverick beperkt tot toepassingsgebieden voor tekstbegrip. Meer informatie over Llama 4 Maverick.

Net als bij andere grote taalmodellen kan Llama 4-uitvoer enkele feiten weglaten en af en toe valse informatie produceren. Databricks raadt aan om retrieval augmented generation (RAG) te gebruiken in scenario's waarin nauwkeurigheid vooral belangrijk is.

Meta Llama 3.3 70B Instruct

Belangrijk

Vanaf 11 december 2024 vervangt Meta-Llama-3.3-70B-Instruct de ondersteuning van Meta-Llama-3.1-70B-Instruct in de pay-per-token-eindpunten van Foundation Model APIs.

Zie Toepasselijke modelontwikkelaarslicenties en -voorwaarden voor de LLama 3.3-communitylicentie en het beleid voor acceptabel gebruik.

Meta-Llama-3.3-70B-Instruct is een state-of-the-art groot taalmodel met een context van 128.000 tokens dat is gebouwd en getraind door Meta. Het model ondersteunt meerdere talen en is geoptimaliseerd voor gebruiksscenario's voor dialoog. Meer informatie over de Meta Llama 3.3.

Net als bij andere grote taalmodellen kan de uitvoer van Llama-3 enkele feiten weglaten en af en toe valse informatie produceren. Databricks raadt aan om retrieval augmented generation (RAG) te gebruiken in scenario's waarin nauwkeurigheid vooral belangrijk is.

Meta Llama 3.1 405B Instruct

Belangrijk

Het gebruik van dit model met Foundation Model-API's is in openbare preview-fase. Neem contact op met uw Databricks-accountteam als er eindpuntfouten of stabilisatiefouten optreden bij het gebruik van dit model.

Zie Toepasselijke modelontwikkelaarslicenties en -voorwaarden voor de Llama 3.1-communitylicentie en het beleid voor acceptabel gebruik.

Meta-Llama-3.1-405B-Instruct is het grootste open beschikbare state-of-the-art grote taalmodel, gebouwd en getraind door Meta, en wordt gedistribueerd door Azure Machine Learning met behulp van de AzureML-modelcatalogus. Dankzij het gebruik van dit model kunnen klanten nieuwe mogelijkheden ontgrendelen, zoals geavanceerde, redenering in meerdere stappen en synthetische gegevensgeneratie van hoge kwaliteit. Dit model is concurrerend met GPT-4-Turbo in termen van kwaliteit.

Net als Meta-Llama-3.1-70B-Instruct heeft dit model een context van 128.000 tokens en ondersteuning in tien talen. Het is afgestemd op menselijke voorkeuren voor behulpzaamheid en veiligheid en is geoptimaliseerd voor gebruiksscenario's voor dialoog. Meer informatie over de Meta Llama 3.1-modellen.

Net als bij andere grote taalmodellen kan de uitvoer van Llama-3.1 enkele feiten weglaten en af en toe valse informatie produceren. Databricks raadt aan om retrieval augmented generation (RAG) te gebruiken in scenario's waarin nauwkeurigheid vooral belangrijk is.

Meta Llama 3.1 8B Instruct

Belangrijk

Zie Toepasselijke modelontwikkelaarslicenties en -voorwaarden voor de LLama 3.1-communitylicentie en het beleid voor acceptabel gebruik.

Meta-Llama-3.1-8B-Instruct is een state-of-the-art grote taalmodel met een context van 128.000 tokens die door Meta zijn gebouwd en getraind. Het model ondersteunt meerdere talen en is geoptimaliseerd voor gebruiksscenario's voor dialoog. Meer informatie over de Meta Llama 3.1.

Net als bij andere grote taalmodellen kan de uitvoer van Llama-3 enkele feiten weglaten en af en toe valse informatie produceren. Databricks raadt aan om retrieval augmented generation (RAG) te gebruiken in scenario's waarin nauwkeurigheid vooral belangrijk is.

Antropische Claude Sonnet 4

Belangrijk

Klanten zijn verantwoordelijk voor het waarborgen van hun naleving van de voorwaarden van het beleid voor acceptabel gebruik van antropicus. Zie ook de Databricks Master Cloud Services-overeenkomst.

Claude Sonnet 4 is een state-of-the-art, hybride redeneringsmodel gebouwd en getraind door Antropicus. Dit model biedt twee modi: bijna directe antwoorden en uitgebreid nadenken om dieper te redeneren op basis van de complexiteit van de taak. Claude Sonnet 4 is geoptimaliseerd voor verschillende taken, zoals codeontwikkeling, grootschalige inhoudsanalyse en ontwikkeling van agenttoepassingen.

Net als bij andere grote taalmodellen kan Claude Sonnet 4-uitvoer enkele feiten weglaten en af en toe valse informatie produceren. Databricks raadt aan om retrieval augmented generation (RAG) te gebruiken in scenario's waarin nauwkeurigheid vooral belangrijk is.

Dit eindpunt wordt gehost door Databricks Inc. in AWS binnen de Databricks-beveiligingsperimeter.

Antropische Claude Opus 4

Belangrijk

Klanten zijn verantwoordelijk voor het waarborgen van hun naleving van de voorwaarden van het beleid voor acceptabel gebruik van antropicus. Zie ook de Databricks Master Cloud Services-overeenkomst.

Claude Opus 4 is een state-of-the-art, hybride redeneringsmodel gebouwd en getraind door Antropicus. Dit model biedt twee modi: bijna directe antwoorden en uitgebreid nadenken om dieper te redeneren op basis van de complexiteit van de taak. Claude Opus 4 is geoptimaliseerd voor verschillende taken, zoals geavanceerde codegeneratie, agentindeling, onderzoek tussen bronnen, het maken van inhoud en samenvatting met behulp van contextretentie.

Net als bij andere grote taalmodellen kan Claude Opus 4-uitvoer enkele feiten weglaten en af en toe valse informatie produceren. Databricks raadt aan om retrieval augmented generation (RAG) te gebruiken in scenario's waarin nauwkeurigheid vooral belangrijk is.

Dit eindpunt wordt gehost door Databricks Inc. in AWS binnen de Databricks-beveiligingsperimeter.

Antropische Claude 3.7 Sonnet

Belangrijk

Klanten zijn verantwoordelijk voor het waarborgen van hun naleving van de voorwaarden van het beleid voor acceptabel gebruik van antropicus. Zie ook de Databricks Master Cloud Services-overeenkomst.

Claude 3.7 Sonnet is een hypermodern, hybride redeneringsmodel gebouwd en getraind door Anthropic. Het is een model voor grote talen en redeneringen dat snel kan reageren of de redenering ervan kan uitbreiden op basis van de complexiteit van de taak. In de uitgebreide denkmodus zijn de redeneringsstappen van Claude 3.7 Sonnet zichtbaar voor de gebruiker. Claude 3.7 Sonnet is geoptimaliseerd voor verschillende taken zoals het genereren van code, wiskundige redenering en het volgen van instructies.

Net als bij andere grote taalmodellen kan Claude 3.7-uitvoer enkele feiten weglaten en af en toe valse informatie produceren. Databricks raadt aan om retrieval augmented generation (RAG) te gebruiken in scenario's waarin nauwkeurigheid vooral belangrijk is.

Dit eindpunt wordt gehost door Databricks Inc. in AWS binnen de Databricks-beveiligingsperimeter.

GTE Large (en)

Belangrijk

GTE Large (En) wordt verstrekt onder en onderworpen aan de Apache 2.0-licentie, copyright (c) De Apache Software Foundation, alle rechten voorbehouden. Klanten zijn verantwoordelijk voor het garanderen van naleving van toepasselijke modellicenties.

GTE (General Text Embedding) is een model voor het insluiten van tekst dat elke tekst kan toewijzen aan een insluitingsvector van 1024 dimensies en een insluitvenster van 8192 tokens. Deze vectoren kunnen worden gebruikt in vectorindexen voor LLM's en voor taken zoals ophalen, classificatie, vragen beantwoorden, clusteren of semantische zoekopdrachten. Dit eindpunt dient de Engelse versie van het model en genereert geen genormaliseerde insluitingen.

Inbeddingsmodellen zijn met name effectief wanneer zij samen met LLMs worden gebruikt voor retentie-verrijkte generatie (RAG)-gebruiksscenario's. GTE kan worden gebruikt om relevante tekstfragmenten te vinden in grote stukken documenten die kunnen worden gebruikt in de context van een LLM.

BGE Large (En)

BAAI General Embedding (BGE) is een model voor het insluiten van tekst dat elke tekst kan toewijzen aan een insluitingsvector van 1024 dimensies en een insluitvenster van 512 tokens. Deze vectoren kunnen worden gebruikt in vectorindexen voor LLM's en voor taken zoals ophalen, classificatie, vragen beantwoorden, clusteren of semantische zoekopdrachten. Dit eindpunt dient de Engelse versie van het model en genereert genormaliseerde insluitingen.

Inbeddingsmodellen zijn met name effectief wanneer zij samen met LLMs worden gebruikt voor retentie-verrijkte generatie (RAG)-gebruiksscenario's. BGE kan worden gebruikt om relevante tekstfragmenten te vinden in grote stukken documenten die kunnen worden gebruikt in de context van een LLM.

In RAG-toepassingen kunt u mogelijk de prestaties van uw ophaalsysteem verbeteren door een instructieparameter op te geven. De BGE-auteurs raden aan de instructie "Represent this sentence for searching relevant passages:" te proberen voor het insluiten van query's, hoewel de invloed van de prestaties afhankelijk is van een domein.

Aanvullende informatiebronnen