本文介绍了可以使用 Mosaic AI Model Serving 服务的基础模型。
基础模型是大型、预先训练的神经网络,这些神经网络在大型和广泛的数据上进行训练。 这些模型旨在了解语言、图像或其他数据类型的常规模式,并可以针对具有其他训练的特定任务进行微调。 使用某些基础模型受模型开发人员许可证和可接受的使用策略的约束。 请参阅 适用的模型开发人员许可证和条款。
模型服务提供灵活的选项,用于根据需求托管和查询基础模型:
- AI Functions 优化模型:Databricks 托管的模型中有一部分专为 AI Functions 优化。 可以使用这些函数及其支持的模型将 AI 应用到数据并大规模运行批量推理生产工作负荷。
- 按令牌付费:非常适合试验和快速探索。 此选项允许在 Databricks 工作区中查询预配置的终结点,而无需预先做出基础结构承诺。
- 预配的吞吐量:建议用于需要性能保证的生产用例。 此选项允许使用优化的服务终结点部署微调的基础模型。
- 外部模型:此选项允许访问 Databricks 外部托管的基础模型,例如 OpenAI 或 Anthropic 提供的基础模型。 可以在 Databricks 中集中管理这些模型,以便简化治理。
Databricks 上托管的基础模型
Databricks 托管最先进的开放基础模型,如 Meta Llama。 这些模型是使用 基础模型 API 提供的。
下表总结了在每个区域中基于模型服务功能支持的 Databricks 托管模型和模型系列。
重要说明
Meta Llama 4 Maverick 适用于 公共预览版中基础模型 API 预配的吞吐量工作负荷。
从 2024 年 12 月 11 日起,Meta-Llama-3.3-70B-Instruct 将在 Foundation Model APIs 的按令牌付费终结点中替代对 Meta-Llama-3.1-70B-Instruct 的支持。
Meta-Llama-3.1-405B-Instruct 是由 Meta 构建和训练的最大、最先进的公开可用的大型语言模型,通过 AzureML 模型目录使用 Azure 机器学习进行分发。
以下模型现已停用。 有关推荐的替换模型,请参阅 停用的模型。
- Mixtral-8x7B 说明书
- DBRX
- Llama 2 70B 聊天
- MPT 7B 指示
- MPT 30B 指示
区域 | AI 函数优化模型 | 基础模型 API(按令牌付费) | 基础模型 API(预配吞吐量) |
---|---|---|---|
australiacentral |
不支持 | 不支持 | 不支持 |
australiacentral2 |
不支持 | 不支持 | 不支持 |
australiaeast |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
australiasoutheast |
不支持 | 不支持 | 不支持 |
brazilsouth |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
canadacentral |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
canadaeast |
不支持 | 不支持 | 不支持 |
centralindia |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
centralus |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
chinaeast2 |
不支持 | 不支持 | 不支持 |
chinaeast3 |
不支持 | 不支持 | 不支持 |
chinanorth2 |
不支持 | 不支持 | 不支持 |
chinanorth3 |
不支持 | 不支持 | 不支持 |
eastasia |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
eastus |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
eastus2 |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
francecentral |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
germanywestcentral |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
japaneast |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
japanwest |
不支持 | 不支持 | 不支持 |
koreacentral |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
mexicocentral |
不支持 | 不支持 | 不支持 |
northcentralus |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
northeurope |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
norwayeast |
不支持 | 不支持 | 不支持 |
qatarcentral |
不支持 | 不支持 | 不支持 |
southafricanorth |
不支持 | 不支持 | 不支持 |
southcentralus |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
southeastasia |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
southindia |
不支持 | 不支持 | 不支持 |
swedencentral |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
switzerlandnorth |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
switzerlandwest |
不支持 | 不支持 | 不支持 |
uaenorth |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
uksouth |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
ukwest |
不支持 | 不支持 | 不支持 |
westcentralus |
不支持 | 不支持 | 不支持 |
westeurope |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
westindia |
不支持 | 不支持 | 不支持 |
westus |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
westus2 |
支持以下模型: |
支持以下模型: |
支持以下模型系列:
支持的遗留模型系列:
|
westus3 |
不支持 | 不支持 | 不支持 |
* 基于 GPU 可用性支持此模型,需要 启用跨地域路由。
访问 Databricks 外部托管的基础模型
在 Databricks 上也可以使用外部模型访问 LLM 提供商(如 OpenAI 和 Anthropic)创建的基础模型。 这些模型托管在 Databricks 外部,你可以创建一个终结点来查询它们。 可以从 Azure Databricks 集中管理这些终结点,从而简化组织中各种 LLM 提供程序的使用和管理。
下表提供了一个包含支持的模型和相应端点类型的非详尽列表 。 可以使用列出的模型关联来帮助你为任何新发布的模型类型配置终结点,前提是这些模型在给定的提供商处可用。 客户有责任确保遵循适用的模型许可证。
注释
随着 LLM 的快速发展,不能保证此列表随时处于最新状态。 通常支持来自同一提供程序的新模型版本,即使它们不在列表中也是如此。
模型提供商 | llm/v1/补全 | llm/v1/chat | llm/v1/嵌入 |
---|---|---|---|
OpenAI** |
|
|
|
Azure OpenAI** |
|
|
|
人类 |
|
|
|
Cohere** |
|
|
|
Mosaic AI 模型服务 | Databricks 服务终结点 | Databricks 服务终结点 | Databricks 服务终结点 |
Amazon Bedrock | Anthropic:
Cohere:
AI21 实验室:
|
Anthropic:
Cohere:
亚马逊河:
|
亚马逊河:
Cohere:
|
AI21 实验室† |
|
||
Google Cloud 顶点 AI | text-bison |
|
|
**
模型提供商支持经过微调的补全和聊天模型。 若要查询微调的模型,请使用优化模型的名称填充 name
配置的 external model
字段。
†
模型提供商支持自定义补全模型。
创建基础模型服务终结点
若要在 AI 应用程序中查询和使用基础模型,必须先创建提供终结点的模型。 模型服务使用统一的 API 和 UI 来创建和更新基础模型服务终结点。
- 若要创建一个终结点来服务使用基础模型 API 预配吞吐量提供的基础模型的微调变体,请参阅使用 REST API 创建预配吞吐量终结点。
- 若要创建访问通过外部模型提供的基础模型的服务端点,请参阅 创建一个外部模型服务端点。
查询基础模型服务终结点
创建服务终结点后,可以查询基础模型。 模型服务使用与 OpenAI 兼容的统一 API 和 SDK 来查询基础模型。 这种统一体验简化了跨受支持云和提供商进行试验和自定义生产的基础模型的方式。
请参阅使用基础模型。