Partilhar via


Modelos em destaque do catálogo de modelos de IA do Azure

O catálogo de modelos de IA do Azure oferece uma grande seleção de modelos de uma ampla gama de provedores. Você tem várias opções para implantar modelos do catálogo. Este artigo lista os modelos em destaque no catálogo de modelos que podem ser implantados e hospedados nos servidores da Microsoft por meio de implantações padrão. Para alguns desses modelos, você também pode hospedá-los em sua infraestrutura para implantação por meio de computação gerenciada. Consulte Modelos disponíveis para opções de implantação suportadas para localizar modelos no catálogo que estão disponíveis para implantação por meio de computação gerenciada ou implantação padrão.

Para realizar inferências com os modelos, alguns modelos, como o TimeGEN-1 da Nixtla e a reclassificação Cohere , exigem que você use APIs personalizadas dos provedores de modelos. Outros oferecem suporte à inferência usando a inferência do modelo de IA do Azure. Você pode encontrar mais detalhes sobre modelos individuais examinando seus cartões de modelo no catálogo de modelos do Azure AI.

Uma animação mostrando a seção do catálogo de modelos do Azure AI Foundry e os modelos disponíveis.

Laboratórios AI21

Os modelos da família Jamba são o modelo de linguagem de grande escala (LLM) baseado em Mamba, em nível de produção, do AI21, que usa a arquitetura híbrida Mamba-Transformer do AI21. É uma versão afinada para instruções do modelo híbrido de transformador de espaço de estado estruturado (SSM) Jamba da AI21. Os modelos da família Jamba são construídos para uso comercial confiável em relação à qualidade e desempenho.

Modelo Tipo Capacidades
AI21-Jamba-1.5-Mini conclusão do bate-papo - Entrada: texto (262.144 tokens)
- Saída: texto (4,096 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto, JSON, saídas estruturadas
AI21-Jamba-1.5-Grande conclusão do bate-papo - Entrada: texto (262.144 tokens)
- Saída: texto (4,096 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto, JSON, saídas estruturadas

Consulte esta coleção de modelos no catálogo de modelos do Azure AI.

Azure OpenAI

O Azure OpenAI no Azure AI Foundry Models oferece um conjunto diversificado de modelos com diferentes capacidades e preços. Estes modelos incluem:

  • Modelos de última geração projetados para lidar com tarefas de raciocínio e resolução de problemas com maior foco e capacidade
  • Modelos que podem compreender e gerar linguagem natural e código
  • Modelos que podem transcrever e traduzir fala para texto
Modelo Tipo Capacidades
O3-Mini conclusão do bate-papo - Entrada: texto e imagem (200.000 tokens)
- Saída: texto (100.000 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto, JSON, saídas estruturadas
o1 conclusão do chat (com imagens) - Entrada: texto e imagem (200.000 tokens)
- Saída: texto (100.000 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto, JSON, saídas estruturadas
o1-pré-visualização conclusão do bate-papo - Entrada: texto (128.000 tokens)
- Saída: texto (32,768 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto, JSON, saídas estruturadas
o1-mini conclusão do bate-papo - Entrada: texto (128.000 tokens)
- Saída: texto (65,536 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
gpt-4o real-time preview tempo real - Entrada: controle, texto e áudio (131,072 tokens)
- Saída: texto e áudio (16 384 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto, JSON
GPT-4O conclusão de chat (com conteúdo de imagem e áudio) - Entrada: texto, imagem e áudio (131.072 tokens)
- Saída: texto (16,384 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto, JSON, saídas estruturadas
GPT-4O-Mini conclusão de chat (com conteúdo de imagem e áudio) - Entrada: texto, imagem e áudio (131.072 tokens)
- Saída: texto (16,384 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto, JSON, saídas estruturadas
incorporação de texto-3-grande incorporações - Entrada: texto (8.191 tokens)
- Saída: Vetor (3,072 dim.)
incorporação de texto-3-pequeno incorporações - Entrada: texto (8.191 tokens)
- Saída: Vetor (1,536 dim.)

Consulte esta coleção de modelos no catálogo de modelos do Azure AI.

Cohere

A família de modelos Cohere inclui vários modelos otimizados para diferentes casos de uso, incluindo reclassificação, conclusão de bate-papo e modelos de incorporação.

Cohere comando e incorporar

A tabela a seguir lista os modelos Cohere que você pode inferir por meio da Inferência do modelo de IA do Azure.

Modelo Tipo Capacidades
Cohere-comando-A conclusão do bate-papo - Entrada: texto (256.000 tokens)
- Saída: texto (8.000 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto
Cohere-comando-r-plus-08-2024 conclusão do bate-papo - Entrada: texto (131.072 tokens)
- Saída: texto (4,096 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto, JSON
Cohere-comando-r-08-2024 conclusão do bate-papo - Entrada: texto (131.072 tokens)
- Saída: texto (4,096 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto, JSON
Cohere-command-r-plus
(preterido)
conclusão do bate-papo - Entrada: texto (131.072 tokens)
- Saída: texto (4,096 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto, JSON
Cohere-command-r
(preterido)
conclusão do bate-papo - Entrada: texto (131.072 tokens)
- Saída: texto (4,096 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto, JSON
Cohere-embed-4 incorporações
Incorporação de imagens
- Entrada: imagem, texto
- Saída: imagem, texto (128.000 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: imagem, texto
Cohere-embed-v3-English incorporações
Incorporação de imagens
- Entrada: texto (512 tokens)
- Saída: Vetor (1.024 dim.)
Cohere-embed-v3-multilíngue incorporações
Incorporação de imagens
- Entrada: texto (512 tokens)
- Saída: Vetor (1.024 dim.)

Exemplos de inferência: comando Cohere e embed

Para obter mais exemplos de como usar modelos Cohere, consulte os seguintes exemplos:

Descrição Idioma Exemplo
Pedidos Web Bash Comando-RCommand-R+
cohere-embed.ipynb
Pacote de inferência do Azure AI para C# C# Ligação
Pacote Azure AI Inference para JavaScript Javascript Ligação
Pacote de inferência do Azure AI para Python Python Ligação
OpenAI SDK (experimental) Python Ligação
LangChain Python Ligação
Cohere SDK Python Comando
Incorporar
LiteLLM SDK Python Ligação

Exemplos de Geração Aprimorada por Recuperação (RAG) e uso de ferramentas: comando Cohere e inserção

Descrição Pacotes Exemplo
Crie um índice vetorial local de pesquisa de semelhança da IA do Facebook (FAISS), usando os embeddings da Cohere - Langchain langchain, langchain_cohere cohere_faiss_langchain_embed.ipynb
Use o comando Cohere R/R+ para responder a perguntas de dados no índice vetorial FAISS local - Langchain langchain, langchain_cohere command_faiss_langchain.ipynb
Use o comando Cohere R/R+ para responder a perguntas de dados no índice vetorial de pesquisa de IA - Langchain langchain, langchain_cohere cohere-aisearch-langchain-rag.ipynb
Use o Cohere Command R/R+ para responder a perguntas de dados no índice de vetores de pesquisa de IA - Cohere SDK cohere, azure_search_documents cohere-aisearch-rag.ipynb
Chamada de ferramenta/função Command R+, usando LangChain cohere, langchain, langchain_cohere command_tools-langchain.ipynb

Reclassificação de Cohere

A tabela a seguir lista os modelos de reclassificação Cohere. Para executar a inferência com esses modelos de reclassificação, é necessário usar as APIs de reclassificação personalizadas da Cohere listadas na tabela.

Modelo Tipo API de inferência
Cohere-rerank-v3.5 reclassificação
classificação de texto
API de v2/rerank da Cohere
Cohere-rerank-v3-inglês
(preterido)
reclassificação
classificação de texto
API de v2/rerank da Cohere
API da Cohere v1/rerank
Cohere-rerank-v3-multilingue
(preterido)
reclassificação
classificação de texto
API de v2/rerank da Cohere
API da Cohere v1/rerank

Preços de modelos de reclassificação da Cohere

Consultas, não deve ser confundido com uma consulta de um utilizador, refere-se a um indicador de preços que está relacionado com o custo dos tokens usados como entrada para a inferência de um modelo Cohere Rerank. Cohere conta uma única unidade de pesquisa como uma consulta com até 100 documentos a serem classificados. Documentos com mais de 500 tokens (para Cohere-rerank-v3.5) ou mais de 4096 tokens (para Cohere-rerank-v3-English e Cohere-rerank-v3-multilingual) ao incluir o comprimento da consulta de pesquisa são divididos em vários blocos, onde cada bloco conta como um único documento.

Consulte a coleção de modelos Cohere no catálogo de modelos do Azure AI.

Core42

O Core42 inclui LLMs autorregressivos bilíngues para árabe e inglês com capacidades de última geração em árabe.

Modelo Tipo Capacidades
jais-30b-chat conclusão do bate-papo - Entrada: texto (8.192 tokens)
- Saída: texto (4,096 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto, JSON

Consulte esta coleção de modelos no catálogo de modelos do Azure AI.

Exemplos de inferência: Core42

Para obter mais exemplos de como usar modelos Jais, consulte os seguintes exemplos:

Descrição Idioma Exemplo
Pacote de inferência do Azure AI para C# C# Ligação
Pacote Azure AI Inference para JavaScript Javascript Ligação
Pacote de inferência do Azure AI para Python Python Ligação

DeepSeek

A família de modelos DeepSeek inclui o DeepSeek-R1, que se destaca em tarefas de raciocínio usando um processo de treinamento passo a passo, como linguagem, raciocínio científico e tarefas de codificação, DeepSeek-V3-0324, um modelo de linguagem Mix-of-Experts (MoE) e muito mais.

Modelo Tipo Capacidades
DeekSeek-V3-0324 conclusão do bate-papo - Entrada: texto (131.072 tokens)
- Saída: (131.072 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto, JSON
DeepSeek-V3
(Legado)
conclusão do bate-papo - Entrada: texto (131.072 tokens)
- Saída: texto (131,072 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto, JSON
DeepSeek-R1 finalização do bate-papo com conteúdo de raciocínio - Entrada: texto (163.840 tokens)
- Saída: texto (163.840 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto.

Para obter um tutorial sobre o DeepSeek-R1, consulte Tutorial: Introdução ao modelo de raciocínio DeepSeek-R1 na inferência de modelo de IA do Azure.

Consulte esta coleção de modelos no catálogo de modelos do Azure AI.

Exemplos de inferência: DeepSeek

Para obter mais exemplos de como usar modelos DeepSeek, consulte os seguintes exemplos:

Descrição Idioma Exemplo
Pacote de inferência do Azure AI para Python Python Ligação
Pacote Azure AI Inference para JavaScript Javascript Ligação
Pacote de inferência do Azure AI para C# C# Ligação
Pacote Azure AI Inference para Java Java Ligação

Meta

Os modelos e ferramentas Meta Llama são uma coleção de modelos de raciocínio generativo de texto e imagem de IA pré-treinados e ajustados. A gama de metamodelos é dimensionada para incluir:

  • Modelos de linguagem reduzidos (SLMs), como os modelos Base e Instrução 1B e 3B para inferência em dispositivos e na periferia
  • Modelos de linguagem de grande porte médio (LLMs) como os modelos 7B, 8B e 70B Base e Instruct
  • Modelos de alto desempenho, como o Meta Llama 3.1-405B Instruct, para geração de dados sintéticos e aplicações de destilação.
  • Modelos multimodais nativos de alto desempenho, Llama 4 Scout e Llama 4 Maverick, aproveitam uma arquitetura mista de especialistas para oferecer desempenho líder do setor em compreensão de texto e imagem.
Modelo Tipo Capacidades
Llama-4-Scout-17B-16E-Instruct conclusão do bate-papo - Entrada: texto e imagem (128.000 tokens)
- Saída: texto (8,192 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto
Lama 4-Maverick-17B-128E-Instrução-FP8 conclusão do bate-papo - Entrada: texto e imagem (128.000 tokens)
- Saída: texto (8,192 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto
Llama-3.3-70B-Instruct conclusão do bate-papo - Entrada: texto (128.000 tokens)
- Saída: texto (8,192 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Llama-3.2-90B-Visão-Instruções conclusão do chat (com imagens) - Entrada: texto e imagem (128.000 tokens)
- Saída: texto (8,192 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Llama-3.2-11B-Vision-Instruções conclusão do chat (com imagens) - Entrada: texto e imagem (128.000 tokens)
- Saída: texto (8,192 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Meta-Llama-3.1-8B-Instruct conclusão do bate-papo - Entrada: texto (131.072 tokens)
- Saída: texto (8,192 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Meta-Llama-3.1-405B-Instruct conclusão do bate-papo - Entrada: texto (131.072 tokens)
- Saída: texto (8,192 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Meta-Llama-3.1-70B-Instruct (preterido) conclusão do bate-papo - Entrada: texto (131.072 tokens)
- Saída: texto (8,192 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Meta-Llama-3-8B-Instruct (preterido) conclusão do bate-papo - Entrada: texto (8.192 tokens)
- Saída: texto (8,192 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Meta-Llama-3-70B-Instruct (preterido) conclusão do bate-papo - Entrada: texto (8.192 tokens)
- Saída: texto (8,192 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto

Consulte esta coleção de modelos no catálogo de modelos do Azure AI.

Exemplos de inferência: Meta Llama

Para obter mais exemplos de como usar modelos Meta Llama, consulte os seguintes exemplos:

Descrição Idioma Exemplo
Solicitação CURL Bash Ligação
Pacote de inferência do Azure AI para C# C# Ligação
Pacote Azure AI Inference para JavaScript Javascript Ligação
Pacote de inferência do Azure AI para Python Python Ligação
Solicitações da Web Python Python Ligação
OpenAI SDK (experimental) Python Ligação
LangChain Python Ligação
LiteLLM Python Ligação

Microsoft

Os modelos da Microsoft incluem vários grupos de modelos, como modelos MAI, modelos Phi, modelos de IA para cuidados de saúde e muito mais. Para ver todos os modelos Microsoft disponíveis, veja a coleção de modelos da Microsoft no portal do Azure AI Foundry.

Modelo Tipo Capacidades
MAI-DS-R1 finalização do bate-papo com conteúdo de raciocínio - Entrada: texto (163.840 tokens)
- Saída: texto (163.840 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto.
Phi-4-raciocínio finalização do bate-papo com conteúdo de raciocínio - Entrada: texto (32768 tokens)
- Saída: texto (32768 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-4-mini-raciocínio finalização do bate-papo com conteúdo de raciocínio - Entrada: texto (128.000 tokens)
- Saída: texto (128 000 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-4-multimodal-instrutor conclusão de chat (com conteúdo de imagem e áudio) - Entrada: texto, imagens e áudio (131,072 tokens)
- Saída: texto (4,096 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-4-mini-instruções conclusão do bate-papo - Entrada: texto (131.072 tokens)
- Saída: texto (4,096 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-4 conclusão do bate-papo - Entrada: texto (16.384 unidades)
- Saída: texto (16,384 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-3.5-mini-instruction conclusão do bate-papo - Entrada: texto (131.072 tokens)
- Saída: texto (4,096 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-3.5-MoE-instruir conclusão do bate-papo - Entrada: texto (131.072 tokens)
- Saída: texto (4,096 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-3.5-visão-instruir conclusão do chat (com imagens) - Entrada: texto e imagem (131.072 tokens)
- Saída: texto (4,096 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-3-mini-128k-instruir conclusão do bate-papo - Entrada: texto (131.072 tokens)
- Saída: texto (4,096 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-3-mini-4k-instruct conclusão do bate-papo - Entrada: texto (4.096 tokens)
- Saída: texto (4,096 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-3-small-128k-instruct conclusão do bate-papo - Entrada: texto (131.072 tokens)
- Saída: texto (4,096 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-3-small-8k-instruir conclusão do bate-papo - Entrada: texto (131.072 tokens)
- Saída: texto (4,096 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-3-medium-128k-instruct conclusão do bate-papo - Entrada: texto (131.072 tokens)
- Saída: texto (4,096 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-3-medium-4k-instruct conclusão do bate-papo - Entrada: texto (4.096 tokens)
- Saída: texto (4,096 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto

Exemplos de inferência: modelos Microsoft

Para obter mais exemplos de como usar modelos da Microsoft, consulte os seguintes exemplos:

Descrição Idioma Exemplo
Pacote de inferência do Azure AI para C# C# Ligação
Pacote Azure AI Inference para JavaScript Javascript Ligação
Pacote de inferência do Azure AI para Python Python Ligação
LangChain Python Ligação
Llama-Index Python Ligação

Consulte a coleção de modelos da Microsoft no catálogo de modelos do Azure AI.

Mistral IA

Mistral AI oferece duas categorias de modelos, a saber:

  • Modelos premium: Estes incluem os modelos Mistral Large, Mistral Small, Mistral-OCR-2503, Mistral Medium 3 (25.05) e Ministral 3B, e estão disponíveis como APIs sem servidor com faturação baseada em tokens pay-as-you-go.
  • Modelos abertos: Estes incluem Mistral-small-2503, Codestral e Mistral Nemo (que estão disponíveis como APIs sem servidor com faturamento baseado em token pré-pago) e Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 e Mistral-7B-v01 (que estão disponíveis para download e execução em endpoints gerenciados auto-hospedados).
Modelo Tipo Capacidades
Codestral-2501 conclusão do bate-papo - Entrada: texto (262.144 tokens)
- Saída: texto (4,096 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Ministral-3B conclusão do bate-papo - Entrada: texto (131.072 tokens)
- Saída: texto (4,096 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto, JSON
Mistral-Nemo conclusão do bate-papo - Entrada: texto (131.072 tokens)
- Saída: texto (4,096 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto, JSON
Mistral-Grande-2411 conclusão do bate-papo - Entrada: texto (128.000 tokens)
- Saída: texto (4,096 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto, JSON
Mistral-grande-2407
(preterido)
conclusão do bate-papo - Entrada: texto (131.072 tokens)
- Saída: texto (4,096 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto, JSON
Mistral-Large
(preterido)
conclusão do bate-papo - Entrada: texto (32.768 símbolos)
- Saída: texto (4,096 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto, JSON
Mistral-médio-2505 conclusão do bate-papo - Entrada: texto (128.000 tokens), imagem
- Saída: texto (128 000 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto, JSON
Mistral-OCR-2503 imagem para texto - Entrada: imagem ou páginas PDF (1.000 páginas, máximo de 50MB de arquivo PDF)
- Saída: texto
- Chamada de ferramenta: Não
- Formatos de resposta: Texto, JSON, Markdown
Mistral-pequeno-2503 conclusão do chat (com imagens) - Entrada: texto e imagens (131.072 tokens),
Os tokens baseados em imagem são 16px x 16px
blocos das imagens originais
- Saída: texto (4,096 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto, JSON
Mistral-pequeno conclusão do bate-papo - Entrada: texto (32.768 símbolos)
- Saída: texto (4,096 tokens)
- Ativação da ferramenta: Sim
- Formatos de resposta: Texto, JSON

Consulte esta coleção de modelos no catálogo de modelos do Azure AI.

Exemplos de inferência: Mistral

Para obter mais exemplos de como usar modelos Mistral, consulte os seguintes exemplos e tutoriais:

Descrição Idioma Exemplo
Solicitação CURL Bash Ligação
Pacote de inferência do Azure AI para C# C# Ligação
Pacote Azure AI Inference para JavaScript Javascript Ligação
Pacote de inferência do Azure AI para Python Python Ligação
Solicitações da Web Python Python Ligação
OpenAI SDK (experimental) Python Mistral - Exemplo do OpenAI SDK
LangChain Python Mistral - Amostra de LangChain
Mistral IA Python Mistral - Exemplar do Mistral AI
LiteLLM Python Mistral - Amostra de LiteLLM

Nixtla

O TimeGEN-1 da Nixtla é um modelo generativo de previsão e deteção de anomalias pré-treinado para dados de séries temporais. O TimeGEN-1 pode produzir previsões precisas para novas séries temporais sem treinamento, usando apenas valores históricos e covariáveis exógenas como entradas.

Para executar a inferência, o TimeGEN-1 requer que você use a API de inferência personalizada do Nixtla.

Modelo Tipo Capacidades API de inferência
TimeGEN-1 Previsão - Entrada: Dados de séries temporais como JSON ou dataframes (com suporte para entrada multivariada)
- Saída: Dados de séries cronológicas como JSON
- Chamada de ferramenta: Não
- Formatos de resposta: JSON
Cliente de previsão para interagir com a API da Nixtla

Estimar o número de tokens necessários

Antes de criar uma implementação do TimeGEN-1, é útil estimar o número de tokens que se planeia consumir e pelos quais será cobrado. Um token corresponde a um ponto de dados em seu conjunto de dados de entrada ou conjunto de dados de saída.

Suponha que você tenha o seguinte conjunto de dados de série temporal de entrada:

Identificador_único Data e Hora Variável de destino Variável Exógena 1 Variável Exógena 2
BE 2016-10-22 00:00:00 70.00 49593.0 57253,0
BE 2016-10-22 01:00:00 37.10 46 073,0 51887,0

Para determinar o número de tokens, multiplique o número de linhas (neste exemplo, duas) e o número de colunas usadas para previsão, sem contar as colunas de unique_id e carimbo de data/hora (neste exemplo, três) para obter um total de seis tokens.

Dado o seguinte conjunto de dados de saída:

Identificador_único Data e Hora Variável de Alvo Prevista
BE 2016-10-22 02:00:00 46.57
BE 2016-10-22 03:00:00 48.57

Você também pode determinar o número de tokens contando o número de pontos de dados retornados após a previsão de dados. Neste exemplo, o número de tokens é dois.

Estimar preços com base em tokens

Existem quatro medidores de preços que determinam o preço que você paga. Estes medidores são os seguintes:

Medidor de Preços Descrição
tokens de entrada de inferência paygo Custos associados aos tokens usados como entrada para inferência quando finetune_steps = 0
Tokens de Saída de Inferência PAYGO Custos associados aos tokens usados como saída para inferência quando finetune_steps = 0
modelo-ajustado-paygo-inferência-fichas-de-entrada Custos associados aos tokens usados como entrada para inferência quando finetune_steps> 0
modelo-finetuned-paygo-output-tokens de inferência Custos associados aos tokens usados como saída para inferência quando finetune_steps> 0

Consulte a coleção de modelos Nixtla no catálogo de modelos do Azure AI.

NTT DATA

Tsuzumi é um transformador de linguagem otimizado para autorregressiva. As versões ajustadas utilizam o ajuste fino supervisionado (SFT). tsuzumi lida com os idiomas japonês e inglês com alta eficiência.

Modelo Tipo Capacidades
Tsuzumi-7B conclusão do bate-papo - Entrada: texto (8.192 tokens)
- Saída: texto (8,192 tokens)
- Chamada de ferramenta: Não
- Formatos de resposta: Texto

IA de estabilidade

A coleção Stability AI de modelos de geração de imagem inclui Stable Image Core, Stable Image Ultra e Stable Diffusion 3.5 Large. Stable Diffusion 3.5 Large permite uma entrada de imagem e texto.

Modelo Tipo Capacidades
Stable Diffusion 3.5 Grande Geração de imagens - Entrada: texto e imagem (1000 tokens e 1 imagem)
- Saída: uma imagem
- Chamada de ferramenta: Não
- Formatos de resposta: Imagem (PNG e JPG)
Núcleo de imagem estável Geração de imagens - Entrada: texto (1000 caracteres)
- Saída: uma imagem
- Chamada de ferramenta: Não
- Formatos de resposta: Imagem (PNG e JPG)
Imagem Estável Ultra Geração de imagens - Entrada: texto (1000 caracteres)
- Saída: uma imagem
- Chamada de ferramenta: Não
- Formatos de resposta: Imagem (PNG e JPG)

Exemplos de inferência: Stability AI

Os modelos de IA de estabilidade implantados em implantações padrão implementam a API de inferência de modelo de IA do Azure na rota /image/generations. Para obter exemplos de como usar modelos de IA de estabilidade, consulte os seguintes exemplos: