Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
O catálogo de modelos de IA do Azure oferece uma grande seleção de modelos de uma ampla gama de provedores. Você tem várias opções para implantar modelos do catálogo. Este artigo lista os modelos em destaque no catálogo de modelos que podem ser implantados e hospedados nos servidores da Microsoft por meio de implantações padrão. Para alguns desses modelos, você também pode hospedá-los em sua infraestrutura para implantação por meio de computação gerenciada. Consulte Modelos disponíveis para opções de implantação suportadas para localizar modelos no catálogo que estão disponíveis para implantação por meio de computação gerenciada ou implantação padrão.
Para realizar inferências com os modelos, alguns modelos, como o TimeGEN-1 da Nixtla e a reclassificação Cohere , exigem que você use APIs personalizadas dos provedores de modelos. Outros oferecem suporte à inferência usando a inferência do modelo de IA do Azure. Você pode encontrar mais detalhes sobre modelos individuais examinando seus cartões de modelo no catálogo de modelos do Azure AI.
Laboratórios AI21
Os modelos da família Jamba são o modelo de linguagem de grande escala (LLM) baseado em Mamba, em nível de produção, do AI21, que usa a arquitetura híbrida Mamba-Transformer do AI21. É uma versão afinada para instruções do modelo híbrido de transformador de espaço de estado estruturado (SSM) Jamba da AI21. Os modelos da família Jamba são construídos para uso comercial confiável em relação à qualidade e desempenho.
Modelo | Tipo | Capacidades |
---|---|---|
AI21-Jamba-1.5-Mini | conclusão do bate-papo |
-
Entrada: texto (262.144 tokens) - Saída: texto (4,096 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto, JSON, saídas estruturadas |
AI21-Jamba-1.5-Grande | conclusão do bate-papo |
-
Entrada: texto (262.144 tokens) - Saída: texto (4,096 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto, JSON, saídas estruturadas |
Consulte esta coleção de modelos no catálogo de modelos do Azure AI.
Azure OpenAI
O Azure OpenAI no Azure AI Foundry Models oferece um conjunto diversificado de modelos com diferentes capacidades e preços. Estes modelos incluem:
- Modelos de última geração projetados para lidar com tarefas de raciocínio e resolução de problemas com maior foco e capacidade
- Modelos que podem compreender e gerar linguagem natural e código
- Modelos que podem transcrever e traduzir fala para texto
Modelo | Tipo | Capacidades |
---|---|---|
O3-Mini | conclusão do bate-papo |
-
Entrada: texto e imagem (200.000 tokens) - Saída: texto (100.000 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto, JSON, saídas estruturadas |
o1 | conclusão do chat (com imagens) |
-
Entrada: texto e imagem (200.000 tokens) - Saída: texto (100.000 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto, JSON, saídas estruturadas |
o1-pré-visualização | conclusão do bate-papo |
-
Entrada: texto (128.000 tokens) - Saída: texto (32,768 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto, JSON, saídas estruturadas |
o1-mini | conclusão do bate-papo |
-
Entrada: texto (128.000 tokens) - Saída: texto (65,536 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
gpt-4o real-time preview | tempo real |
-
Entrada: controle, texto e áudio (131,072 tokens) - Saída: texto e áudio (16 384 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto, JSON |
GPT-4O | conclusão de chat (com conteúdo de imagem e áudio) |
-
Entrada: texto, imagem e áudio (131.072 tokens) - Saída: texto (16,384 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto, JSON, saídas estruturadas |
GPT-4O-Mini | conclusão de chat (com conteúdo de imagem e áudio) |
-
Entrada: texto, imagem e áudio (131.072 tokens) - Saída: texto (16,384 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto, JSON, saídas estruturadas |
incorporação de texto-3-grande | incorporações |
-
Entrada: texto (8.191 tokens) - Saída: Vetor (3,072 dim.) |
incorporação de texto-3-pequeno | incorporações |
-
Entrada: texto (8.191 tokens) - Saída: Vetor (1,536 dim.) |
Consulte esta coleção de modelos no catálogo de modelos do Azure AI.
Cohere
A família de modelos Cohere inclui vários modelos otimizados para diferentes casos de uso, incluindo reclassificação, conclusão de bate-papo e modelos de incorporação.
Cohere comando e incorporar
A tabela a seguir lista os modelos Cohere que você pode inferir por meio da Inferência do modelo de IA do Azure.
Modelo | Tipo | Capacidades |
---|---|---|
Cohere-comando-A | conclusão do bate-papo |
-
Entrada: texto (256.000 tokens) - Saída: texto (8.000 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto |
Cohere-comando-r-plus-08-2024 | conclusão do bate-papo |
-
Entrada: texto (131.072 tokens) - Saída: texto (4,096 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto, JSON |
Cohere-comando-r-08-2024 | conclusão do bate-papo |
-
Entrada: texto (131.072 tokens) - Saída: texto (4,096 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto, JSON |
Cohere-command-r-plus (preterido) |
conclusão do bate-papo |
-
Entrada: texto (131.072 tokens) - Saída: texto (4,096 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto, JSON |
Cohere-command-r (preterido) |
conclusão do bate-papo |
-
Entrada: texto (131.072 tokens) - Saída: texto (4,096 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto, JSON |
Cohere-embed-4 |
incorporações Incorporação de imagens |
-
Entrada: imagem, texto - Saída: imagem, texto (128.000 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: imagem, texto |
Cohere-embed-v3-English |
incorporações Incorporação de imagens |
-
Entrada: texto (512 tokens) - Saída: Vetor (1.024 dim.) |
Cohere-embed-v3-multilíngue |
incorporações Incorporação de imagens |
-
Entrada: texto (512 tokens) - Saída: Vetor (1.024 dim.) |
Exemplos de inferência: comando Cohere e embed
Para obter mais exemplos de como usar modelos Cohere, consulte os seguintes exemplos:
Descrição | Idioma | Exemplo |
---|---|---|
Pedidos Web | Bash |
Comando-RCommand-R+ cohere-embed.ipynb |
Pacote de inferência do Azure AI para C# | C# | Ligação |
Pacote Azure AI Inference para JavaScript | Javascript | Ligação |
Pacote de inferência do Azure AI para Python | Python | Ligação |
OpenAI SDK (experimental) | Python | Ligação |
LangChain | Python | Ligação |
Cohere SDK | Python |
Comando Incorporar |
LiteLLM SDK | Python | Ligação |
Exemplos de Geração Aprimorada por Recuperação (RAG) e uso de ferramentas: comando Cohere e inserção
Descrição | Pacotes | Exemplo |
---|---|---|
Crie um índice vetorial local de pesquisa de semelhança da IA do Facebook (FAISS), usando os embeddings da Cohere - Langchain |
langchain , langchain_cohere |
cohere_faiss_langchain_embed.ipynb |
Use o comando Cohere R/R+ para responder a perguntas de dados no índice vetorial FAISS local - Langchain |
langchain , langchain_cohere |
command_faiss_langchain.ipynb |
Use o comando Cohere R/R+ para responder a perguntas de dados no índice vetorial de pesquisa de IA - Langchain |
langchain , langchain_cohere |
cohere-aisearch-langchain-rag.ipynb |
Use o Cohere Command R/R+ para responder a perguntas de dados no índice de vetores de pesquisa de IA - Cohere SDK |
cohere , azure_search_documents |
cohere-aisearch-rag.ipynb |
Chamada de ferramenta/função Command R+, usando LangChain |
cohere , langchain , langchain_cohere |
command_tools-langchain.ipynb |
Reclassificação de Cohere
A tabela a seguir lista os modelos de reclassificação Cohere. Para executar a inferência com esses modelos de reclassificação, é necessário usar as APIs de reclassificação personalizadas da Cohere listadas na tabela.
Modelo | Tipo | API de inferência |
---|---|---|
Cohere-rerank-v3.5 | reclassificação classificação de texto |
API de v2/rerank da Cohere |
Cohere-rerank-v3-inglês (preterido) |
reclassificação classificação de texto |
API de v2/rerank da Cohere API da Cohere v1/rerank |
Cohere-rerank-v3-multilingue (preterido) |
reclassificação classificação de texto |
API de v2/rerank da Cohere API da Cohere v1/rerank |
Preços de modelos de reclassificação da Cohere
Consultas, não deve ser confundido com uma consulta de um utilizador, refere-se a um indicador de preços que está relacionado com o custo dos tokens usados como entrada para a inferência de um modelo Cohere Rerank. Cohere conta uma única unidade de pesquisa como uma consulta com até 100 documentos a serem classificados. Documentos com mais de 500 tokens (para Cohere-rerank-v3.5) ou mais de 4096 tokens (para Cohere-rerank-v3-English e Cohere-rerank-v3-multilingual) ao incluir o comprimento da consulta de pesquisa são divididos em vários blocos, onde cada bloco conta como um único documento.
Consulte a coleção de modelos Cohere no catálogo de modelos do Azure AI.
Core42
O Core42 inclui LLMs autorregressivos bilíngues para árabe e inglês com capacidades de última geração em árabe.
Modelo | Tipo | Capacidades |
---|---|---|
jais-30b-chat | conclusão do bate-papo |
-
Entrada: texto (8.192 tokens) - Saída: texto (4,096 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto, JSON |
Consulte esta coleção de modelos no catálogo de modelos do Azure AI.
Exemplos de inferência: Core42
Para obter mais exemplos de como usar modelos Jais, consulte os seguintes exemplos:
Descrição | Idioma | Exemplo |
---|---|---|
Pacote de inferência do Azure AI para C# | C# | Ligação |
Pacote Azure AI Inference para JavaScript | Javascript | Ligação |
Pacote de inferência do Azure AI para Python | Python | Ligação |
DeepSeek
A família de modelos DeepSeek inclui o DeepSeek-R1, que se destaca em tarefas de raciocínio usando um processo de treinamento passo a passo, como linguagem, raciocínio científico e tarefas de codificação, DeepSeek-V3-0324, um modelo de linguagem Mix-of-Experts (MoE) e muito mais.
Modelo | Tipo | Capacidades |
---|---|---|
DeekSeek-V3-0324 | conclusão do bate-papo |
-
Entrada: texto (131.072 tokens) - Saída: (131.072 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto, JSON |
DeepSeek-V3 (Legado) |
conclusão do bate-papo |
-
Entrada: texto (131.072 tokens) - Saída: texto (131,072 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto, JSON |
DeepSeek-R1 | finalização do bate-papo com conteúdo de raciocínio |
-
Entrada: texto (163.840 tokens) - Saída: texto (163.840 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto. |
Para obter um tutorial sobre o DeepSeek-R1, consulte Tutorial: Introdução ao modelo de raciocínio DeepSeek-R1 na inferência de modelo de IA do Azure.
Consulte esta coleção de modelos no catálogo de modelos do Azure AI.
Exemplos de inferência: DeepSeek
Para obter mais exemplos de como usar modelos DeepSeek, consulte os seguintes exemplos:
Descrição | Idioma | Exemplo |
---|---|---|
Pacote de inferência do Azure AI para Python | Python | Ligação |
Pacote Azure AI Inference para JavaScript | Javascript | Ligação |
Pacote de inferência do Azure AI para C# | C# | Ligação |
Pacote Azure AI Inference para Java | Java | Ligação |
Meta
Os modelos e ferramentas Meta Llama são uma coleção de modelos de raciocínio generativo de texto e imagem de IA pré-treinados e ajustados. A gama de metamodelos é dimensionada para incluir:
- Modelos de linguagem reduzidos (SLMs), como os modelos Base e Instrução 1B e 3B para inferência em dispositivos e na periferia
- Modelos de linguagem de grande porte médio (LLMs) como os modelos 7B, 8B e 70B Base e Instruct
- Modelos de alto desempenho, como o Meta Llama 3.1-405B Instruct, para geração de dados sintéticos e aplicações de destilação.
- Modelos multimodais nativos de alto desempenho, Llama 4 Scout e Llama 4 Maverick, aproveitam uma arquitetura mista de especialistas para oferecer desempenho líder do setor em compreensão de texto e imagem.
Modelo | Tipo | Capacidades |
---|---|---|
Llama-4-Scout-17B-16E-Instruct | conclusão do bate-papo |
-
Entrada: texto e imagem (128.000 tokens) - Saída: texto (8,192 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto |
Lama 4-Maverick-17B-128E-Instrução-FP8 | conclusão do bate-papo |
-
Entrada: texto e imagem (128.000 tokens) - Saída: texto (8,192 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto |
Llama-3.3-70B-Instruct | conclusão do bate-papo |
-
Entrada: texto (128.000 tokens) - Saída: texto (8,192 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Llama-3.2-90B-Visão-Instruções | conclusão do chat (com imagens) |
-
Entrada: texto e imagem (128.000 tokens) - Saída: texto (8,192 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Llama-3.2-11B-Vision-Instruções | conclusão do chat (com imagens) |
-
Entrada: texto e imagem (128.000 tokens) - Saída: texto (8,192 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Meta-Llama-3.1-8B-Instruct | conclusão do bate-papo |
-
Entrada: texto (131.072 tokens) - Saída: texto (8,192 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Meta-Llama-3.1-405B-Instruct | conclusão do bate-papo |
-
Entrada: texto (131.072 tokens) - Saída: texto (8,192 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Meta-Llama-3.1-70B-Instruct (preterido) | conclusão do bate-papo |
-
Entrada: texto (131.072 tokens) - Saída: texto (8,192 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Meta-Llama-3-8B-Instruct (preterido) | conclusão do bate-papo |
-
Entrada: texto (8.192 tokens) - Saída: texto (8,192 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Meta-Llama-3-70B-Instruct (preterido) | conclusão do bate-papo |
-
Entrada: texto (8.192 tokens) - Saída: texto (8,192 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Consulte esta coleção de modelos no catálogo de modelos do Azure AI.
Exemplos de inferência: Meta Llama
Para obter mais exemplos de como usar modelos Meta Llama, consulte os seguintes exemplos:
Descrição | Idioma | Exemplo |
---|---|---|
Solicitação CURL | Bash | Ligação |
Pacote de inferência do Azure AI para C# | C# | Ligação |
Pacote Azure AI Inference para JavaScript | Javascript | Ligação |
Pacote de inferência do Azure AI para Python | Python | Ligação |
Solicitações da Web Python | Python | Ligação |
OpenAI SDK (experimental) | Python | Ligação |
LangChain | Python | Ligação |
LiteLLM | Python | Ligação |
Microsoft
Os modelos da Microsoft incluem vários grupos de modelos, como modelos MAI, modelos Phi, modelos de IA para cuidados de saúde e muito mais. Para ver todos os modelos Microsoft disponíveis, veja a coleção de modelos da Microsoft no portal do Azure AI Foundry.
Modelo | Tipo | Capacidades |
---|---|---|
MAI-DS-R1 | finalização do bate-papo com conteúdo de raciocínio |
-
Entrada: texto (163.840 tokens) - Saída: texto (163.840 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto. |
Phi-4-raciocínio | finalização do bate-papo com conteúdo de raciocínio |
-
Entrada: texto (32768 tokens) - Saída: texto (32768 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-4-mini-raciocínio | finalização do bate-papo com conteúdo de raciocínio |
-
Entrada: texto (128.000 tokens) - Saída: texto (128 000 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-4-multimodal-instrutor | conclusão de chat (com conteúdo de imagem e áudio) |
-
Entrada: texto, imagens e áudio (131,072 tokens) - Saída: texto (4,096 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-4-mini-instruções | conclusão do bate-papo |
-
Entrada: texto (131.072 tokens) - Saída: texto (4,096 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-4 | conclusão do bate-papo |
-
Entrada: texto (16.384 unidades) - Saída: texto (16,384 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-3.5-mini-instruction | conclusão do bate-papo |
-
Entrada: texto (131.072 tokens) - Saída: texto (4,096 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-3.5-MoE-instruir | conclusão do bate-papo |
-
Entrada: texto (131.072 tokens) - Saída: texto (4,096 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-3.5-visão-instruir | conclusão do chat (com imagens) |
-
Entrada: texto e imagem (131.072 tokens) - Saída: texto (4,096 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-3-mini-128k-instruir | conclusão do bate-papo |
-
Entrada: texto (131.072 tokens) - Saída: texto (4,096 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-3-mini-4k-instruct | conclusão do bate-papo |
-
Entrada: texto (4.096 tokens) - Saída: texto (4,096 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-3-small-128k-instruct | conclusão do bate-papo |
-
Entrada: texto (131.072 tokens) - Saída: texto (4,096 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-3-small-8k-instruir | conclusão do bate-papo |
-
Entrada: texto (131.072 tokens) - Saída: texto (4,096 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-3-medium-128k-instruct | conclusão do bate-papo |
-
Entrada: texto (131.072 tokens) - Saída: texto (4,096 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-3-medium-4k-instruct | conclusão do bate-papo |
-
Entrada: texto (4.096 tokens) - Saída: texto (4,096 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Exemplos de inferência: modelos Microsoft
Para obter mais exemplos de como usar modelos da Microsoft, consulte os seguintes exemplos:
Descrição | Idioma | Exemplo |
---|---|---|
Pacote de inferência do Azure AI para C# | C# | Ligação |
Pacote Azure AI Inference para JavaScript | Javascript | Ligação |
Pacote de inferência do Azure AI para Python | Python | Ligação |
LangChain | Python | Ligação |
Llama-Index | Python | Ligação |
Consulte a coleção de modelos da Microsoft no catálogo de modelos do Azure AI.
Mistral IA
Mistral AI oferece duas categorias de modelos, a saber:
- Modelos premium: Estes incluem os modelos Mistral Large, Mistral Small, Mistral-OCR-2503, Mistral Medium 3 (25.05) e Ministral 3B, e estão disponíveis como APIs sem servidor com faturação baseada em tokens pay-as-you-go.
- Modelos abertos: Estes incluem Mistral-small-2503, Codestral e Mistral Nemo (que estão disponíveis como APIs sem servidor com faturamento baseado em token pré-pago) e Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 e Mistral-7B-v01 (que estão disponíveis para download e execução em endpoints gerenciados auto-hospedados).
Modelo | Tipo | Capacidades |
---|---|---|
Codestral-2501 | conclusão do bate-papo |
-
Entrada: texto (262.144 tokens) - Saída: texto (4,096 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Ministral-3B | conclusão do bate-papo |
-
Entrada: texto (131.072 tokens) - Saída: texto (4,096 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto, JSON |
Mistral-Nemo | conclusão do bate-papo |
-
Entrada: texto (131.072 tokens) - Saída: texto (4,096 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto, JSON |
Mistral-Grande-2411 | conclusão do bate-papo |
-
Entrada: texto (128.000 tokens) - Saída: texto (4,096 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto, JSON |
Mistral-grande-2407 (preterido) |
conclusão do bate-papo |
-
Entrada: texto (131.072 tokens) - Saída: texto (4,096 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto, JSON |
Mistral-Large (preterido) |
conclusão do bate-papo |
-
Entrada: texto (32.768 símbolos) - Saída: texto (4,096 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto, JSON |
Mistral-médio-2505 | conclusão do bate-papo |
-
Entrada: texto (128.000 tokens), imagem - Saída: texto (128 000 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto, JSON |
Mistral-OCR-2503 | imagem para texto |
-
Entrada: imagem ou páginas PDF (1.000 páginas, máximo de 50MB de arquivo PDF) - Saída: texto - Chamada de ferramenta: Não - Formatos de resposta: Texto, JSON, Markdown |
Mistral-pequeno-2503 | conclusão do chat (com imagens) |
-
Entrada: texto e imagens (131.072 tokens), Os tokens baseados em imagem são 16px x 16px blocos das imagens originais - Saída: texto (4,096 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto, JSON |
Mistral-pequeno | conclusão do bate-papo |
-
Entrada: texto (32.768 símbolos) - Saída: texto (4,096 tokens) - Ativação da ferramenta: Sim - Formatos de resposta: Texto, JSON |
Consulte esta coleção de modelos no catálogo de modelos do Azure AI.
Exemplos de inferência: Mistral
Para obter mais exemplos de como usar modelos Mistral, consulte os seguintes exemplos e tutoriais:
Descrição | Idioma | Exemplo |
---|---|---|
Solicitação CURL | Bash | Ligação |
Pacote de inferência do Azure AI para C# | C# | Ligação |
Pacote Azure AI Inference para JavaScript | Javascript | Ligação |
Pacote de inferência do Azure AI para Python | Python | Ligação |
Solicitações da Web Python | Python | Ligação |
OpenAI SDK (experimental) | Python | Mistral - Exemplo do OpenAI SDK |
LangChain | Python | Mistral - Amostra de LangChain |
Mistral IA | Python | Mistral - Exemplar do Mistral AI |
LiteLLM | Python | Mistral - Amostra de LiteLLM |
Nixtla
O TimeGEN-1 da Nixtla é um modelo generativo de previsão e deteção de anomalias pré-treinado para dados de séries temporais. O TimeGEN-1 pode produzir previsões precisas para novas séries temporais sem treinamento, usando apenas valores históricos e covariáveis exógenas como entradas.
Para executar a inferência, o TimeGEN-1 requer que você use a API de inferência personalizada do Nixtla.
Modelo | Tipo | Capacidades | API de inferência |
---|---|---|---|
TimeGEN-1 | Previsão |
-
Entrada: Dados de séries temporais como JSON ou dataframes (com suporte para entrada multivariada) - Saída: Dados de séries cronológicas como JSON - Chamada de ferramenta: Não - Formatos de resposta: JSON |
Cliente de previsão para interagir com a API da Nixtla |
Estimar o número de tokens necessários
Antes de criar uma implementação do TimeGEN-1, é útil estimar o número de tokens que se planeia consumir e pelos quais será cobrado. Um token corresponde a um ponto de dados em seu conjunto de dados de entrada ou conjunto de dados de saída.
Suponha que você tenha o seguinte conjunto de dados de série temporal de entrada:
Identificador_único | Data e Hora | Variável de destino | Variável Exógena 1 | Variável Exógena 2 |
---|---|---|---|---|
BE | 2016-10-22 00:00:00 | 70.00 | 49593.0 | 57253,0 |
BE | 2016-10-22 01:00:00 | 37.10 | 46 073,0 | 51887,0 |
Para determinar o número de tokens, multiplique o número de linhas (neste exemplo, duas) e o número de colunas usadas para previsão, sem contar as colunas de unique_id e carimbo de data/hora (neste exemplo, três) para obter um total de seis tokens.
Dado o seguinte conjunto de dados de saída:
Identificador_único | Data e Hora | Variável de Alvo Prevista |
---|---|---|
BE | 2016-10-22 02:00:00 | 46.57 |
BE | 2016-10-22 03:00:00 | 48.57 |
Você também pode determinar o número de tokens contando o número de pontos de dados retornados após a previsão de dados. Neste exemplo, o número de tokens é dois.
Estimar preços com base em tokens
Existem quatro medidores de preços que determinam o preço que você paga. Estes medidores são os seguintes:
Medidor de Preços | Descrição |
---|---|
tokens de entrada de inferência paygo | Custos associados aos tokens usados como entrada para inferência quando finetune_steps = 0 |
Tokens de Saída de Inferência PAYGO | Custos associados aos tokens usados como saída para inferência quando finetune_steps = 0 |
modelo-ajustado-paygo-inferência-fichas-de-entrada | Custos associados aos tokens usados como entrada para inferência quando finetune_steps> 0 |
modelo-finetuned-paygo-output-tokens de inferência | Custos associados aos tokens usados como saída para inferência quando finetune_steps> 0 |
Consulte a coleção de modelos Nixtla no catálogo de modelos do Azure AI.
NTT DATA
Tsuzumi é um transformador de linguagem otimizado para autorregressiva. As versões ajustadas utilizam o ajuste fino supervisionado (SFT). tsuzumi lida com os idiomas japonês e inglês com alta eficiência.
Modelo | Tipo | Capacidades |
---|---|---|
Tsuzumi-7B | conclusão do bate-papo |
-
Entrada: texto (8.192 tokens) - Saída: texto (8,192 tokens) - Chamada de ferramenta: Não - Formatos de resposta: Texto |
IA de estabilidade
A coleção Stability AI de modelos de geração de imagem inclui Stable Image Core, Stable Image Ultra e Stable Diffusion 3.5 Large. Stable Diffusion 3.5 Large permite uma entrada de imagem e texto.
Modelo | Tipo | Capacidades |
---|---|---|
Stable Diffusion 3.5 Grande | Geração de imagens |
-
Entrada: texto e imagem (1000 tokens e 1 imagem) - Saída: uma imagem - Chamada de ferramenta: Não - Formatos de resposta: Imagem (PNG e JPG) |
Núcleo de imagem estável | Geração de imagens |
-
Entrada: texto (1000 caracteres) - Saída: uma imagem - Chamada de ferramenta: Não - Formatos de resposta: Imagem (PNG e JPG) |
Imagem Estável Ultra | Geração de imagens |
-
Entrada: texto (1000 caracteres) - Saída: uma imagem - Chamada de ferramenta: Não - Formatos de resposta: Imagem (PNG e JPG) |
Exemplos de inferência: Stability AI
Os modelos de IA de estabilidade implantados em implantações padrão implementam a API de inferência de modelo de IA do Azure na rota /image/generations
.
Para obter exemplos de como usar modelos de IA de estabilidade, consulte os seguintes exemplos:
- Use o OpenAI SDK com modelos de IA de estabilidade para solicitações de texto para imagem
- Usar a biblioteca Requests com modelos da Stability AI para pedidos de conversão de texto em imagem
- Use a biblioteca Requests com o Stable Diffusion 3.5 Large para requisições de transformação de imagem para imagem
- Exemplo de uma resposta de geração de imagem totalmente codificada