Compartir a través de


Modelos de Azure AI Foundry disponibles para la implementación estándar

El catálogo de modelos de Azure AI ofrece una gran selección de modelos de Azure AI Foundry de una amplia gama de proveedores. Tiene varias opciones para implementar modelos desde el catálogo de modelos. En este artículo se enumeran los modelos de Azure AI Foundry que se pueden implementar a través de la implementación estándar. Para algunos de estos modelos, también puede hospedarlos en su infraestructura para su implementación a través de computación gestionada.

Importante

Los modelos que están en versión preliminar se marcan como versión preliminar en sus tarjetas de modelo en el catálogo de modelos.

Para realizar la inferencia con los modelos, algunos modelos como TimeGEN-1 de Nixtla y Cohere rerank requieren que use APIs personalizadas de los proveedores de modelos. Otros admiten la inferencia mediante foundry Models API. Puede encontrar más detalles sobre los modelos individuales revisando sus tarjetas de modelo en el catálogo de modelos para el portal de Azure AI Foundry.

Animación que muestra la sección catálogo de modelos de Azure AI Foundry y los modelos disponibles.

AI21 Labs

Los modelos de la familia Jamba son un modelo de lenguaje grande (LLM) basado en Mamba de nivel de producción de AI21, que aprovecha la arquitectura híbrida Mamba-Transformer de AI21. Es una versión optimizada para instrucciones del modelo de espacio de estado estructurado híbrido (SSM) de AI21. Los modelos de la familia Jamba se han creado para un uso comercial confiable con respecto a la calidad y el rendimiento.

Modelo Tipo Capacidades
AI21-Jamba-1.5-Mini finalización del chat - Entrada: Texto (262144 tokens)
- Salida: texto (4.096 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto, JSON, salidas estructuradas
AI21-Jamba-1.5-Large finalización del chat - Entrada: Texto (262144 tokens)
- Salida: texto (4.096 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto, JSON, salidas estructuradas

Consulte esta colección de modelos en el Portal de la Fundición de IA de Azure.

Azure OpenAI

Azure OpenAI en Foundry Models ofrece un conjunto diverso de modelos con diferentes funcionalidades y puntos de precio. Estos modelos incluyen lo siguiente:

  • Los modelos de última generación están diseñados para abordar tareas de razonamiento y resolución de problemas con un mayor foco y capacidad
  • Modelos que pueden entender y generar lenguaje natural y código
  • Modelos pueden transcribir y traducir la conversión de voz en texto
Modelo Tipo Capacidades
o3-mini finalización del chat - Entrada: Texto e imagen (200 000 tokens)
- Salida: Texto (100000 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto, JSON, salidas estructuradas
o1 finalización del chat (con imágenes) - Entrada: Texto e imagen (200 000 tokens)
- Salida: Texto (100000 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto, JSON, salidas estructuradas
o1-preview finalización del chat - Entrada: Texto (128000 tokens)
- Salida: texto (32 768 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto, JSON, salidas estructuradas
o1-mini finalización del chat - Entrada: Texto (128000 tokens)
- Salida: texto (65 536 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
gpt-4o-realtime-preview en tiempo real - Entrada: Control, texto y audio (131 072 tokens)
- Salida: Texto y audio (16 384 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto, JSON
gpt-4o finalización del chat (con contenido de imagen y audio) - Entrada: Texto, imagen y audio (131 072 tokens)
- Salida: Texto (16,384 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto, JSON, salidas estructuradas
gpt-4o-mini finalización del chat (con contenido de imagen y audio) - Entrada: Texto, imagen y audio (131 072 tokens)
- Salida: Texto (16,384 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto, JSON, salidas estructuradas
text-embedding-3-large incrustaciones - Entrada: Texto (8191 tokens)
- Salida: Vector (3072 dim.)
Text-Embedding-3-Small incrustaciones - Entrada: Texto (8191 tokens)
- Salida: Vector (1536 dim.)

Consulte esta colección de modelos en el Portal de la Fundición de IA de Azure.

Cohere

La familia de modelos de Cohere incluye varios modelos optimizados para distintos casos de uso, como los de reclasificación, finalizaciones de chat y modelos de inserciones.

Comando e inserción de Cohere

En la tabla siguiente se enumeran los modelos de Cohere que puede deducir a través de foundry Models API.

Modelo Tipo Capacidades
Cohere-command-A finalización del chat - Entrada: texto (256 000 tokens)
- Salida: texto (8000 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto
Cohere-command-r-plus-08-2024 finalización del chat - Entrada: Texto (131 072 tokens)
- Salida: texto (4.096 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto, JSON
Cohere-command-r-08-2024 finalización del chat - Entrada: Texto (131 072 tokens)
- Salida: texto (4.096 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto, JSON
Cohere-command-r-plus
(en desuso)
finalización del chat - Entrada: Texto (131 072 tokens)
- Salida: texto (4.096 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto, JSON
Cohere-command-r
(en desuso)
finalización del chat - Entrada: Texto (131 072 tokens)
- Salida: texto (4.096 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto, JSON
Cohere-embed-4 incrustaciones
image-embeddings
- Entrada: imagen, texto
- Salida: imagen, texto (128 000 tokens)
- Activación de herramientas:
- Formatos de respuesta: imagen, texto
Cohere-embed-v3-english incrustaciones
image-embeddings
- Entrada: Texto (512 tokens)
- Salida: Vector (1024 dim.)
Cohere-embed-v3-multilingüe incrustaciones
image-embeddings
- Entrada: Texto (512 tokens)
- Salida: Vector (1024 dim.)

Ejemplos de inferencia: Cohere Command y Embed

Para obtener más ejemplos de cómo usar modelos de Cohere, consulte los ejemplos siguientes:

Descripción Lenguaje Ejemplo
Solicitudes Web Bash Command-RCommand-R+
cohere-embed.ipynb
Paquete de inferencia de Azure AI para C# C# Vínculo
Paquete de inferencia de Azure AI para JavaScript JavaScript Vínculo
Paquete de inferencia de Azure AI para Python Pitón Vínculo
SDK de OpenAI (experimental) Pitón Vínculo
LangChain Pitón Vínculo
SDK de Cohere Pitón Comando
Insertar
SDK de LiteLLM Pitón Vínculo

Generación aumentada de recuperación (RAG) y ejemplos de uso de herramientas: comando e inserción de Cohere

Descripción Paquetes Ejemplo
Creación de un índice de vectores de búsqueda de similitud de IA de Facebook local (FAISS), mediante inserciones de Cohere: Langchain langchain, langchain_cohere cohere_faiss_langchain_embed.ipynb
Uso de Cohere Command R/R+ para responder preguntas de datos en el índice de vectores de FAISS local: Langchain langchain, langchain_cohere command_faiss_langchain.ipynb
Uso de Cohere Command R/R+ para responder preguntas de datos en el índice de vectores de búsqueda de IA: Langchain langchain, langchain_cohere cohere-aisearch-langchain-rag.ipynb
Uso de Cohere Command R/R+ para responder preguntas de datos en el índice de vectores de búsqueda de IA: SDK de Cohere cohere, azure_search_documents cohere-aisearch-rag.ipynb
Llamada a herramientas o funciones de Command R+, mediante LangChain cohere, , langchain, langchain_cohere command_tools-langchain.ipynb

Reclasificación de Cohere

En la tabla siguiente se enumeran los modelos de rerank de Cohere. Para realizar la inferencia con estos modelos de reordenamiento, es necesario usar las APIs de reordenamiento personalizadas de Cohere que se muestran en la tabla.

Modelo Tipo API de inferencia
Cohere-rerank-v3.5 Reclasificación
clasificación de texto
API v2/rerank de Cohere
Cohere-rerank-v3-english
(en desuso)
Reclasificación
clasificación de texto
API v2/rerank de Cohere
API v1/rerank de Cohere
Cohere-rerank-v3-multilingual
(en desuso)
Reclasificación
clasificación de texto
API v2/rerank de Cohere
API v1/rerank de Cohere

Precios de los modelos de rerank de Cohere

Las consultas, que no deben confundirse con la consulta de un usuario, es un medidor de precios que hace referencia al costo asociado a los tokens usados como entrada para la inferencia de un modelo de Rerank de Cohere. Cohere cuenta una sola unidad de búsqueda como una consulta con hasta 100 documentos que se van a clasificar. Documentos de más de 500 tokens (para Cohere-rerank-v3.5) o más de 4096 tokens (para Cohere-rerank-v3-English y Cohere-rerank-v3-multilingües) al incluir la longitud de la consulta de búsqueda se dividen en varios fragmentos, donde cada fragmento cuenta como un único documento.

Consulte la colección de modelos cohere en el portal de Azure AI Foundry.

Core42

Core42 incluye LLM bidireccionales autorregresivos bilingües para árabe e inglés con funcionalidades de última generación en árabe.

Modelo Tipo Capacidades
jais-30b-chat finalización del chat - Entrada: Texto (8192 tokens)
- Salida: texto (4.096 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto, JSON

Consulte esta colección de modelos en el Portal de la Fundición de IA de Azure.

Ejemplos de inferencia: Core42

Para obtener más ejemplos de cómo usar modelos Jais, vea los ejemplos siguientes:

Descripción Lenguaje Ejemplo
Paquete de inferencia de Azure AI para C# C# Vínculo
Paquete de inferencia de Azure AI para JavaScript JavaScript Vínculo
Paquete de inferencia de Azure AI para Python Pitón Vínculo

DeepSeek

La familia de modelos DeepSeek incluye DeepSeek-R1, que destaca en las tareas de razonamiento mediante un proceso de entrenamiento paso a paso, como el lenguaje, el razonamiento científico y las tareas de codificación, DeepSeek-V3-0324, un modelo de lenguaje Mezcla de expertos (MoE), etc.

Modelo Tipo Capacidades
DeepSeek-R1-0528
finalización de chat con contenido de razonamiento - Entrada: texto (163 840 tokens)
- Salida: texto (163 840 tokens)
- Idiomas:en y zh
- Llamada a herramientas: No
- Formatos de respuesta: Texto
DeekSeek-V3-0324 finalización del chat - Entrada: Texto (131 072 tokens)
- Salida: (131 072 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto, JSON
DeepSeek-V3
(Heredado)
finalización del chat - Entrada: Texto (131 072 tokens)
- Salida: texto (131 072 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto, JSON
DeepSeek-R1 finalización de chat con contenido de razonamiento - Entrada: texto (163 840 tokens)
- Salida: texto (163 840 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto.

Para ver un tutorial sobre DeepSeek-R1, consulte Tutorial: Introducción al modelo de razonamiento DeepSeek-R1 en Foundry Models.

Consulte esta colección de modelos en el Portal de la Fundición de IA de Azure.

Ejemplos de inferencia: DeepSeek

Para obtener más ejemplos de cómo usar modelos DeepSeek, consulte los ejemplos siguientes:

Descripción Lenguaje Ejemplo
Paquete de inferencia de Azure AI para Python Pitón Vínculo
Paquete de inferencia de Azure AI para JavaScript JavaScript Vínculo
Paquete de inferencia de Azure AI para C# C# Vínculo
Paquete de inferencia de Azure AI para Java Java Vínculo

Metadatos

Los modelos y herramientas de Meta Llama son una colección de modelos de razonamiento de imágenes y texto de IA generativa previamente entrenados y optimizados. El rango de modelos de Meta se amplía para incluir:

  • Pequeños modelos de lenguaje (SLM) como Base 1B y 3B y modelos de instrucción para la inferencia perimetral y en el dispositivo
  • Modelos de lenguaje grande de tamaño medio (LLM) como Base 7B, 8B y 70B y modelos de instrucción
  • Modelos de alto rendimiento, como Meta Llama 3.1-405B Instruct, para casos de uso como la generación y destilación de datos sintéticos.
  • Modelos nativamente multimodales de alto rendimiento, Llama 4 Scout y Llama 4 Maverick, aprovechan una arquitectura de mezcla de expertos para ofrecer un rendimiento líder en la industria en el entendimiento de texto e imagen.
Modelo Tipo Capacidades
Llama-4-Scout-17B-16E-Instruct finalización del chat - Entrada: Texto e imagen (128 000 tokens)
- Salida: Texto (8192 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Llama 4-Maverick-17B-128E-Instruct-FP8 finalización del chat - Entrada: Texto e imagen (128 000 tokens)
- Salida: Texto (8192 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Llama-3.3-70B-Instruct finalización del chat - Entrada: Texto (128000 tokens)
- Salida: Texto (8192 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Llama-3.2-90B-Vision-Instruct finalización del chat (con imágenes) - Entrada: Texto e imagen (128 000 tokens)
- Salida: Texto (8192 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Llama-3.2-11B-Vision-Instruct finalización del chat (con imágenes) - Entrada: Texto e imagen (128 000 tokens)
- Salida: Texto (8192 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Meta-Llama-3.1-8B-Instruct finalización del chat - Entrada: Texto (131 072 tokens)
- Salida: Texto (8192 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Meta-Llama-3.1-405B-Instruct finalización del chat - Entrada: Texto (131 072 tokens)
- Salida: Texto (8192 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Meta-Llama-3.1-70B-Instruct (en desuso) finalización del chat - Entrada: Texto (131 072 tokens)
- Salida: Texto (8192 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Meta-Llama-3-8B-Instruct (en desuso) finalización del chat - Entrada: Texto (8192 tokens)
- Salida: Texto (8192 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Meta-Llama-3-70B-Instruct (en desuso) finalización del chat - Entrada: Texto (8192 tokens)
- Salida: Texto (8192 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto

Consulte esta colección de modelos en el Portal de la Fundición de IA de Azure.

Ejemplos de inferencia: Meta Llama

Para obtener más ejemplos de cómo usar modelos de Meta Llama, consulte los ejemplos siguientes:

Descripción Lenguaje Ejemplo
Solicitud CURL Bash Vínculo
Paquete de inferencia de Azure AI para C# C# Vínculo
Paquete de inferencia de Azure AI para JavaScript JavaScript Vínculo
Paquete de inferencia de Azure AI para Python Pitón Vínculo
Solicitudes web de Python Pitón Vínculo
SDK de OpenAI (experimental) Pitón Vínculo
LangChain Pitón Vínculo
LiteLLM Pitón Vínculo

Microsoft

Los modelos de Microsoft incluyen varios grupos de modelos, como los modelos MAI, los modelos Phi, los modelos de inteligencia artificial sanitaria, etc. Para ver todos los modelos de Microsoft disponibles, consulte la colección de modelos de Microsoft en el portal de Azure AI Foundry.

Modelo Tipo Capacidades
MAI-DS-R1 finalización de chat con contenido de razonamiento - Entrada: texto (163 840 tokens)
- Salida: texto (163 840 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto.
Phi-4-reasoning finalización de chat con contenido de razonamiento - Entrada: texto (32768 tokens)
- Salida: texto (32768 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Phi-4-mini-reasoning finalización de chat con contenido de razonamiento - Entrada: Texto (128000 tokens)
- Salida: texto (128 000 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Phi-4-multimodal-instruct finalización del chat (con contenido de imagen y audio) - Entrada: texto, imágenes y audio (131 072 tokens)
- Salida: texto (4.096 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Phi-4-mini-instruct finalización del chat - Entrada: Texto (131 072 tokens)
- Salida: texto (4.096 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Phi-4 finalización del chat - Entrada: Texto (16384 tokens)
- Salida: Texto (16,384 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Phi-3.5-mini-instruct finalización del chat - Entrada: Texto (131 072 tokens)
- Salida: texto (4.096 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Phi-3.5-MoE-instruct finalización del chat - Entrada: Texto (131 072 tokens)
- Salida: texto (4.096 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Phi-3.5-vision-instruct finalización del chat (con imágenes) - Entrada: Texto e imagen (131 072 tokens)
- Salida: texto (4.096 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Phi-3-mini-128k-instruct finalización del chat - Entrada: Texto (131 072 tokens)
- Salida: texto (4.096 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Phi-3-mini-4k-instruct finalización del chat - Entrada: Texto (4096 tokens)
- Salida: texto (4.096 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Phi-3-small-128k-instruct finalización del chat - Entrada: Texto (131 072 tokens)
- Salida: texto (4.096 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Phi-3-small-8k-instruct finalización del chat - Entrada: Texto (131 072 tokens)
- Salida: texto (4.096 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Phi-3-medium-128k-instruct finalización del chat - Entrada: Texto (131 072 tokens)
- Salida: texto (4.096 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Phi-3-medium-4k-instruct finalización del chat - Entrada: Texto (4096 tokens)
- Salida: texto (4.096 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto

Ejemplos de inferencia: modelos de Microsoft

Para obtener más ejemplos de cómo usar modelos de Microsoft, consulte los ejemplos siguientes:

Descripción Lenguaje Ejemplo
Paquete de inferencia de Azure AI para C# C# Vínculo
Paquete de inferencia de Azure AI para JavaScript JavaScript Vínculo
Paquete de inferencia de Azure AI para Python Pitón Vínculo
LangChain Pitón Vínculo
Llama-Index Pitón Vínculo

Consulte la colección de modelos de Microsoft en el portal de Azure AI Foundry.

Mistral IA

IA de Mistral ofrece dos categorías de modelos, es decir:

  • Modelos Premium: incluyen modelos Mistral Large, Mistral Small, Mistral-OCR-2503, Mistral Medium 3 (25.05) y Ministrol 3B, y están disponibles como API sin servidor con facturación basada en tokens de pago por uso.
  • Modelos abiertos: estos incluyen Mistral-small-2503, Codestral y Mistral Nemo (que están disponibles como API sin servidor con facturación basada en tokens de pago por uso) y Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 y Mistral-7B-v01(que están disponibles para descargar y ejecutarse en puntos de conexión administrados autohospedados).
Modelo Tipo Capacidades
Codestral-2501 finalización del chat - Entrada: Texto (262144 tokens)
- Salida: texto (4.096 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto
Ministrol-3B finalización del chat - Entrada: Texto (131 072 tokens)
- Salida: texto (4.096 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto, JSON
Mistral-Nemo finalización del chat - Entrada: Texto (131 072 tokens)
- Salida: texto (4.096 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto, JSON
Mistral-Large-2411 finalización del chat - Entrada: Texto (128000 tokens)
- Salida: texto (4.096 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto, JSON
Mistral-large-2407
(en desuso)
finalización del chat - Entrada: Texto (131 072 tokens)
- Salida: texto (4.096 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto, JSON
Mistral-Large
(en desuso)
finalización del chat - Entrada: Texto (32768 tokens)
- Salida: texto (4.096 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto, JSON
Mistral-medium-2505 finalización del chat - Entrada: texto (128 000 tokens), imagen
- Salida: texto (128 000 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto, JSON
Mistral-OCR-2503 imagen a texto - Entrada: imágenes o páginas PDF (1000 páginas, archivo PDF máximo de 50 MB)
- Salida: texto
- Llamada a herramientas: No
- Formatos de respuesta: Text, JSON, Markdown
Mistral-small-2503 finalización del chat (con imágenes) - Entrada: texto e imágenes (131 072 tokens),
Los tokens basados en imágenes son 16px x 16px
bloques de las imágenes originales
- Salida: texto (4.096 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto, JSON
Mistral-small finalización del chat - Entrada: Texto (32768 tokens)
- Salida: texto (4.096 tokens)
- Activación de herramientas:
- Formatos de respuesta: Texto, JSON

Consulte esta colección de modelos en el Portal de la Fundición de IA de Azure.

Ejemplos de inferencia: Mistral

Para obtener más ejemplos de cómo usar los modelos de Mistral, vea los ejemplos y tutoriales siguientes:

Descripción Lenguaje Ejemplo
Solicitud CURL Bash Vínculo
Paquete de inferencia de Azure AI para C# C# Vínculo
Paquete de inferencia de Azure AI para JavaScript JavaScript Vínculo
Paquete de inferencia de Azure AI para Python Pitón Vínculo
Solicitudes web de Python Pitón Vínculo
SDK de OpenAI (experimental) Pitón Mistral - muestra del SDK de OpenAI
LangChain Pitón Ejemplo Mistral: LangChain
Mistral IA Pitón Ejemplo de Mistral - Mistral de inteligencia artificial
LiteLLM Pitón Ejemplo Mistral - LiteLLM

Nixtla

TimeGEN-1 de Nixtla es un modelo de previsión previamente entrenado generativo y detección de anomalías para los datos de series temporales. TimeGEN-1 puede producir previsiones precisas para nuevas series temporales sin entrenamiento, usando solo valores históricos y covariantes exógenos como entradas.

Para realizar la inferencia, TimeGEN-1 requiere que use la API de inferencia personalizada de Nixtla.

Modelo Tipo Capacidades API de inferencia
TimeGEN-1 Previsión - Entrada: Datos de serie temporal como JSON o dataframes (con compatibilidad con la entrada multivariante)
- Salida: Datos de serie temporal como JSON
- Llamada a herramientas: No
- Formatos de respuesta: JSON
Cliente de previsión para interactuar con la API de Nixtla

Cálculo del número de tokens necesarios

Antes de crear una implementación de TimeGEN-1, resulta útil calcular el número de tokens que planea consumir y facturar. Un token corresponde a un punto de datos del conjunto de datos de entrada o del conjunto de datos de salida.

Supongamos que tiene el siguiente conjunto de datos de serie temporal de entrada:

Identificador_único Marca de tiempo Variable de destino Variable exógenas 1 Variable exógenas 2
SER 2016-10-22 00:00:00 70.00 49593.0 57253,0
SER 2016-10-22 01:00:00 37.10 46073.0 51.887,0

Para determinar el número de tokens, multiplique el número de filas (en este ejemplo, dos) y el número de columnas usadas para la previsión, sin contar las columnas unique_id y de marca de tiempo (en este ejemplo, tres) para obtener un total de seis tokens.

Dado el siguiente conjunto de datos de salida:

Identificador_único Marca de tiempo Variable de destino prevista
SER 2016-10-22 02:00:00 46.57
SER 2016-10-22 03:00:00 48.57

También puede determinar el número de tokens si cuenta el número de puntos de datos devueltos después de la previsión de datos. En este ejemplo, el número de tokens es dos.

Cálculo de los precios en función de los tokens

Hay cuatro medidores de precios que determinan el precio que paga. Estos medidores son los siguientes:

Medidor de precios Descripción
paygo-inference-input-tokens Costos asociados a los tokens usados como entrada para la inferencia cuando finetune_steps = 0
paygo-inference-output-tokens Costos asociados a los tokens usados como salida para la inferencia cuando finetune_steps = 0
paygo-finetuned-model-inference-input-tokens Costos asociados a los tokens usados como entrada para la inferencia cuando finetune_steps> 0
paygo-finetuned-model-inference-output-tokens Costos asociados a los tokens usados como salida para la inferencia cuando finetune_steps> 0

Consulte la colección de modelos de Nixtla en el portal de Azure AI Foundry.

NTT DATA

tsuzumi es un transformador optimizado para lenguaje autoregresivo. Las versiones optimizadas usan el ajuste fino supervisado (SFT). tsuzumi controla tanto el japonés como el inglés con alta eficiencia.

Modelo Tipo Capacidades
tsuzumi-7b finalización del chat - Entrada: Texto (8192 tokens)
- Salida: Texto (8192 tokens)
- Llamada a herramientas: No
- Formatos de respuesta: Texto

Stability AI

La colección Stability AI de modelos de generación de imágenes incluye Stable Image Core, Stable Image Ultra y Stable Diffusion 3.5 Large. Stable Diffusion 3.5 Large permite la entrada de imagen y texto.

Modelo Tipo Capacidades
Difusión estable 3.5 Grande Generación de imágenes - Entrada: texto e imagen (1000 tokens y 1 imagen)
- Salida: 1 imagen
- Llamada a herramientas: No
- Formatos de respuesta: Imagen (PNG y JPG)
Núcleo de imagen estable Generación de imágenes - Entrada: Texto (1000 tokens)
- Salida: 1 imagen
- Llamada a herramientas: No
- Formatos de respuesta: Imagen (PNG y JPG)
Imagen estable Ultra Generación de imágenes - Entrada: Texto (1000 tokens)
- Salida: 1 imagen
- Llamada a herramientas: No
- Formatos de respuesta: Imagen (PNG y JPG)

xAI

Los modelos Grok 3 y Grok 3 Mini de xAI están diseñados para destacar en varios dominios empresariales. Grok 3, un modelo de no razonamiento entrenado previamente por el centro de datos de Colossus, está adaptado para casos de uso empresariales, como la extracción de datos, la codificación y el resumen de texto, con funcionalidades excepcionales siguientes a las instrucciones. Admite una ventana de contexto de token de 131 072, lo que le permite controlar entradas extensas al tiempo que mantiene la coherencia y la profundidad, y es especialmente hábil para dibujar conexiones entre dominios y lenguajes. Por otro lado, Grok 3 Mini es un modelo de razonamiento ligero entrenado para abordar problemas de ciencia en tiempo de prueba, codificación, matemático y profundo. También admite una ventana de contexto de 131 072 tókenes para comprender los códigos base y los documentos empresariales, y destaca por el uso de herramientas para resolver problemas lógicos complejos en entornos nuevos, ofreciendo seguimientos de razonamiento sin procesar para la inspección de usuarios con presupuestos de pensamiento ajustables.

Modelo Tipo Capacidades
grok-3 chat_completion - Entrada: Texto (131 072 tokens)
- Salida: texto (131 072 tokens)
- Idiomas:en
- Llamada a herramientas:
- Formatos de respuesta: texto
grok-3-mini chat_completion - Entrada: Texto (131 072 tokens)
- Salida: texto (131 072 tokens)
- Idiomas:en
- Llamada a herramientas:
- Formatos de respuesta: texto

Ejemplos de inferencia: Inteligencia artificial de estabilidad

Los modelos de Stability AI desplegados a través de la implementación estándar utilizan la API de Foundry Models en la ruta /image/generations. Para obtener ejemplos de cómo usar modelos de inteligencia artificial de estabilidad, consulte los ejemplos siguientes: