Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
El catálogo de modelos de Azure AI ofrece una gran selección de modelos de Azure AI Foundry de una amplia gama de proveedores. Tiene varias opciones para implementar modelos desde el catálogo de modelos. En este artículo se enumeran los modelos de Azure AI Foundry que se pueden implementar a través de la implementación estándar. Para algunos de estos modelos, también puede hospedarlos en su infraestructura para su implementación a través de computación gestionada.
Importante
Los modelos que están en versión preliminar se marcan como versión preliminar en sus tarjetas de modelo en el catálogo de modelos.
Para realizar la inferencia con los modelos, algunos modelos como TimeGEN-1 de Nixtla y Cohere rerank requieren que use APIs personalizadas de los proveedores de modelos. Otros admiten la inferencia mediante foundry Models API. Puede encontrar más detalles sobre los modelos individuales revisando sus tarjetas de modelo en el catálogo de modelos para el portal de Azure AI Foundry.
AI21 Labs
Los modelos de la familia Jamba son un modelo de lenguaje grande (LLM) basado en Mamba de nivel de producción de AI21, que aprovecha la arquitectura híbrida Mamba-Transformer de AI21. Es una versión optimizada para instrucciones del modelo de espacio de estado estructurado híbrido (SSM) de AI21. Los modelos de la familia Jamba se han creado para un uso comercial confiable con respecto a la calidad y el rendimiento.
Modelo | Tipo | Capacidades |
---|---|---|
AI21-Jamba-1.5-Mini | finalización del chat | - Entrada: Texto (262144 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON, salidas estructuradas |
AI21-Jamba-1.5-Large | finalización del chat | - Entrada: Texto (262144 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON, salidas estructuradas |
Consulte esta colección de modelos en el Portal de la Fundición de IA de Azure.
Azure OpenAI
Azure OpenAI en Foundry Models ofrece un conjunto diverso de modelos con diferentes funcionalidades y puntos de precio. Estos modelos incluyen lo siguiente:
- Los modelos de última generación están diseñados para abordar tareas de razonamiento y resolución de problemas con un mayor foco y capacidad
- Modelos que pueden entender y generar lenguaje natural y código
- Modelos pueden transcribir y traducir la conversión de voz en texto
Modelo | Tipo | Capacidades |
---|---|---|
o3-mini | finalización del chat | - Entrada: Texto e imagen (200 000 tokens) - Salida: Texto (100000 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON, salidas estructuradas |
o1 | finalización del chat (con imágenes) | - Entrada: Texto e imagen (200 000 tokens) - Salida: Texto (100000 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON, salidas estructuradas |
o1-preview | finalización del chat | - Entrada: Texto (128000 tokens) - Salida: texto (32 768 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON, salidas estructuradas |
o1-mini | finalización del chat | - Entrada: Texto (128000 tokens) - Salida: texto (65 536 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
gpt-4o-realtime-preview | en tiempo real | - Entrada: Control, texto y audio (131 072 tokens) - Salida: Texto y audio (16 384 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
gpt-4o | finalización del chat (con contenido de imagen y audio) | - Entrada: Texto, imagen y audio (131 072 tokens) - Salida: Texto (16,384 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON, salidas estructuradas |
gpt-4o-mini | finalización del chat (con contenido de imagen y audio) | - Entrada: Texto, imagen y audio (131 072 tokens) - Salida: Texto (16,384 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON, salidas estructuradas |
text-embedding-3-large | incrustaciones | - Entrada: Texto (8191 tokens) - Salida: Vector (3072 dim.) |
Text-Embedding-3-Small | incrustaciones | - Entrada: Texto (8191 tokens) - Salida: Vector (1536 dim.) |
Consulte esta colección de modelos en el Portal de la Fundición de IA de Azure.
Cohere
La familia de modelos de Cohere incluye varios modelos optimizados para distintos casos de uso, como los de reclasificación, finalizaciones de chat y modelos de inserciones.
Comando e inserción de Cohere
En la tabla siguiente se enumeran los modelos de Cohere que puede deducir a través de foundry Models API.
Modelo | Tipo | Capacidades |
---|---|---|
Cohere-command-A | finalización del chat | - Entrada: texto (256 000 tokens) - Salida: texto (8000 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto |
Cohere-command-r-plus-08-2024 | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Cohere-command-r-08-2024 | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Cohere-command-r-plus (en desuso) |
finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Cohere-command-r (en desuso) |
finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Cohere-embed-4 | incrustaciones image-embeddings |
- Entrada: imagen, texto - Salida: imagen, texto (128 000 tokens) - Activación de herramientas: Sí - Formatos de respuesta: imagen, texto |
Cohere-embed-v3-english | incrustaciones image-embeddings |
- Entrada: Texto (512 tokens) - Salida: Vector (1024 dim.) |
Cohere-embed-v3-multilingüe | incrustaciones image-embeddings |
- Entrada: Texto (512 tokens) - Salida: Vector (1024 dim.) |
Ejemplos de inferencia: Cohere Command y Embed
Para obtener más ejemplos de cómo usar modelos de Cohere, consulte los ejemplos siguientes:
Descripción | Lenguaje | Ejemplo |
---|---|---|
Solicitudes Web | Bash | Command-RCommand-R+ cohere-embed.ipynb |
Paquete de inferencia de Azure AI para C# | C# | Vínculo |
Paquete de inferencia de Azure AI para JavaScript | JavaScript | Vínculo |
Paquete de inferencia de Azure AI para Python | Pitón | Vínculo |
SDK de OpenAI (experimental) | Pitón | Vínculo |
LangChain | Pitón | Vínculo |
SDK de Cohere | Pitón | Comando Insertar |
SDK de LiteLLM | Pitón | Vínculo |
Generación aumentada de recuperación (RAG) y ejemplos de uso de herramientas: comando e inserción de Cohere
Descripción | Paquetes | Ejemplo |
---|---|---|
Creación de un índice de vectores de búsqueda de similitud de IA de Facebook local (FAISS), mediante inserciones de Cohere: Langchain | langchain , langchain_cohere |
cohere_faiss_langchain_embed.ipynb |
Uso de Cohere Command R/R+ para responder preguntas de datos en el índice de vectores de FAISS local: Langchain | langchain , langchain_cohere |
command_faiss_langchain.ipynb |
Uso de Cohere Command R/R+ para responder preguntas de datos en el índice de vectores de búsqueda de IA: Langchain | langchain , langchain_cohere |
cohere-aisearch-langchain-rag.ipynb |
Uso de Cohere Command R/R+ para responder preguntas de datos en el índice de vectores de búsqueda de IA: SDK de Cohere | cohere , azure_search_documents |
cohere-aisearch-rag.ipynb |
Llamada a herramientas o funciones de Command R+, mediante LangChain | cohere , , langchain , langchain_cohere |
command_tools-langchain.ipynb |
Reclasificación de Cohere
En la tabla siguiente se enumeran los modelos de rerank de Cohere. Para realizar la inferencia con estos modelos de reordenamiento, es necesario usar las APIs de reordenamiento personalizadas de Cohere que se muestran en la tabla.
Modelo | Tipo | API de inferencia |
---|---|---|
Cohere-rerank-v3.5 | Reclasificación clasificación de texto |
API v2/rerank de Cohere |
Cohere-rerank-v3-english (en desuso) |
Reclasificación clasificación de texto |
API v2/rerank de Cohere API v1/rerank de Cohere |
Cohere-rerank-v3-multilingual (en desuso) |
Reclasificación clasificación de texto |
API v2/rerank de Cohere API v1/rerank de Cohere |
Precios de los modelos de rerank de Cohere
Las consultas, que no deben confundirse con la consulta de un usuario, es un medidor de precios que hace referencia al costo asociado a los tokens usados como entrada para la inferencia de un modelo de Rerank de Cohere. Cohere cuenta una sola unidad de búsqueda como una consulta con hasta 100 documentos que se van a clasificar. Documentos de más de 500 tokens (para Cohere-rerank-v3.5) o más de 4096 tokens (para Cohere-rerank-v3-English y Cohere-rerank-v3-multilingües) al incluir la longitud de la consulta de búsqueda se dividen en varios fragmentos, donde cada fragmento cuenta como un único documento.
Consulte la colección de modelos cohere en el portal de Azure AI Foundry.
Core42
Core42 incluye LLM bidireccionales autorregresivos bilingües para árabe e inglés con funcionalidades de última generación en árabe.
Modelo | Tipo | Capacidades |
---|---|---|
jais-30b-chat | finalización del chat | - Entrada: Texto (8192 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Consulte esta colección de modelos en el Portal de la Fundición de IA de Azure.
Ejemplos de inferencia: Core42
Para obtener más ejemplos de cómo usar modelos Jais, vea los ejemplos siguientes:
Descripción | Lenguaje | Ejemplo |
---|---|---|
Paquete de inferencia de Azure AI para C# | C# | Vínculo |
Paquete de inferencia de Azure AI para JavaScript | JavaScript | Vínculo |
Paquete de inferencia de Azure AI para Python | Pitón | Vínculo |
DeepSeek
La familia de modelos DeepSeek incluye DeepSeek-R1, que destaca en las tareas de razonamiento mediante un proceso de entrenamiento paso a paso, como el lenguaje, el razonamiento científico y las tareas de codificación, DeepSeek-V3-0324, un modelo de lenguaje Mezcla de expertos (MoE), etc.
Modelo | Tipo | Capacidades |
---|---|---|
DeepSeek-R1-0528 |
finalización de chat con contenido de razonamiento | - Entrada: texto (163 840 tokens) - Salida: texto (163 840 tokens) - Idiomas: en y zh - Llamada a herramientas: No - Formatos de respuesta: Texto |
DeekSeek-V3-0324 | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: (131 072 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto, JSON |
DeepSeek-V3 (Heredado) |
finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (131 072 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto, JSON |
DeepSeek-R1 | finalización de chat con contenido de razonamiento | - Entrada: texto (163 840 tokens) - Salida: texto (163 840 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto. |
Para ver un tutorial sobre DeepSeek-R1, consulte Tutorial: Introducción al modelo de razonamiento DeepSeek-R1 en Foundry Models.
Consulte esta colección de modelos en el Portal de la Fundición de IA de Azure.
Ejemplos de inferencia: DeepSeek
Para obtener más ejemplos de cómo usar modelos DeepSeek, consulte los ejemplos siguientes:
Descripción | Lenguaje | Ejemplo |
---|---|---|
Paquete de inferencia de Azure AI para Python | Pitón | Vínculo |
Paquete de inferencia de Azure AI para JavaScript | JavaScript | Vínculo |
Paquete de inferencia de Azure AI para C# | C# | Vínculo |
Paquete de inferencia de Azure AI para Java | Java | Vínculo |
Metadatos
Los modelos y herramientas de Meta Llama son una colección de modelos de razonamiento de imágenes y texto de IA generativa previamente entrenados y optimizados. El rango de modelos de Meta se amplía para incluir:
- Pequeños modelos de lenguaje (SLM) como Base 1B y 3B y modelos de instrucción para la inferencia perimetral y en el dispositivo
- Modelos de lenguaje grande de tamaño medio (LLM) como Base 7B, 8B y 70B y modelos de instrucción
- Modelos de alto rendimiento, como Meta Llama 3.1-405B Instruct, para casos de uso como la generación y destilación de datos sintéticos.
- Modelos nativamente multimodales de alto rendimiento, Llama 4 Scout y Llama 4 Maverick, aprovechan una arquitectura de mezcla de expertos para ofrecer un rendimiento líder en la industria en el entendimiento de texto e imagen.
Modelo | Tipo | Capacidades |
---|---|---|
Llama-4-Scout-17B-16E-Instruct | finalización del chat | - Entrada: Texto e imagen (128 000 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Llama 4-Maverick-17B-128E-Instruct-FP8 | finalización del chat | - Entrada: Texto e imagen (128 000 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Llama-3.3-70B-Instruct | finalización del chat | - Entrada: Texto (128000 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Llama-3.2-90B-Vision-Instruct | finalización del chat (con imágenes) | - Entrada: Texto e imagen (128 000 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Llama-3.2-11B-Vision-Instruct | finalización del chat (con imágenes) | - Entrada: Texto e imagen (128 000 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Meta-Llama-3.1-8B-Instruct | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Meta-Llama-3.1-405B-Instruct | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Meta-Llama-3.1-70B-Instruct (en desuso) | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Meta-Llama-3-8B-Instruct (en desuso) | finalización del chat | - Entrada: Texto (8192 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Meta-Llama-3-70B-Instruct (en desuso) | finalización del chat | - Entrada: Texto (8192 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Consulte esta colección de modelos en el Portal de la Fundición de IA de Azure.
Ejemplos de inferencia: Meta Llama
Para obtener más ejemplos de cómo usar modelos de Meta Llama, consulte los ejemplos siguientes:
Descripción | Lenguaje | Ejemplo |
---|---|---|
Solicitud CURL | Bash | Vínculo |
Paquete de inferencia de Azure AI para C# | C# | Vínculo |
Paquete de inferencia de Azure AI para JavaScript | JavaScript | Vínculo |
Paquete de inferencia de Azure AI para Python | Pitón | Vínculo |
Solicitudes web de Python | Pitón | Vínculo |
SDK de OpenAI (experimental) | Pitón | Vínculo |
LangChain | Pitón | Vínculo |
LiteLLM | Pitón | Vínculo |
Microsoft
Los modelos de Microsoft incluyen varios grupos de modelos, como los modelos MAI, los modelos Phi, los modelos de inteligencia artificial sanitaria, etc. Para ver todos los modelos de Microsoft disponibles, consulte la colección de modelos de Microsoft en el portal de Azure AI Foundry.
Modelo | Tipo | Capacidades |
---|---|---|
MAI-DS-R1 | finalización de chat con contenido de razonamiento | - Entrada: texto (163 840 tokens) - Salida: texto (163 840 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto. |
Phi-4-reasoning | finalización de chat con contenido de razonamiento | - Entrada: texto (32768 tokens) - Salida: texto (32768 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-4-mini-reasoning | finalización de chat con contenido de razonamiento | - Entrada: Texto (128000 tokens) - Salida: texto (128 000 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-4-multimodal-instruct | finalización del chat (con contenido de imagen y audio) | - Entrada: texto, imágenes y audio (131 072 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-4-mini-instruct | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-4 | finalización del chat | - Entrada: Texto (16384 tokens) - Salida: Texto (16,384 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-3.5-mini-instruct | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-3.5-MoE-instruct | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-3.5-vision-instruct | finalización del chat (con imágenes) | - Entrada: Texto e imagen (131 072 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-3-mini-128k-instruct | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-3-mini-4k-instruct | finalización del chat | - Entrada: Texto (4096 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-3-small-128k-instruct | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-3-small-8k-instruct | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-3-medium-128k-instruct | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-3-medium-4k-instruct | finalización del chat | - Entrada: Texto (4096 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Ejemplos de inferencia: modelos de Microsoft
Para obtener más ejemplos de cómo usar modelos de Microsoft, consulte los ejemplos siguientes:
Descripción | Lenguaje | Ejemplo |
---|---|---|
Paquete de inferencia de Azure AI para C# | C# | Vínculo |
Paquete de inferencia de Azure AI para JavaScript | JavaScript | Vínculo |
Paquete de inferencia de Azure AI para Python | Pitón | Vínculo |
LangChain | Pitón | Vínculo |
Llama-Index | Pitón | Vínculo |
Consulte la colección de modelos de Microsoft en el portal de Azure AI Foundry.
Mistral IA
IA de Mistral ofrece dos categorías de modelos, es decir:
- Modelos Premium: incluyen modelos Mistral Large, Mistral Small, Mistral-OCR-2503, Mistral Medium 3 (25.05) y Ministrol 3B, y están disponibles como API sin servidor con facturación basada en tokens de pago por uso.
- Modelos abiertos: estos incluyen Mistral-small-2503, Codestral y Mistral Nemo (que están disponibles como API sin servidor con facturación basada en tokens de pago por uso) y Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 y Mistral-7B-v01(que están disponibles para descargar y ejecutarse en puntos de conexión administrados autohospedados).
Modelo | Tipo | Capacidades |
---|---|---|
Codestral-2501 | finalización del chat | - Entrada: Texto (262144 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Ministrol-3B | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Mistral-Nemo | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Mistral-Large-2411 | finalización del chat | - Entrada: Texto (128000 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Mistral-large-2407 (en desuso) |
finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Mistral-Large (en desuso) |
finalización del chat | - Entrada: Texto (32768 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Mistral-medium-2505 | finalización del chat | - Entrada: texto (128 000 tokens), imagen - Salida: texto (128 000 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto, JSON |
Mistral-OCR-2503 | imagen a texto | - Entrada: imágenes o páginas PDF (1000 páginas, archivo PDF máximo de 50 MB) - Salida: texto - Llamada a herramientas: No - Formatos de respuesta: Text, JSON, Markdown |
Mistral-small-2503 | finalización del chat (con imágenes) | - Entrada: texto e imágenes (131 072 tokens), Los tokens basados en imágenes son 16px x 16px bloques de las imágenes originales - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Mistral-small | finalización del chat | - Entrada: Texto (32768 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Consulte esta colección de modelos en el Portal de la Fundición de IA de Azure.
Ejemplos de inferencia: Mistral
Para obtener más ejemplos de cómo usar los modelos de Mistral, vea los ejemplos y tutoriales siguientes:
Descripción | Lenguaje | Ejemplo |
---|---|---|
Solicitud CURL | Bash | Vínculo |
Paquete de inferencia de Azure AI para C# | C# | Vínculo |
Paquete de inferencia de Azure AI para JavaScript | JavaScript | Vínculo |
Paquete de inferencia de Azure AI para Python | Pitón | Vínculo |
Solicitudes web de Python | Pitón | Vínculo |
SDK de OpenAI (experimental) | Pitón | Mistral - muestra del SDK de OpenAI |
LangChain | Pitón | Ejemplo Mistral: LangChain |
Mistral IA | Pitón | Ejemplo de Mistral - Mistral de inteligencia artificial |
LiteLLM | Pitón | Ejemplo Mistral - LiteLLM |
Nixtla
TimeGEN-1 de Nixtla es un modelo de previsión previamente entrenado generativo y detección de anomalías para los datos de series temporales. TimeGEN-1 puede producir previsiones precisas para nuevas series temporales sin entrenamiento, usando solo valores históricos y covariantes exógenos como entradas.
Para realizar la inferencia, TimeGEN-1 requiere que use la API de inferencia personalizada de Nixtla.
Modelo | Tipo | Capacidades | API de inferencia |
---|---|---|---|
TimeGEN-1 | Previsión | - Entrada: Datos de serie temporal como JSON o dataframes (con compatibilidad con la entrada multivariante) - Salida: Datos de serie temporal como JSON - Llamada a herramientas: No - Formatos de respuesta: JSON |
Cliente de previsión para interactuar con la API de Nixtla |
Cálculo del número de tokens necesarios
Antes de crear una implementación de TimeGEN-1, resulta útil calcular el número de tokens que planea consumir y facturar. Un token corresponde a un punto de datos del conjunto de datos de entrada o del conjunto de datos de salida.
Supongamos que tiene el siguiente conjunto de datos de serie temporal de entrada:
Identificador_único | Marca de tiempo | Variable de destino | Variable exógenas 1 | Variable exógenas 2 |
---|---|---|---|---|
SER | 2016-10-22 00:00:00 | 70.00 | 49593.0 | 57253,0 |
SER | 2016-10-22 01:00:00 | 37.10 | 46073.0 | 51.887,0 |
Para determinar el número de tokens, multiplique el número de filas (en este ejemplo, dos) y el número de columnas usadas para la previsión, sin contar las columnas unique_id y de marca de tiempo (en este ejemplo, tres) para obtener un total de seis tokens.
Dado el siguiente conjunto de datos de salida:
Identificador_único | Marca de tiempo | Variable de destino prevista |
---|---|---|
SER | 2016-10-22 02:00:00 | 46.57 |
SER | 2016-10-22 03:00:00 | 48.57 |
También puede determinar el número de tokens si cuenta el número de puntos de datos devueltos después de la previsión de datos. En este ejemplo, el número de tokens es dos.
Cálculo de los precios en función de los tokens
Hay cuatro medidores de precios que determinan el precio que paga. Estos medidores son los siguientes:
Medidor de precios | Descripción |
---|---|
paygo-inference-input-tokens | Costos asociados a los tokens usados como entrada para la inferencia cuando finetune_steps = 0 |
paygo-inference-output-tokens | Costos asociados a los tokens usados como salida para la inferencia cuando finetune_steps = 0 |
paygo-finetuned-model-inference-input-tokens | Costos asociados a los tokens usados como entrada para la inferencia cuando finetune_steps> 0 |
paygo-finetuned-model-inference-output-tokens | Costos asociados a los tokens usados como salida para la inferencia cuando finetune_steps> 0 |
Consulte la colección de modelos de Nixtla en el portal de Azure AI Foundry.
NTT DATA
tsuzumi es un transformador optimizado para lenguaje autoregresivo. Las versiones optimizadas usan el ajuste fino supervisado (SFT). tsuzumi controla tanto el japonés como el inglés con alta eficiencia.
Modelo | Tipo | Capacidades |
---|---|---|
tsuzumi-7b | finalización del chat | - Entrada: Texto (8192 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Stability AI
La colección Stability AI de modelos de generación de imágenes incluye Stable Image Core, Stable Image Ultra y Stable Diffusion 3.5 Large. Stable Diffusion 3.5 Large permite la entrada de imagen y texto.
Modelo | Tipo | Capacidades |
---|---|---|
Difusión estable 3.5 Grande | Generación de imágenes | - Entrada: texto e imagen (1000 tokens y 1 imagen) - Salida: 1 imagen - Llamada a herramientas: No - Formatos de respuesta: Imagen (PNG y JPG) |
Núcleo de imagen estable | Generación de imágenes | - Entrada: Texto (1000 tokens) - Salida: 1 imagen - Llamada a herramientas: No - Formatos de respuesta: Imagen (PNG y JPG) |
Imagen estable Ultra | Generación de imágenes | - Entrada: Texto (1000 tokens) - Salida: 1 imagen - Llamada a herramientas: No - Formatos de respuesta: Imagen (PNG y JPG) |
xAI
Los modelos Grok 3 y Grok 3 Mini de xAI están diseñados para destacar en varios dominios empresariales. Grok 3, un modelo de no razonamiento entrenado previamente por el centro de datos de Colossus, está adaptado para casos de uso empresariales, como la extracción de datos, la codificación y el resumen de texto, con funcionalidades excepcionales siguientes a las instrucciones. Admite una ventana de contexto de token de 131 072, lo que le permite controlar entradas extensas al tiempo que mantiene la coherencia y la profundidad, y es especialmente hábil para dibujar conexiones entre dominios y lenguajes. Por otro lado, Grok 3 Mini es un modelo de razonamiento ligero entrenado para abordar problemas de ciencia en tiempo de prueba, codificación, matemático y profundo. También admite una ventana de contexto de 131 072 tókenes para comprender los códigos base y los documentos empresariales, y destaca por el uso de herramientas para resolver problemas lógicos complejos en entornos nuevos, ofreciendo seguimientos de razonamiento sin procesar para la inspección de usuarios con presupuestos de pensamiento ajustables.
Modelo | Tipo | Capacidades |
---|---|---|
grok-3 | chat_completion | - Entrada: Texto (131 072 tokens) - Salida: texto (131 072 tokens) - Idiomas: en - Llamada a herramientas: sí - Formatos de respuesta: texto |
grok-3-mini | chat_completion | - Entrada: Texto (131 072 tokens) - Salida: texto (131 072 tokens) - Idiomas: en - Llamada a herramientas: sí - Formatos de respuesta: texto |
Ejemplos de inferencia: Inteligencia artificial de estabilidad
Los modelos de Stability AI desplegados a través de la implementación estándar utilizan la API de Foundry Models en la ruta /image/generations
.
Para obtener ejemplos de cómo usar modelos de inteligencia artificial de estabilidad, consulte los ejemplos siguientes:
- Uso del SDK de OpenAI con modelos de inteligencia artificial de estabilidad para las solicitudes de texto a imágenes
- Usar la biblioteca de solicitudes con modelos de inteligencia artificial de estabilidad para las solicitudes de texto a imágenes
- Uso de la biblioteca Requests con Stable Diffusion 3.5 Large para solicitudes de imagen a imagen
- Ejemplo de una respuesta de generación de imágenes totalmente codificada