Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
El catálogo de modelos de Azure AI ofrece una gran selección de modelos de una amplia gama de proveedores. Tiene varias opciones para implementar modelos desde el catálogo de modelos. En este artículo se enumeran los modelos destacados del catálogo de modelos que se pueden implementar y hospedar en los servidores de Microsoft a través de implementaciones estándar. Para algunos de estos modelos, también puede hospedarlos en su infraestructura para su implementación a través de un procesamiento gestionado. Consulte Modelos disponibles para ver las opciones de implementación admitidas para buscar modelos en el catálogo que están disponibles para la implementación a través del proceso administrado o la implementación estándar.
Para realizar la inferencia con los modelos, algunos modelos como TimeGEN-1 de Nixtla y Cohere rerank requieren que use APIs personalizadas de los proveedores de los modelos. Otros admiten la inferencia mediante la inferencia del modelo de Azure AI. Puede encontrar más detalles sobre los modelos individuales revisando sus tarjetas de modelo en el catálogo de modelos de Azure AI.
AI21 Labs
Los modelos de la familia Jamba son un modelo de lenguaje grande (LLM) basado en Mamba de nivel de producción de AI21, que aprovecha la arquitectura híbrida Mamba-Transformer de AI21. Es una versión optimizada para instrucciones del modelo de espacio de estado estructurado híbrido (SSM) de AI21. Los modelos de la familia Jamba se han creado para un uso comercial confiable con respecto a la calidad y el rendimiento.
Modelo | Tipo | Capacidades |
---|---|---|
AI21-Jamba-1.5-Mini | finalización del chat | - Entrada: Texto (262144 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON, salidas estructuradas |
AI21-Jamba-1.5-Large | finalización del chat | - Entrada: Texto (262144 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON, salidas estructuradas |
Consulte esta colección de modelos en el catálogo de modelos de Azure AI.
Azure OpenAI
Azure OpenAI en Azure AI Foundry Models ofrece un conjunto diverso de modelos con diferentes funcionalidades y puntos de precio. Estos modelos incluyen lo siguiente:
- Los modelos de última generación están diseñados para abordar tareas de razonamiento y resolución de problemas con un mayor foco y capacidad
- Modelos que pueden entender y generar lenguaje natural y código
- Modelos pueden transcribir y traducir la conversión de voz en texto
Modelo | Tipo | Capacidades |
---|---|---|
o3-mini | finalización del chat | - Entrada: Texto e imagen (200 000 tokens) - Salida: Texto (100000 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON, salidas estructuradas |
o1 | finalización del chat (con imágenes) | - Entrada: Texto e imagen (200 000 tokens) - Salida: Texto (100000 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON, salidas estructuradas |
o1-preview | finalización del chat | - Entrada: Texto (128000 tokens) - Salida: texto (32 768 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON, salidas estructuradas |
o1-mini | finalización del chat | - Entrada: Texto (128000 tokens) - Salida: texto (65 536 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
gpt-4o-realtime-preview | en tiempo real | - Entrada: Control, texto y audio (131 072 tokens) - Salida: Texto y audio (16 384 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
gpt-4o | finalización del chat (con contenido de imagen y audio) | - Entrada: Texto, imagen y audio (131 072 tokens) - Salida: Texto (16,384 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON, salidas estructuradas |
gpt-4o-mini | finalización del chat (con contenido de imagen y audio) | - Entrada: Texto, imagen y audio (131 072 tokens) - Salida: Texto (16,384 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON, salidas estructuradas |
text-embedding-3-large | incrustaciones | - Entrada: Texto (8191 tokens) - Salida: Vector (3072 dim.) |
Text-Embedding-3-Small | incrustaciones | - Entrada: Texto (8191 tokens) - Salida: Vector (1536 dim.) |
Consulte esta colección de modelos en el catálogo de modelos de Azure AI.
Cohere
La familia de modelos de Cohere incluye varios modelos optimizados para distintos casos de uso, como los de reclasificación, finalizaciones de chat y modelos de inserciones.
Comando e inserción de Cohere
En la tabla siguiente se enumeran los modelos de Cohere que puede inferencia mediante la inferencia de modelos de Azure AI.
Modelo | Tipo | Capacidades |
---|---|---|
Cohere-command-A | finalización del chat | - Entrada: texto (256 000 tokens) - Salida: texto (8000 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto |
Cohere-command-r-plus-08-2024 | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Cohere-command-r-08-2024 | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Cohere-command-r-plus (en desuso) |
finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Cohere-command-r (en desuso) |
finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Cohere-embed-4 | incrustaciones image-embeddings |
- Entrada: imagen, texto - Salida: imagen, texto (128 000 tokens) - Activación de herramientas: Sí - Formatos de respuesta: imagen, texto |
Cohere-embed-v3-english | incrustaciones image-embeddings |
- Entrada: Texto (512 tokens) - Salida: Vector (1024 dim.) |
Cohere-embed-v3-multilingüe | incrustaciones image-embeddings |
- Entrada: Texto (512 tokens) - Salida: Vector (1024 dim.) |
Ejemplos de inferencia: comando Cohere e inserción
Para obtener más ejemplos de cómo usar modelos de Cohere, consulte los ejemplos siguientes:
Descripción | Lenguaje | Ejemplo |
---|---|---|
Solicitudes Web | Bash | Command-RCommand-R+ cohere-embed.ipynb |
Paquete de inferencia de Azure AI para C# | C# | Vínculo |
Paquete de inferencia de Azure AI para JavaScript | JavaScript | Vínculo |
Paquete de inferencia de Azure AI para Python | Pitón | Vínculo |
SDK de OpenAI (experimental) | Pitón | Vínculo |
LangChain | Pitón | Vínculo |
SDK de Cohere | Pitón | Comando Insertar |
SDK de LiteLLM | Pitón | Vínculo |
Generación aumentada de recuperación (RAG) y ejemplos de uso de herramientas: comando e inserción de Cohere
Descripción | Paquetes | Ejemplo |
---|---|---|
Crea un índice de vectores FAISS local para búsqueda de similitud de IA de Facebook, utilizando incrustaciones de Cohere - Langchain | langchain , langchain_cohere |
cohere_faiss_langchain_embed.ipynb |
Uso de Cohere Command R/R+ para responder preguntas a partir de datos en el índice de vectores FAISS local - Langchain | langchain , langchain_cohere |
command_faiss_langchain.ipynb |
Uso de Cohere Command R/R+ para responder preguntas de datos en el índice de vectores de búsqueda de IA: Langchain | langchain , langchain_cohere |
cohere-aisearch-langchain-rag.ipynb |
Uso de Cohere Command R/R+ para responder preguntas de datos en el índice de vectores de búsqueda de IA: SDK de Cohere | cohere , azure_search_documents |
cohere-aisearch-rag.ipynb |
Llamada a herramientas o funciones de Command R+, mediante LangChain | cohere , , langchain , langchain_cohere |
command_tools-langchain.ipynb |
Reclasificación de Cohere
En la tabla siguiente se enumeran los modelos de rerank de Cohere. Para realizar la inferencia con estos modelos de reranking, es necesario usar las APIs personalizadas de reranking de Cohere que se muestran en la tabla.
Modelo | Tipo | API de inferencia |
---|---|---|
Cohere-rerank-v3.5 | Reclasificación clasificación de texto |
API v2/rerank de Cohere |
Cohere-rerank-v3-english (en desuso) |
Reclasificación clasificación de texto |
API v2/rerank de Cohere API v1/rerank de Cohere |
Cohere-rerank-v3-multilingual (en desuso) |
Reclasificación clasificación de texto |
API v2/rerank de Cohere API v1/rerank de Cohere |
Precios de los modelos de rerank de Cohere
Las consultas, que no deben confundirse con la consulta de un usuario, es un medidor de precios que hace referencia al costo asociado a los tokens usados como entrada para la inferencia de un modelo de Rerank de Cohere. Cohere cuenta una sola unidad de búsqueda como una consulta con hasta 100 documentos que se van a clasificar. Documentos de más de 500 tokens (para Cohere-rerank-v3.5) o más de 4096 tokens (para Cohere-rerank-v3-English y Cohere-rerank-v3-multilingües) al incluir la longitud de la consulta de búsqueda se dividen en varios fragmentos, donde cada fragmento cuenta como un único documento.
Consulte la colección de modelos cohere en el catálogo de modelos de Azure AI.
Core42
Core42 incluye LLM bidireccionales autorregresivos bilingües para árabe e inglés con funcionalidades de última generación en árabe.
Modelo | Tipo | Capacidades |
---|---|---|
jais-30b-chat | finalización del chat | - Entrada: Texto (8192 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Consulte esta colección de modelos en el catálogo de modelos de Azure AI.
Ejemplos de inferencia: Core42
Para obtener más ejemplos de cómo usar modelos Jais, vea los ejemplos siguientes:
Descripción | Lenguaje | Ejemplo |
---|---|---|
Paquete de inferencia de Azure AI para C# | C# | Vínculo |
Paquete de inferencia de Azure AI para JavaScript | JavaScript | Vínculo |
Paquete de inferencia de Azure AI para Python | Pitón | Vínculo |
DeepSeek
La familia de modelos DeepSeek incluye DeepSeek-R1, que destaca en las tareas de razonamiento mediante un proceso de entrenamiento paso a paso, como el lenguaje, el razonamiento científico y las tareas de codificación, DeepSeek-V3-0324, un modelo de lenguaje Mezcla de expertos (MoE), etc.
Modelo | Tipo | Capacidades |
---|---|---|
DeekSeek-V3-0324 | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: (131 072 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto, JSON |
DeepSeek-V3 (Heredado) |
finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (131 072 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto, JSON |
DeepSeek-R1 | finalización de la conversación con contenido de razonamiento | - Entrada: texto (163 840 tokens) - Salida: texto (163 840 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto. |
Para ver un tutorial sobre DeepSeek-R1, consulte Tutorial: Introducción al modelo de razonamiento de DeepSeek-R1 en la inferencia de modelos de Azure AI.
Consulte esta colección de modelos en el catálogo de modelos de Azure AI.
Ejemplos de inferencia: DeepSeek
Para obtener más ejemplos de cómo usar modelos DeepSeek, consulte los ejemplos siguientes:
Descripción | Lenguaje | Ejemplo |
---|---|---|
Paquete de inferencia de Azure AI para Python | Pitón | Vínculo |
Paquete de inferencia de Azure AI para JavaScript | JavaScript | Vínculo |
Paquete de inferencia de Azure AI para C# | C# | Vínculo |
Paquete de inferencia de Azure AI para Java | Java | Vínculo |
Metadatos
Los modelos y herramientas de Meta Llama son una colección de modelos de razonamiento de imágenes y texto de IA generativa previamente entrenados y optimizados. El rango de modelos de Meta se amplía para incluir:
- Pequeños modelos de lenguaje (SLM) como Base 1B y 3B y modelos de instrucción para la inferencia perimetral y en el dispositivo
- Modelos de lenguaje grande de tamaño medio (LLM) como Base 7B, 8B y 70B y modelos de instrucción
- Modelos de alto rendimiento, como Meta Llama 3.1-405B Instruct, para casos de uso como la generación y destilación de datos sintéticos.
- Modelos nativamente multimodales de alto rendimiento, Llama 4 Scout y Llama 4 Maverick, aprovechan una arquitectura de mezcla de expertos para ofrecer un rendimiento líder en la industria en el entendimiento de texto e imagen.
Modelo | Tipo | Capacidades |
---|---|---|
Llama-4-Scout-17B-16E-Instruct | finalización del chat | - Entrada: Texto e imagen (128 000 tokens) - Salida: Texto (8192 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto |
Llama 4-Maverick-17B-128E-Instruct-FP8 | finalización del chat | - Entrada: Texto e imagen (128 000 tokens) - Salida: Texto (8192 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto |
Llama-3.3-70B-Instruct | finalización del chat | - Entrada: Texto (128000 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Llama-3.2-90B-Vision-Instruct | finalización del chat (con imágenes) | - Entrada: Texto e imagen (128 000 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Llama-3.2-11B-Vision-Instruct | finalización del chat (con imágenes) | - Entrada: Texto e imagen (128 000 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Meta-Llama-3.1-8B-Instruct | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Meta-Llama-3.1-405B-Instruct | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Meta-Llama-3.1-70B-Instruct (en desuso) | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Meta-Llama-3-8B-Instruct (en desuso) | finalización del chat | - Entrada: Texto (8192 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Meta-Llama-3-70B-Instruct (en desuso) | finalización del chat | - Entrada: Texto (8192 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Consulte esta colección de modelos en el catálogo de modelos de Azure AI.
Ejemplos de inferencia: Meta Llama
Para obtener más ejemplos de cómo usar modelos de Meta Llama, consulte los ejemplos siguientes:
Descripción | Lenguaje | Ejemplo |
---|---|---|
Solicitud CURL | Bash | Vínculo |
Paquete de inferencia de Azure AI para C# | C# | Vínculo |
Paquete de inferencia de Azure AI para JavaScript | JavaScript | Vínculo |
Paquete de inferencia de Azure AI para Python | Pitón | Vínculo |
Solicitudes web de Python | Pitón | Vínculo |
SDK de OpenAI (experimental) | Pitón | Vínculo |
LangChain | Pitón | Vínculo |
LiteLLM | Pitón | Vínculo |
Microsoft
Los modelos de Microsoft incluyen varios grupos de modelos, como los modelos MAI, los modelos Phi, los modelos de inteligencia artificial sanitaria, etc. Para ver todos los modelos de Microsoft disponibles, consulte la colección de modelos de Microsoft en el portal de Azure AI Foundry.
Modelo | Tipo | Capacidades |
---|---|---|
MAI-DS-R1 | finalización de la conversación con contenido de razonamiento | - Entrada: texto (163 840 tokens) - Salida: texto (163 840 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto. |
Phi-4-reasoning | finalización de la conversación con contenido de razonamiento | - Entrada: texto (32768 tokens) - Salida: texto (32768 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-4-mini-reasoning | finalización de la conversación con contenido de razonamiento | - Entrada: Texto (128000 tokens) - Salida: texto (128 000 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-4-multimodal-instruct | finalización del chat (con contenido de imagen y audio) | - Entrada: texto, imágenes y audio (131 072 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-4-mini-instruct | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-4 | finalización del chat | - Entrada: Texto (16384 tokens) - Salida: Texto (16,384 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-3.5-mini-instruct | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-3.5-MoE-instruct | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-3.5-vision-instruct | finalización del chat (con imágenes) | - Entrada: Texto e imagen (131 072 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-3-mini-128k-instruct | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-3-mini-4k-instruct | finalización del chat | - Entrada: Texto (4096 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-3-small-128k-instruct | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-3-small-8k-instruct | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-3-medium-128k-instruct | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-3-medium-4k-instruct | finalización del chat | - Entrada: Texto (4096 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Ejemplos de inferencia: modelos de Microsoft
Para obtener más ejemplos de cómo usar modelos de Microsoft, consulte los ejemplos siguientes:
Descripción | Lenguaje | Ejemplo |
---|---|---|
Paquete de inferencia de Azure AI para C# | C# | Vínculo |
Paquete de inferencia de Azure AI para JavaScript | JavaScript | Vínculo |
Paquete de inferencia de Azure AI para Python | Pitón | Vínculo |
LangChain | Pitón | Vínculo |
Llama-Index | Pitón | Vínculo |
Consulte la colección de modelos de Microsoft en el catálogo de modelos de Azure AI.
Mistral IA
IA de Mistral ofrece dos categorías de modelos, es decir:
- Modelos Premium: incluyen modelos Mistral Large, Mistral Small, Mistral-OCR-2503, Mistral Medium 3 (25.05) y Ministrol 3B, y están disponibles como API sin servidor con facturación basada en tokens de pago por uso.
- Modelos abiertos: estos incluyen Mistral-small-2503, Codestral y Mistral Nemo (que están disponibles como API sin servidor con facturación basada en tokens de pago por uso) y Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 y Mistral-7B-v01(que están disponibles para descargar y ejecutarse en puntos de conexión administrados autohospedados).
Modelo | Tipo | Capacidades |
---|---|---|
Codestral-2501 | finalización del chat | - Entrada: Texto (262144 tokens) - Salida: texto (4.096 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Ministrol-3B | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Mistral-Nemo | finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Mistral-Large-2411 | finalización del chat | - Entrada: Texto (128000 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Mistral-large-2407 (en desuso) |
finalización del chat | - Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Mistral-Large (en desuso) |
finalización del chat | - Entrada: Texto (32768 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Mistral-medium-2505 | finalización del chat | - Entrada: texto (128 000 tokens), imagen - Salida: texto (128 000 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto, JSON |
Mistral-OCR-2503 | imagen a texto | - Entrada: imágenes o páginas PDF (1000 páginas, archivo PDF máximo de 50 MB) - Salida: texto - Llamada a herramientas: No - Formatos de respuesta: Text, JSON, Markdown |
Mistral-small-2503 | finalización del chat (con imágenes) | - Entrada: texto e imágenes (131 072 tokens), Los tokens basados en imágenes son 16px x 16px bloques de las imágenes originales - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Mistral-small | finalización del chat | - Entrada: Texto (32768 tokens) - Salida: texto (4.096 tokens) - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Consulte esta colección de modelos en el catálogo de modelos de Azure AI.
Ejemplos de inferencia: Mistral
Para obtener más ejemplos de cómo usar los modelos de Mistral, vea los ejemplos y tutoriales siguientes:
Descripción | Lenguaje | Ejemplo |
---|---|---|
Solicitud CURL | Bash | Vínculo |
Paquete de inferencia de Azure AI para C# | C# | Vínculo |
Paquete de inferencia de Azure AI para JavaScript | JavaScript | Vínculo |
Paquete de inferencia de Azure AI para Python | Pitón | Vínculo |
Solicitudes web de Python | Pitón | Vínculo |
SDK de OpenAI (experimental) | Pitón | Mistral - Ejemplo de SDK de OpenAI |
LangChain | Pitón | Ejemplo Mistral: LangChain |
Mistral IA | Pitón | Mistral: ejemplo de IA de Mistral |
LiteLLM | Pitón | Mistral - Ejemplo de LiteLLM |
Nixtla
TimeGEN-1 de Nixtla es un modelo de previsión previamente entrenado generativo y detección de anomalías para los datos de series temporales. TimeGEN-1 puede producir previsiones precisas para nuevas series temporales sin entrenamiento, usando solo valores históricos y covariantes exógenos como entradas.
Para realizar la inferencia, TimeGEN-1 requiere que use la API de inferencia personalizada de Nixtla.
Modelo | Tipo | Capacidades | API de inferencia |
---|---|---|---|
TimeGEN-1 | Previsión | - Entrada: Datos de serie temporal como JSON o dataframes (con compatibilidad con la entrada multivariante) - Salida: Datos de serie temporal como JSON - Llamada a herramientas: No - Formatos de respuesta: JSON |
Cliente de pronóstico para interactuar con la API de Nixtla |
Cálculo del número de tokens necesarios
Antes de crear una implementación de TimeGEN-1, resulta útil calcular el número de tokens que planea consumir y que se le facture. Un token corresponde a un punto de datos del conjunto de datos de entrada o del conjunto de datos de salida.
Supongamos que tiene el siguiente conjunto de datos de serie temporal de entrada:
Identificador_único | Marca de tiempo | Variable de destino | Variable exógenas 1 | Variable exógenas 2 |
---|---|---|---|---|
SER | 2016-10-22 00:00:00 | 70.00 | 49593.0 | 57253,0 |
SER | 2016-10-22 01:00:00 | 37.10 | 46073.0 | 51887,0 |
Para determinar el número de tokens, multiplique el número de filas (en este ejemplo, dos) y el número de columnas usadas para la previsión, sin contar las columnas unique_id y de marca de tiempo (en este ejemplo, tres) para obtener un total de seis tokens.
Dado el siguiente conjunto de datos de salida:
Identificador_único | Marca de tiempo | Variable objetivo prevista |
---|---|---|
SER | 2016-10-22 02:00:00 | 46.57 |
SER | 2016-10-22 03:00:00 | 48.57 |
También puede determinar el número de tokens si cuenta el número de puntos de datos devueltos después de la previsión de datos. En este ejemplo, el número de tokens es dos.
Cálculo de los precios en función de los tokens
Hay cuatro medidores de precios que determinan el precio que paga. Estos medidores son los siguientes:
Medidor de precios | Descripción |
---|---|
paygo-inference-input-tokens | Costos asociados a los tokens usados como entrada para la inferencia cuando finetune_steps = 0 |
paygo-inference-output-tokens | Costos asociados a los tokens usados como salida para la inferencia cuando finetune_steps = 0 |
paygo-finetuned-model-inference-input-tokens | Costos asociados a los tokens usados como entrada para la inferencia cuando finetune_steps> 0 |
paygo-finetuned-model-inference-output-tokens | Costos asociados a los tokens usados como salida para la inferencia cuando finetune_steps> 0 |
Consulte la colección de modelos de Nixtla en el catálogo de modelos de Azure AI.
NTT DATA
tsuzumi es un transformador optimizado para lenguaje autoregresivo. Las versiones optimizadas usan el ajuste fino supervisado (SFT). tsuzumi controla tanto el japonés como el inglés con alta eficiencia.
Modelo | Tipo | Capacidades |
---|---|---|
tsuzumi-7b | finalización del chat | - Entrada: Texto (8192 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Stability AI
La colección Stability AI de modelos de generación de imágenes incluye Stable Image Core, Stable Image Ultra y Stable Diffusion 3.5 Large. Stable Diffusion 3.5 Large permite una entrada de imagen y texto.
Modelo | Tipo | Capacidades |
---|---|---|
Stable Diffusion 3.5 Large | Generación de imágenes | - Entrada: texto e imagen (1000 tokens y 1 imagen) - Salida: 1 imagen - Llamada a herramientas: No - Formatos de respuesta: Imagen (PNG y JPG) |
Núcleo de imagen estable | Generación de imágenes | - Entrada: Texto (1000 tokens) - Salida: 1 imagen - Llamada a herramientas: No - Formatos de respuesta: Imagen (PNG y JPG) |
Imagen estable Ultra | Generación de imágenes | - Entrada: Texto (1000 tokens) - Salida: 1 imagen - Llamada a herramientas: No - Formatos de respuesta: Imagen (PNG y JPG) |
Ejemplos de inferencia: Inteligencia artificial de estabilidad
Los modelos de inteligencia artificial de estabilidad implementados en implementaciones estándar implementan la API de inferencia de modelos de Azure AI en la ruta /image/generations
.
Para obtener ejemplos de cómo usar modelos de inteligencia artificial de estabilidad, consulte los ejemplos siguientes:
- Uso del SDK de OpenAI con modelos de inteligencia artificial de estabilidad para las solicitudes de texto a imágenes
- Usar la biblioteca de solicitudes con modelos de inteligencia artificial de estabilidad para las solicitudes de texto a imágenes
- Uso de la biblioteca Requests con Stable Diffusion 3.5 Large para solicitudes de imagen a imagen
- Ejemplo de una respuesta de generación de imágenes totalmente codificada