Partager via


Modèles Azure AI Foundry disponibles pour le déploiement standard

Le catalogue de modèles Azure AI offre une grande sélection de modèles Azure AI Foundry à partir d’un large éventail de fournisseurs. Vous avez différentes options pour déployer des modèles à partir du catalogue de modèles. Cet article répertorie les modèles Azure AI Foundry qui peuvent être déployés via le déploiement standard. Pour certains de ces modèles, vous pouvez également les héberger sur votre infrastructure pour le déploiement via le calcul managé.

Important

Les modèles en préversion comportent la mention préversion sur leur carte de modèle dans le catalogue de modèles.

Pour effectuer une inférence avec les modèles, certains modèles, tels que TimeGEN-1 de Nixtla et la réorganisation de Cohere, nécessitent l'utilisation d'API personnalisées des fournisseurs de modèles. D’autres prennent en charge l’inférence à l’aide de l’API d’inférence de modèle. Vous trouverez plus d’informations sur les modèles individuels en examinant leurs cartes de modèle dans le catalogue de modèles pour le portail Azure AI Foundry.

Animation montrant la section catalogue de modèles Azure AI Foundry et les modèles disponibles.

Laboratoires AI21

La famille de modèles Jamba est un grand modèle de langage (LLM) produit en série basé sur Mamba d’AI21, qui utilise l’architecture hybride Mamba-Transformer d’AI21. Il s’agit d’une version paramétrée par des instructions du modèle SSM (State Space Model) Jamba Transformer hybride structuré d’AI21. Les modèles de famille Jamba sont conçus pour une utilisation commerciale fiable en ce qui concerne la qualité et la performance.

Modèle Type Capacités
AI21-Jamba-1.5-Mini chat-completion - Entrée : texte (262 144 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Oui
- Formats de réponse : Texte, JSON, sorties structurées
AI21-Jamba-1.5-Large chat-completion - Entrée : texte (262 144 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Oui
- Formats de réponse : Texte, JSON, sorties structurées

Voir cette collection de modèles dans le portail Azure AI Foundry.

Azure OpenAI

Azure OpenAI dans Foundry Models offre un ensemble diversifié de modèles avec différentes fonctionnalités et points de prix. Ces modèles comprennent les éléments suivants :

  • Modèles sophistiqués conçus pour traiter des tâches de raisonnement et de résolution de problèmes avec un focus et une capacité accrus
  • Modèles qui peuvent comprendre et générer du langage naturel et du code
  • Modèles capables de transcrire et traduire la parole en texte
Modèle Type Capacités
o3-mini chat-completion - Entrée : texte et image (200 000 jetons)
- Sortie : texte (100 000 jetons)
- Appel de l’outil : Oui
- Formats de réponse : Texte, JSON, sorties structurées
o1 complétion de chat (avec des images) - Entrée : texte et image (200 000 jetons)
- Sortie : texte (100 000 jetons)
- Appel de l’outil : Oui
- Formats de réponse : Texte, JSON, sorties structurées
o1-preview chat-completion - Entrée : texte (128 000 jetons)
- Sortie : texte (32 768 unités)
- Appel de l’outil : Oui
- Formats de réponse : Texte, JSON, sorties structurées
o1-mini chat-completion - Entrée : texte (128 000 jetons)
- Sortie : texte (65 536 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
gpt-4o-realtime-preview temps réel - Entrée : contrôle, texte et audio (131 072 jetons)
- Sortie : texte et audio (16 384 jetons)
- Appel de l’outil : Oui
- Formats de réponse: Texte, JSON
gpt-4o achèvement de chat (avec contenu image et audio) - Entrée : texte, image et audio (131 072 jetons)
- Sortie : texte (16 384 jetons)
- Appel de l’outil : Oui
- Formats de réponse : Texte, JSON, sorties structurées
gpt-4o-mini achèvement de chat (avec contenu image et audio) - Entrée : texte, image et audio (131 072 jetons)
- Sortie : texte (16 384 jetons)
- Appel de l’outil : Oui
- Formats de réponse : Texte, JSON, sorties structurées
text-embedding-3-large intégrations - Entrée : texte (8 191 jetons)
- Sortie : Vecteur (3 072 dim.)
text-embedding-3-small intégrations - Entrée : texte (8 191 jetons)
- Sortie : Vecteur (1 536 dim.)

Voir cette collection de modèles dans le portail Azure AI Foundry.

Cohérer

La famille de modèles Cohere inclut divers modèles optimisés pour différents cas d’usage, notamment le reclassement, les complétions de conversation et les modèles d’incorporations.

Commande Cohere et incorporation

Le tableau suivant répertorie les modèles Cohere que vous pouvez inférer via l’API d’inférence de modèle.

Modèle Type Capacités
Cohere-command-A chat-completion - Entrée : texte (256 000 jetons)
- Sortie : texte (8 000 jetons)
- Appel de l’outil : Oui
- Formats de réponse : Texte
Cohere-command-r-plus-08-2024 chat-completion - Entrée : texte (131 072 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Oui
- Formats de réponse: Texte, JSON
Cohere-command-r-08-2024 chat-completion - Entrée : texte (131 072 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Oui
- Formats de réponse: Texte, JSON
Cohere-command-r-plus
(déconseillé)
chat-completion - Entrée : texte (131 072 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Oui
- Formats de réponse: Texte, JSON
Cohere-command-r
(déconseillé)
chat-completion - Entrée : texte (131 072 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Oui
- Formats de réponse: Texte, JSON
Cohere-embed-v-4 intégrations
incorporations d’images
- Entrée : image, texte
- Sortie : image, texte (128 000 jetons)
- Appel de l’outil : Oui
- Formats de réponse : image, texte
Cohere-embed-v3-english intégrations
incorporations d’images
- Entrée : texte (512 jetons)
- Sortie : Vecteur (1 024 dim.)
Cohere-embed-v3-multilingue intégrations
incorporations d’images
- Entrée : texte (512 jetons)
- Sortie : Vecteur (1 024 dim.)

Exemples d'inférence : Commande Cohere et intégration

Pour plus d’exemples d’utilisation de modèles Cohere, consultez les exemples suivants :

Descriptif Langue Échantillon
Requêtes web Bash Command-RCommand-R+
cohere-embed.ipynb
Package d’inférence Azure AI pour C# C# Lien
Package Azure AI Inference pour JavaScript JavaScript Lien
Package Azure AI Inference pour Python Python Lien
Kit de développement logiciel (SDK) OpenAI (expérimental) Python Lien
LangChain Python Lien
Kit de développement logiciel (SDK) Cohere Python Commande
Incorporer
LiteLLM SDK Python Lien

Génération augmentée par récupération (RAG) et exemples d'utilisation d'outils : commande Cohere et intégration

Descriptif Paquets Échantillon
Créer un index vectoriel de recherche de similarité Facebook IA (FAISS) local à l’aide d’incorporations Cohere - Langchain langchain, langchain_cohere cohere_faiss_langchain_embed.ipynb
Utiliser Cohere Command R/R+ pour répondre aux questions des données dans l’index vectoriel FAISS local - Langchain langchain, langchain_cohere command_faiss_langchain.ipynb
Utiliser Cohere Command R/R+ pour répondre aux questions des données dans l’index vectoriel de recherche IA - Langchain langchain, langchain_cohere cohere-aisearch-langchain-rag.ipynb
Utiliser Cohere Command R/R+ pour répondre aux questions des données dans l’index vectoriel de recherche IA - Kit de développement logiciel (SDK) Cohere cohere, azure_search_documents cohere-aisearch-rag.ipynb
Appel de fonction de l'outil Command R+, utilisant LangChain coherelangchainlangchain_cohere command_tools-langchain.ipynb

Reclasser Cohere

Le tableau suivant répertorie les modèles de reclassement Cohere. Pour effectuer une inférence avec ces modèles de reclassement, vous devez utiliser les API personnalisées de Cohere répertoriées dans le tableau.

Modèle Type API d’inférence
Cohere-rerank-v3.5 reclassement
classification de texte
API v2/rerank de Cohere
Cohere-rerank-v3-english
(déconseillé)
reclassement
classification de texte
API v2/rerank de Cohere
API v1/reclassement de Cohere
Cohere-rerank-v3-multilingual
(déconseillé)
reclassement
classification de texte
API v2/rerank de Cohere
API v1/reclassement de Cohere

Tarification des modèles de reclassement Cohere

Les requêtes, qui ne doivent pas être confondues avec la requête d’un utilisateur, sont un compteur de tarification qui fait référence au coût associé aux jetons utilisés comme entrée pour l’inférence d’un modèle Cohere Rerank. Cohere compte une seule unité de recherche sous forme de requête avec jusqu’à 100 documents à classer. Documents de plus de 500 jetons (pour Cohere-rerank-v3.5) ou de plus de 4096 jetons (pour Cohere-rerank-v3-English et Cohere-rerank-v3-multilingue), y compris la longueur de la requête de recherche, sont divisés en plusieurs blocs, chaque bloc étant considéré comme un document unique.

Consultez la collection de modèles Cohere dans le portail Azure AI Foundry.

Core42

Core42 inclut des LLM bilingues autorégressifs pour l’arabe et l’anglais avec des fonctionnalités sophistiquées en arabe.

Modèle Type Capacités
jais-30b-chat chat-completion - Entrée : texte (8 192 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Oui
- Formats de réponse: Texte, JSON

Voir cette collection de modèles dans le portail Azure AI Foundry.

Exemples d’inférence : Core42

Pour plus d’exemples d’utilisation de modèles Jais, consultez les exemples suivants :

Descriptif Langue Échantillon
Package d’inférence Azure AI pour C# C# Lien
Package Azure AI Inference pour JavaScript JavaScript Lien
Package Azure AI Inference pour Python Python Lien

DeepSeek

La famille de modèles DeepSeek comprend DeepSeek-R1, qui excelle dans les tâches de raisonnement à l’aide d’un processus de formation pas à pas, tel que le langage, le raisonnement scientifique et les tâches de codage, DeepSeek-V3-0324, un modèle de langage MoE (Mix-of-Experts), etc.

Modèle Type Capacités
DeepSeek-R1-0528
saisie semi-automatique de conversation avec le contenu de raisonnement - Entrée : texte (163 840 jetons)
- Sortie : texte (163 840 jetons)
- Langues :en et zh
- Appel de l’outil : Non
- Formats de réponse : Texte
DeekSeek-V3-0324 chat-completion - Entrée : texte (131 072 jetons)
- Sortie : (131 072 jetons)
- Appel de l’outil : Non
- Formats de réponse: Texte, JSON
DeepSeek-V3
(Héritage)
chat-completion - Entrée : texte (131 072 jetons)
- Sortie : texte (131 072 jetons)
- Appel de l’outil : Non
- Formats de réponse: Texte, JSON
DeepSeek-R1 saisie semi-automatique de conversation avec le contenu de raisonnement - Entrée : texte (163 840 jetons)
- Sortie : texte (163 840 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte.

Pour obtenir un didacticiel sur DeepSeek-R1, consultez Tutoriel : Bien démarrer avec le modèle de raisonnement DeepSeek-R1 dans les modèles Foundry.

Voir cette collection de modèles dans le portail Azure AI Foundry.

Exemples d’inférence : DeepSeek

Pour plus d’exemples d’utilisation de modèles DeepSeek, consultez les exemples suivants :

Descriptif Langue Échantillon
Package Azure AI Inference pour Python Python Lien
Package Azure AI Inference pour JavaScript JavaScript Lien
Package d’inférence Azure AI pour C# C# Lien
Package d’inférence Azure AI pour Java Java Lien

Meta

Les modèles et outils Meta Llama font partie d’une collection de modèles de raisonnement de texte et d’image d’IA générative préentraînés et affinés. La plage de modèles Meta est mise à l’échelle pour inclure :

  • Des petits modèles de langage (SLM) tels que les modèles 1B et 3B Base et Instruct pour une inférence sur appareil et en périphérie
  • Des grands modèles de langage (LLM) de taille moyenne tels que les modèles 7B, 8B et 70B Base et Instruct
  • Des modèles de haut niveau de performance tels que Meta Llama 3.1-405B Instruct pour des cas d’usage tels que la génération de données synthétiques et la distillation.
  • Des modèles multimodaux performants en mode natif, Llama 4 Scout et Llama 4 Maverick, tirent parti d’une architecture de mélange d’experts pour offrir des performances de pointe dans le texte et la compréhension de l’image.
Modèle Type Capacités
Llama-4-Scout-17B-16E-Instruct chat-completion - Entrée : texte et image (128 000 jetons)
- Sortie : texte (8 192 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Llama 4-Maverick-17B-128E-Instruct-FP8 chat-completion - Entrée : texte et image (128 000 jetons)
- Sortie : texte (8 192 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Llama-3.3-70B-Instruct chat-completion - Entrée : texte (128 000 jetons)
- Sortie : texte (8 192 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Llama-3.2-90B-Vision-Instruct complétion de chat (avec des images) - Entrée : texte et image (128 000 jetons)
- Sortie : texte (8 192 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Llama-3.2-11B-Vision-Instruct complétion de chat (avec des images) - Entrée : texte et image (128 000 jetons)
- Sortie : texte (8 192 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Meta-Llama-3.1-8B-Instruct chat-completion - Entrée : texte (131 072 jetons)
- Sortie : texte (8 192 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Meta-Llama-3.1-405B-Instruct chat-completion - Entrée : texte (131 072 jetons)
- Sortie : texte (8 192 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Meta-Llama-3.1-70B-Instruct (déconseillé) chat-completion - Entrée : texte (131 072 jetons)
- Sortie : texte (8 192 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Meta-Llama-3-8B-Instruct (déconseillé) chat-completion - Entrée : texte (8 192 jetons)
- Sortie : texte (8 192 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Meta-Llama-3-70B-Instruct (déconseillé) chat-completion - Entrée : texte (8 192 jetons)
- Sortie : texte (8 192 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte

Voir cette collection de modèles dans le portail Azure AI Foundry.

Exemples d’inférence : Meta Llama

Pour plus d’exemples d’utilisation des modèles Meta Llama, consultez les exemples suivants :

Descriptif Langue Échantillon
Requête CURL Bash Lien
Package d’inférence Azure AI pour C# C# Lien
Package Azure AI Inference pour JavaScript JavaScript Lien
Package Azure AI Inference pour Python Python Lien
Requêtes Web Python Python Lien
Kit de développement logiciel (SDK) OpenAI (expérimental) Python Lien
LangChain Python Lien
LiteLLM Python Lien

Microsoft

Les modèles Microsoft incluent différents groupes de modèles tels que les modèles MAI, les modèles Phi, les modèles IA de santé, etc. Pour afficher tous les modèles Microsoft disponibles, consultez la collection de modèles Microsoft dans le portail Azure AI Foundry.

Modèle Type Capacités
MAI-DS-R1 saisie semi-automatique de conversation avec le contenu de raisonnement - Entrée : texte (163 840 jetons)
- Sortie : texte (163 840 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte.
Phi-4-reasoning saisie semi-automatique de conversation avec le contenu de raisonnement - Entrée : texte (32768 unités)
- Sortie : texte (32768 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Phi-4-mini-reasoning saisie semi-automatique de conversation avec le contenu de raisonnement - Entrée : texte (128 000 jetons)
- Sortie : texte (128 000 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Phi-4-multimodal-instruct achèvement de chat (avec contenu image et audio) - Entrée : texte, images et audio (131 072 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Phi-4-mini-instruct chat-completion - Entrée : texte (131 072 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Phi-4 chat-completion - Entrée : texte (16 384 jetons)
- Sortie : texte (16 384 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Phi-3.5-mini-instruct chat-completion - Entrée : texte (131 072 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Phi-3.5-MoE-instruct chat-completion - Entrée : texte (131 072 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Phi-3.5-vision-instruct complétion de chat (avec des images) - Entrée : texte et image (131 072 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Phi-3-mini-128k-instruct chat-completion - Entrée : texte (131 072 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Phi-3-mini-4k-instruct chat-completion - Entrée : texte (4 096 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Phi-3-small-128k-instruct chat-completion - Entrée : texte (131 072 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Phi-3-small-8k-instruct chat-completion - Entrée : texte (131 072 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Phi-3-medium-128k-instruct chat-completion - Entrée : texte (131 072 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Phi-3-medium-4k-instruct chat-completion - Entrée : texte (4 096 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte

Exemples d’inférence : modèles Microsoft

Pour plus d’exemples d’utilisation de modèles Microsoft, consultez les exemples suivants :

Descriptif Langue Échantillon
Package d’inférence Azure AI pour C# C# Lien
Package Azure AI Inference pour JavaScript JavaScript Lien
Package Azure AI Inference pour Python Python Lien
LangChain Python Lien
Llama-Index Python Lien

Consultez la collection de modèles Microsoft dans le portail Azure AI Foundry.

Mistral AI

Mistral AI propose deux catégories de modèles, à savoir :

  • Modèles Premium : Les modèles Mistral Large, Mistral Small, Mistral-OCR-2503, Mistral Medium 3 (25.05) et Ministral 3B sont disponibles en tant qu’API serverless avec facturation basée sur les jetons de paiement à l’utilisation.
  • Modèles ouverts : Ceux-ci incluent Mistral-small-2503, Codestral et Mistral Nemo (qui sont disponibles en tant qu’API serverless avec facturation basée sur le paiement à l’utilisation) et Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 et Mistral-7B-v01(qui sont disponibles pour télécharger et exécuter sur des points de terminaison managés auto-hébergés).
Modèle Type Capacités
Codestral-2501 chat-completion - Entrée : texte (262 144 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte
Ministral-3B chat-completion - Entrée : texte (131 072 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Oui
- Formats de réponse: Texte, JSON
Mistral-Nemo chat-completion - Entrée : texte (131 072 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Oui
- Formats de réponse: Texte, JSON
Mistral-Large-2411 chat-completion - Entrée : texte (128 000 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Oui
- Formats de réponse: Texte, JSON
Mistral-large-2407
(déconseillé)
chat-completion - Entrée : texte (131 072 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Oui
- Formats de réponse: Texte, JSON
Mistral-large
(déconseillé)
chat-completion - Entrée : texte (32 768 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Oui
- Formats de réponse: Texte, JSON
Mistral-medium-2505 chat-completion - Entrée : texte (128 000 jetons), image
- Sortie : texte (128 000 jetons)
- Appel de l’outil : Non
- Formats de réponse: Texte, JSON
Mistral-OCR-2503 image en texte - Entrée : images ou pages PDF (1 000 pages, fichier PDF maximal de 50 Mo)
- Sortie : texte
- Appel de l’outil : Non
- Formats de réponse : Texte, JSON, Markdown
Mistral-small-2503 complétion de chat (avec des images) - Entrée : texte et images (131 072 jetons),
Les jetons basés sur des images sont 16px x 16px
blocs des images d’origine
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Oui
- Formats de réponse: Texte, JSON
Mistral-small chat-completion - Entrée : texte (32 768 jetons)
- Sortie : texte (4 096 jetons)
- Appel de l’outil : Oui
- Formats de réponse: Texte, JSON

Voir cette collection de modèles dans le portail Azure AI Foundry.

Exemples d’inférence : Mistral

Pour plus d’exemples sur la manière d’utiliser les modèles Mistral, consultez les exemples et didacticiels suivants :

Descriptif Langue Échantillon
Requête CURL Bash Lien
Package d’inférence Azure AI pour C# C# Lien
Package Azure AI Inference pour JavaScript JavaScript Lien
Package Azure AI Inference pour Python Python Lien
Requêtes Web Python Python Lien
Kit de développement logiciel (SDK) OpenAI (expérimental) Python Mistral - Exemple de Kit de développement logiciel (SDK) OpenAI
LangChain Python Mistral - Exemple LangChain
Mistral AI Python Mistral - Exemple d’IA Mistral
LiteLLM Python Mistral – Exemple LiteLLM

Nixtla

TimeGEN-1 de Nixtla est un modèle de prévision préentraîné et de détection des anomalies pour les données de série chronologique. TimeGEN-1 peut produire des prévisions précises pour de nouvelles séries chronologiques sans entraînement, en utilisant uniquement des valeurs historiques et des covariables exogènes comme entrées.

Pour effectuer l’inférence, TimeGEN-1 vous oblige à utiliser l’API d’inférence personnalisée de Nixtla.

Modèle Type Capacités API d’inférence
TimeGEN-1 Prévisions - Entrée: Données de série chronologique sous forme de JSON ou de dataframes (avec prise en charge des données d'entrée multivariées)
- Sortie: Données de série chronologique en tant que JSON
- Appel de l’outil : Non
- Formats de réponse : JSON
Client de prévision pour interagir avec l'API de Nixtla

Estimer le nombre de jetons nécessaires

Avant de créer un déploiement TimeGEN-1, il est utile d’estimer le nombre de jetons que vous envisagez d’utiliser et d’être facturés. Un jeton correspond à un point de données dans votre jeu de données d’entrée ou de sortie.

Prenons par exemple le jeu de données de série chronologique d’entrée suivant :

identifiant_unique Timestamp Variable cible Variable exogène 1 Variable exogène 2
BE 2016-10-22 00:00:00 70,00 49593,0 57253,0
BE 2016-10-22 01:00:00 37,10 46 073,0 51887,0

Pour déterminer le nombre de jetons, multipliez le nombre de lignes (deux dans cet exemple) par le nombre de colonnes utilisées pour la prévision (trois dans cet exemple, les colonnes unique_id et timestamp ne comptant pas) pour obtenir un total de six jetons.

Compte tenu du jeu de données de sortie suivant :

identifiant_unique Timestamp Variable cible prévue
BE 2016-10-22 02:00:00 46,57
BE 2016-10-22 03:00:00 48,57

Vous pouvez également déterminer le nombre de jetons en comptant le nombre de points de données retournés après la prévision des données. Dans cet exemple, le nombre de jetons est de deux.

Estimer la tarification en fonction des jetons

Quatre compteurs de tarification déterminent le prix que vous payez. Ces compteurs sont les suivants :

Compteur de tarification Descriptif
paygo-inference-input-tokens Coûts associés aux jetons utilisés comme entrée pour l’inférence lorsque finetune_steps = 0
paygo-inference-output-tokens Coûts associés aux jetons utilisés comme sortie pour l’inférence lorsque finetune_steps = 0
paygo-finetuned-model-inference-input-tokens Coûts associés aux jetons utilisés comme entrée pour l’inférence lorsque finetune_steps> 0
paygo-finetuned-model-inference-output-tokens Coûts associés aux jetons utilisés comme sortie pour l’inférence lorsque finetune_steps> 0

Consultez la collection de modèles Nixtla dans le portail Azure AI Foundry.

NTT DATA

tsuzumi est un transformateur optimisé en langage autorégressif. Les versions paramétrées utilisent le réglage précis supervisé (SFT). tsuzumi gère à la fois le japonais et l’anglais avec une efficacité élevée.

Modèle Type Capacités
tsuzumi-7b chat-completion - Entrée : texte (8 192 jetons)
- Sortie : texte (8 192 jetons)
- Appel de l’outil : Non
- Formats de réponse : Texte

IA de stabilité

La collection de modèles de génération d’images de Stability AI inclut Stable Image Core, Stable Image Ultra, et Stable Diffusion 3.5 Large. Stable Diffusion 3.5 Large permet une entrée d'image et de texte.

Modèle Type Capacités
Diffusion stable 3.5 Large Génération d’images - Entrée : texte et image (1 000 jetons et 1 image)
- Sortie : 1 image
- Appel de l’outil : Non
- Formats de réponse : Image (PNG et JPG)
Cœur d’image stable Génération d’images - Entrée : texte (1 000 jetons)
- Sortie : 1 image
- Appel de l’outil : Non
- Formats de réponse : Image (PNG et JPG)
Stable Image Ultra Génération d’images - Entrée : texte (1 000 jetons)
- Sortie : 1 image
- Appel de l’outil : Non
- Formats de réponse : Image (PNG et JPG)

xAI

Les modèles Grok 3 et Grok 3 Mini de xAI sont conçus pour exceller dans différents domaines d’entreprise. Grok 3, un modèle sans raisonnement préentraîné par le centre de données Colossus, est adapté aux cas d’usage métier tels que l’extraction de données, la programmation et la synthèse de texte, avec des capacités exceptionnelles à suivre des instructions. Il prend en charge une fenêtre de contexte de 131 072 jetons, ce qui lui permet de gérer des entrées étendues tout en conservant la cohérence et la profondeur, et est particulièrement efficace pour établir des connexions entre les domaines et les langues. En revanche, Grok 3 Mini est un modèle de raisonnement léger formé pour aborder les problèmes agentiques, de codage, mathématiques et de science profonde avec le calcul au moment du test. Il prend également en charge une fenêtre de contexte de 131 072 tokens pour comprendre les codebases et les documents d'entreprise, et excelle dans l'utilisation d'outils pour résoudre des problèmes logiques complexes dans des environnements nouveaux, fournissant des traces de raisonnement brutes pour que les utilisateurs puissent les inspecter avec des budgets de réflexion ajustables.

Modèle Type Capacités
grok-3 chat-completion - Entrée : texte (131 072 jetons)
- Sortie : texte (131 072 jetons)
- Langues :en
- Appel d’outils : oui
- Formats de réponse : texte
grok-3-mini chat-completion - Entrée : texte (131 072 jetons)
- Sortie : texte (131 072 jetons)
- Langues :en
- Appel d’outils : oui
- Formats de réponse : texte

Exemples d’inférence : Stability AI

Les modèles IA de stabilité déployés via le déploiement standard implémentent l’API d’inférence de modèle sur l’itinéraire /image/generations. Pour obtenir des exemples d’utilisation des modèles IA de stabilité, consultez les exemples suivants :