Partage via


Démarrage rapide : Commencez avec Microsoft Foundry (projets du Hub) (classique)

S'applique uniquement à :Portail Foundry (classique). Cet article n’est pas disponible pour le nouveau portail Foundry. En savoir plus sur le nouveau portail.

Conseil / Astuce

Un autre guide de démarrage rapide pour les projets Foundry est disponible : Guide de démarrage rapide : Commencez avec Microsoft Foundry (projets Foundry).

Ce guide de démarrage rapide configure votre environnement local pour les projets basés sur le hub, déploie un modèle et crée un script de conversation simple tracé/évaluable.

Prerequisites

  • abonnement Azure.
  • Projet de hub existant (ou créer un). Si ce n’est pas le cas, envisagez d’utiliser un démarrage rapide de projet Foundry.

Configurer votre environnement de développement

  1. Prérequis d’installation (Python, Azure CLI, connexion).
  2. Installer des packages :
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10

Différents types de projets nécessitent des versions distinctes d'azure-ai-projects. Conservez chaque project dans son propre environnement isolé pour éviter les conflits.

Déployer un modèle

  1. Portail : Connectez-vous, ouvrez hub project.
  2. Catalogue de modèles : sélectionnez gpt-4o-mini.
  3. Utilisez ce modèle > pour accepter le nom > de déploiement par défaut Déployer.
  4. Après la réussite : ouvrez dans le terrain de jeu pour vérifier.

Créer votre application de conversation

Créez chat.py avec un exemple de code :

Conseil / Astuce

Le code utilise le Kit de développement logiciel (SDK) Azure AI Projects 1.x et est incompatible avec Azure AI Projects 2.x. Veillez à installer la version azure-ai-projects==1.0.0b10 appropriée à utiliser avec le code de cet article.

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

Insérez votre chaîne de connexion du projet à partir de la page Vue d'ensemble du projet (copiez et remplacez l'espace réservé dans le code).

Exécutez :

python chat.py

Ajouter une création de modèle de requête

Ajoutez get_chat_response à l’aide d’un modèle de moustache (voir chat-template.py exemple), puis appelez-le avec des messages utilisateur/contexte.

Réexécutez pour afficher la réponse modèle.

Nettoyer les ressources

Supprimez le déploiement ou le projet après achèvement afin d'éviter des frais.

Étape suivante

Guide de démarrage rapide : Commencez avec Foundry (projets Foundry).