Partager via


Démarrage rapide : Prise en main d’Azure AI Foundry

Dans ce guide de démarrage rapide, nous allons vous guider dans la configuration de votre environnement de développement local avec le Kit de développement logiciel (SDK) Azure AI Foundry . Nous écrivons une invite, nous l’exécutons dans le cadre de votre code d’application, suivons les appels LLM en cours et exécutons une évaluation de base sur les sorties du LLM.

Conseil / Astuce

Le reste de cet article montre comment utiliser un projet hub. Sélectionnez Le projet Foundry en haut de cet article si vous souhaitez utiliser un projet Foundry à la place.

Conditions préalables

  • Un abonnement Azure. Si vous n’avez pas d’abonnement Azure, créez un compte gratuit avant de commencer.
  • Un projet basé sur un centre. Si vous débutez avec Azure AI Foundry et que vous n’avez pas de projet hub, sélectionnez Le projet Foundry en haut de cet article pour utiliser un projet Foundry à la place.

Configurer votre environnement de développement

  1. configurer votre environnement de développement

  2. Veillez à installer ces packages :

    pip install azure-ai-projects azure-ai-inference azure-identity 
    

Déployer un modèle

Conseil / Astuce

Étant donné que vous pouvez personnaliser le volet gauche dans le portail Azure AI Foundry, vous pouvez voir différents éléments que ceux indiqués dans ces étapes. Si vous ne voyez pas ce que vous recherchez, sélectionnez ... Plus en bas du volet gauche.

  1. Connectez-vous à Azure AI Foundry.

  2. Sélectionnez un projet basé sur un hub. Si vous n’avez pas de projet hub, sélectionnez Le projet Foundry en haut de cet article pour utiliser un projet Foundry à la place.

  3. Sélectionnez Catalogue de modèles dans le volet gauche.

  4. Sélectionnez le modèle gpt-4o-mini dans la liste des modèles. Vous pouvez utiliser la barre de recherche pour la trouver.

  5. Dans la page détails du modèle, sélectionnez Déployer.

    Capture d’écran de la page détails du modèle avec un bouton pour déployer le modèle.

  6. Laissez par défaut le nom de déploiement . Sélectionnez Déployer.

  7. Une fois le modèle déployé, sélectionnez Ouvrir dans le terrain de jeu pour tester votre modèle.

Créer votre application de conversation

Créez un fichier nommé chat.py. Copiez et collez le code suivant dans celui-ci.

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

Insérer votre chaîne de connexion

Votre chaîne de connexion de projet est nécessaire pour appeler Azure OpenAI dans Azure AI Foundry Models à partir de votre code.

Recherchez votre chaîne de connexion dans le projet Azure AI Foundry que vous avez créé dans le guide de démarrage rapide sur le terrain de jeu Azure AI Foundry. Ouvrez le projet, puis recherchez la chaîne de connexion dans la page vue d’ensemble Vue d’ensemble.

Capture d’écran montrant la page vue d’ensemble d’un projet et l’emplacement de la chaîne de connexion.

Copiez la chaîne de connexion et remplacez <your-connection-string-goes-here> dans le fichier chat.py.

Exécuter votre script de conversation

Exécutez le script pour afficher la réponse du modèle.

python chat.py

Générer une invite à partir d’une entrée utilisateur et d’un modèle d’invite

Le script utilise des messages d’entrée et de sortie codés en dur. Dans une application réelle, vous allez prendre l’entrée d’une application cliente, générer un message système avec des instructions internes au modèle, puis appeler le LLM avec tous les messages.

Nous allons modifier le script pour prendre l’entrée d’une application cliente et générer un message système à l’aide d’un modèle d’invite.

  1. Supprimez la dernière ligne du script qui imprime une réponse.

  2. À présent, définissez une fonction get_chat_response qui accepte les messages et le contexte, génère un message système à l’aide d’un modèle d’invite et appelle un modèle. Ajoutez ce code à votre fichier chat.py existant :

    from azure.ai.inference.prompts import PromptTemplate
    
    
    def get_chat_response(messages, context):
        # create a prompt template from an inline string (using mustache syntax)
        prompt_template = PromptTemplate.from_string(
            prompt_template="""
            system:
            You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig? Refer to the user by their first name, try to work their last name into a pun.
    
            The user's first name is {{first_name}} and their last name is {{last_name}}.
            """
        )
    
        # generate system message from the template, passing in the context as variables
        system_message = prompt_template.create_messages(data=context)
    
        # add the prompt messages to the user messages
        return chat.complete(
            model="gpt-4o-mini",
            messages=system_message + messages,
            temperature=1,
            frequency_penalty=0.5,
            presence_penalty=0.5,
        )
    

    Remarque

    Le modèle d’invite utilise le format mustache.

    La fonction get_chat_response peut être facilement ajoutée en tant qu’itinéraire vers une application FastAPI ou Flask pour activer l’appel de cette fonction à partir d’une application web frontale.

  3. À présent, simulez la transmission d’informations d’une application frontale à cette fonction. Ajoutez le code suivant à la fin de votre fichier chat.py. N’hésitez pas à jouer avec le message et à ajouter votre propre nom.

    if __name__ == "__main__":
        response = get_chat_response(
            messages=[{"role": "user", "content": "what city has the best food in the world?"}],
            context={"first_name": "Jessie", "last_name": "Irwin"},
        )
        print(response.choices[0].message.content)
    

Exécutez le script révisé pour voir la réponse du modèle avec cette nouvelle entrée.

python chat.py

Étape suivante

Dans ce guide de démarrage rapide, vous utilisez Azure AI Foundry pour :

  • Création d’un projet
  • Déployer un modèle
  • Exécuter une saisie semi-automatique de conversation
  • Créer et exécuter un agent
  • Charger des fichiers dans l’agent

Le SDK Azure AI Foundry est disponible dans plusieurs langages, notamment Python, Java, JavaScript et C#. Ce guide de démarrage rapide fournit des instructions pour chacune de ces langues.

Conseil / Astuce

Le reste de cet article montre comment utiliser un projet Foundry. Sélectionnez un projet hub en haut de cet article si vous souhaitez utiliser un projet hub à la place.

Conditions préalables

  • Un abonnement Azure. Si vous n’avez pas d’abonnement Azure, créez un compte gratuit avant de commencer.
  • Vous devez être propriétaire de l’abonnement pour recevoir le contrôle d’accès approprié nécessaire pour utiliser votre projet.

Important

Les éléments marqués (aperçu) dans cet article sont actuellement en aperçu public. Cette version préliminaire est fournie sans contrat de niveau de service, et nous la déconseillons pour les charges de travail en production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’utilisation supplémentaires pour les préversions de Microsoft Azure.

Commencer par un projet et un modèle

  1. Connectez-vous au portail Azure AI Foundry.

  2. Dans la page d’accueil, recherchez, puis sélectionnez le modèle gpt-4o .

    Capture d’écran montrant comment commencer à créer un agent dans le portail Azure AI Foundry.

  3. Dans la page détails du modèle, sélectionnez Utiliser ce modèle.

  4. Renseignez un nom à utiliser pour votre projet, puis sélectionnez Créer.

  5. Une fois vos ressources créées, vous êtes dans l'espace de discussion.

Configurer votre environnement

Aucune installation n’est nécessaire pour utiliser le portail Azure AI Foundry.

Exécuter une saisie semi-automatique de conversation

Les achèvements de conversation sont le bloc de construction de base des applications IA. À l’aide des complétions de chat, vous pouvez envoyer une liste de messages et obtenir une réponse du modèle.

  1. Dans le terrain de jeu de conversation, renseignez l’invite et sélectionnez le bouton Envoyer .
  2. Le modèle retourne une réponse dans le volet Réponse .

Discuter avec un agent

Les agents disposent de fonctionnalités puissantes grâce à l’utilisation d’outils. Commencez par discuter avec un agent.

Lorsque vous êtes prêt à essayer un agent, un agent par défaut est créé pour vous. Pour discuter avec cet agent :

  1. Dans le volet gauche, sélectionnez Terrains de jeux.
  2. Dans la carte de terrain de jeu Agents , sélectionnez Allons-y.
  3. Ajoutez des instructions, telles que « Vous êtes un assistant d’écriture utile ».
  4. Commencez à discuter avec votre agent, par exemple « Écrire un poème sur les fleurs ».

Ajouter des fichiers à l’agent

Nous allons maintenant ajouter un outil de recherche de fichiers qui nous permet d’effectuer une récupération des connaissances.

  1. Dans le volet Configuration de votre agent, faites défiler vers le bas si nécessaire pour trouver Connaissances.
  2. Sélectionnez Ajouter.
  3. Sélectionnez Fichiers pour charger le fichier product_info_1.md .
  4. Sélectionnez Sélectionner des fichiers locaux sous Ajouter des fichiers.
  5. Sélectionnez Charger et enregistrer.
  6. Modifiez les instructions de vos agents, telles que « Vous êtes un assistant utile et pouvez rechercher des informations à partir de fichiers chargés ».
  7. Posez une question, telle que « Bonjour, quels produits Contoso connaissez-vous ? »
  8. Pour ajouter d’autres fichiers, sélectionnez ... dans AgentVectorStore, puis sélectionnez Gérer.

Nettoyer les ressources

Si vous n’en avez plus besoin, supprimez le groupe de ressources associé à votre projet.

Dans le portail Azure AI Foundry, sélectionnez le nom de votre projet dans le coin supérieur droit. Sélectionnez ensuite le lien du groupe de ressources pour l’ouvrir dans le portail Azure. Sélectionnez le groupe de ressources, puis sélectionnez Supprimer. Vérifiez que vous souhaitez supprimer le groupe de ressources.

Vue d’ensemble de la bibliothèque de client Azure AI Foundry