Partager via


Démarrage rapide : Prise en main de GPT-35-Turbo et GPT-4 avec le service Azure OpenAI dans IntelliJ

Cet article explique comment bien démarrer avec Azure OpenAI Service dans IntelliJ IDEA. Il vous montre comment utiliser des modèles de conversation tels que GPT-3.5-Turbo et GPT-4 pour tester et tester différents paramètres et sources de données.

Prérequis

Installer et se connecter

Les étapes suivantes vous guident tout au long du processus de connexion Azure dans votre environnement de développement IntelliJ :

  1. Si le plug-in n’est pas installé, consultez Azure Shared Computer Toolkit pour IntelliJ.

  2. Pour vous connecter à votre compte Azure, accédez à la barre latérale gauche d’Azure Explorer , puis sélectionnez l’icône de connexion Azure. Vous pouvez également accéder à Outils, développer Azure, puis sélectionner Connexion Azure.

    Screenshot of the IntelliJ IDEA with the Azure Sign In button highlighted.

  3. Dans la fenêtre de connexion Azure, sélectionnez OAuth 2.0, puis connectez-vous. Pour d’autres options de connexion, consultez Instructions de connexion pour Azure Toolkit for IntelliJ.

  4. Dans le navigateur, connectez-vous avec votre compte qui a accès à votre ressource OpenAI, puis revenez à IntelliJ. Dans la boîte de dialogue Sélectionner des abonnements , sélectionnez l’abonnement que vous souhaitez utiliser, puis sélectionnez Sélectionner.

Créer et déployer une ressource Azure OpenAI Service

  1. Après le flux de travail de connexion, cliquez avec le bouton droit sur l’élément Azure OpenAI dans Azure Explorer, puis sélectionnez Créer un service Azure OpenAI.

  2. Dans la boîte de dialogue Créer un service Azure OpenAI, spécifiez les informations suivantes, puis sélectionnez OK :

    • Nom : nom descriptif de votre ressource Azure OpenAI Service, telle que MyOpenAIResource. Ce nom est également votre nom de domaine personnalisé dans votre point de terminaison. Votre nom de ressource ne peut inclure que des caractères alphanumériques et des traits d’union, et ne peut pas commencer ou se terminer par un trait d’union.
    • Région : emplacement de votre instance. Certains modèles sont disponibles uniquement dans des régions spécifiques. Pour plus d’informations, consultez Gérer les Modèles Azure OpenAI Service.
    • Référence SKU : Les ressources Azure OpenAI standard sont facturées en fonction de l’utilisation des jetons. Pour plus d’informations, consultez la tarification du service Azure OpenAI.
  3. Avant de pouvoir utiliser les achèvements de conversation, vous devez déployer un modèle. Cliquez avec le bouton droit sur votre instance Azure OpenAI, puis sélectionnez Créer un nouveau déploiement. Dans la boîte de dialogue Créer un déploiement Azure OpenAI, spécifiez les informations suivantes, puis sélectionnez OK :

    • Nom du déploiement : choisissez un nom soigneusement. Le nom du déploiement est utilisé dans votre code pour appeler le modèle à l’aide des bibliothèques clientes et les API REST.
    • Modèle : sélectionnez un modèle. La disponibilité des modèles varie selon les régions. Pour obtenir la liste des modèles disponibles par région, consultez la section Récapitulative du modèle et de la disponibilité des régions des modèles azure OpenAI Service.

Le kit de ressources affiche un message d’état lorsque le déploiement est terminé et prêt à être utilisé.

Interagir avec Azure OpenAI à l’aide d’invites et de paramètres

  1. Cliquez avec le bouton droit sur votre ressource Azure OpenAI, puis sélectionnez Ouvrir dans AI Playground.

  2. Vous pouvez commencer à explorer les fonctionnalités OpenAI via le terrain de jeu Azure OpenAI Studio Chat dans IntelliJ IDEA.

    Screenshot of the IntelliJ IDEA that shows the Chat playground overview window.

Pour déclencher la saisie semi-automatique, vous pouvez entrer du texte en tant qu’invite. Le modèle génère la saisie semi-automatique et tente de compléter votre contexte ou modèle.

Pour démarrer une session de conversation, procédez comme suit :

  1. Dans le volet de session de conversation, vous pouvez commencer par une simple invite comme celle-ci : « Je suis intéressé par l’achat d’une nouvelle Surface ». Après avoir tapé l’invite, sélectionnez Envoyer. Vous recevez une réponse similaire à l’exemple suivant :

    Great! Which Surface model are you interested in? There are several options available such as the Surface Pro, Surface Laptop, Surface Book, Surface Go, and Surface Studio. Each one has its own unique features and specifications, so it's important to choose the one that best fits your needs.
    

    Screenshot of the IntelliJ IDEA that shows the playground window with a first question and answer.

  2. Entrez une question de suivi, par exemple : « Quels modèles prennent en charge LE GPU », puis sélectionnez Envoyer. Vous recevez une réponse similaire à l’exemple suivant :

    Most Surface models come with an integrated GPU (Graphics Processing Unit), which is sufficient for basic graphics tasks such as video playback and casual gaming. However, if you're looking for more powerful graphics performance, the Surface Book 3 and the Surface Studio 2 come with dedicated GPUs. The Surface Book 3 has an NVIDIA GeForce GTX GPU, while the Surface Studio 2 has an NVIDIA GeForce GTX 1060 or 1070 GPU, depending on the configuration.
    

    Screenshot of the IntelliJ IDEA that shows the playground window with a first and second question and answer.

  3. Maintenant que vous avez une conversation de base, sélectionnez Afficher le code dans le volet et vous avez une relecture du code derrière la conversation entière jusqu’à présent. Vous pouvez voir les exemples de code basés sur le Kit de développement logiciel (SDK) Java, curl et JSON correspondant à votre session de conversation et paramètres, comme illustré dans la capture d’écran suivante :

    Screenshot of the IntelliJ IDEA that shows the Sample Code window.

  4. Vous pouvez ensuite sélectionner Copier pour prendre ce code et écrire une application pour effectuer la même tâche que celle que vous effectuez actuellement avec le terrain de jeu.

Paramètres

Vous pouvez sélectionner l’onglet Configuration pour définir les paramètres suivants :

Nom Description
Réponse maximale Définit une limite sur le nombre de jetons par réponse de modèle. L’API prend en charge un maximum de 4 096 jetons partagés entre l’invite (y compris le message système, les exemples, l’historique des messages et la requête utilisateur) et la réponse du modèle. Un jeton correspond à environ quatre caractères pour un texte typique en anglais.
Température Contrôle le caractère aléatoire. La réduction de la température signifie que le modèle produit des réponses plus répétitives et déterministes. L’augmentation de la température entraîne des réponses plus inattendues ou créatives. Essayez d’ajuster la température ou les probabilités principales, mais pas les deux.
Probabilités principales Similaire à la température, contrôle l’aléatoire mais utilise une autre méthode. L’abaissement de la valeur de probabilité supérieure réduit la sélection de jetons du modèle à des jetons similaires. L’augmentation de la valeur permet au modèle de choisir parmi les jetons avec une probabilité élevée et faible. Essayez d’ajuster la température ou les probabilités principales, mais pas les deux.
Séquences d’arrêt Met fin à la réponse du modèle à un point souhaité. La réponse du modèle se termine avant la séquence spécifiée, de sorte qu’elle ne contient pas le texte de séquence d’arrêt. Pour GPT-35-Turbo, l’utilisation de <|im_end|> garantit que la réponse du modèle ne génère pas de requête utilisateur de suivi. Vous pouvez inclure jusqu’à quatre séquences d’arrêt.
Pénalité de fréquence Réduit le risque de répéter un jeton proportionnellement en fonction de la fréquence à laquelle il apparaît dans le texte jusqu’à présent. Cette action réduit la probabilité de répéter exactement le même texte dans une réponse.
Pénalité de présence Réduit le risque de répétition d’un jeton qui apparaît dans le texte jusqu’à présent. Cela augmente la probabilité d’introduire de nouvelles rubriques dans une réponse.

Nettoyer les ressources

Une fois que vous avez terminé de tester le terrain de jeu de conversation, si vous souhaitez propre et supprimer une ressource OpenAI, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources efface également les autres ressources qui y sont associées. Procédez comme suit pour propre ressources :

  1. Pour supprimer vos ressources Azure OpenAI, accédez à la barre latérale d’Azure Explorer de gauche et recherchez l’élément Azure OpenAI.

  2. Cliquez avec le bouton droit sur le service Azure OpenAI que vous souhaitez supprimer, puis sélectionnez Supprimer.

  3. Pour supprimer votre groupe de ressources, visitez le Portail Azure et supprimez manuellement les ressources sous votre abonnement.

Étapes suivantes

Pour plus d’informations, consultez Découvrez comment utiliser les modèles GPT-35-Turbo et GPT-4.

Pour plus d’exemples, case activée le dépôt GitHub d’exemples Azure OpenAI.