Partager via


Démarrage rapide : Prise en main de GPT-35-Turbo et GPT-4 avec le service Azure OpenAI dans IntelliJ

Cet article explique comment bien démarrer avec Azure OpenAI Service dans IntelliJ IDEA. Il vous montre comment utiliser des modèles de chat tels que GPT-3.5-Turbo et GPT-4 pour tester et expérimenter avec différents paramètres et sources de données.

Conditions préalables

Installer et se connecter

Les étapes suivantes vous guident tout au long du processus de connexion Azure dans votre environnement de développement IntelliJ :

  1. Si le plug-in n’est pas installé, consultez Le Kit de ressources Azure pour IntelliJ.

  2. Pour vous connecter à votre compte Azure, accédez à la barre latérale gauche d’Azure Explorer , puis sélectionnez l’icône de connexion Azure . Vous pouvez également accéder à Outils, développer Azure, puis sélectionner Connexion Azure.

    Capture d’écran de IntelliJ IDEA avec le bouton de connexion Azure mis en surbrillance.

  3. Dans la fenêtre Connexion à Azure qui s’affiche, sélectionnez OAuth 2.0, puis Se connecter. Pour d’autres options de connexion, consultez Instructions de connexion pour Azure Toolkit for IntelliJ.

  4. Dans le navigateur, connectez-vous avec votre compte qui a accès à votre ressource OpenAI, puis revenez à IntelliJ. Dans la boîte de dialogue Sélectionner des abonnements , sélectionnez l’abonnement que vous souhaitez utiliser, puis sélectionnez Sélectionner.

Créer et déployer une ressource Azure OpenAI Service

  1. Après le flux de travail de connexion, cliquez avec le bouton droit sur l’élément Azure OpenAI dans Azure Explorer, puis sélectionnez Créer un service Azure OpenAI.

  2. Dans la boîte de dialogue Créer un service Azure OpenAI , spécifiez les informations suivantes, puis sélectionnez OK :

    • Nom : nom descriptif de votre ressource Azure OpenAI Service, telle que MyOpenAIResource. Ce nom est également votre nom de domaine personnalisé dans votre point de terminaison. Votre nom de ressource ne peut inclure que des caractères alphanumériques et des traits d’union, et ne peut pas commencer ou se terminer par un trait d’union.
    • Région : emplacement de votre instance. Certains modèles sont disponibles uniquement dans des régions spécifiques. Pour plus d’informations, consultez Modèles Azure OpenAI Service.
    • SKU : Les ressources Azure OpenAI de type standard sont facturées en fonction de l’utilisation des jetons. Pour plus d’informations, consultez la tarification du service Azure OpenAI.
  3. Avant de pouvoir utiliser les achèvements de conversation, vous devez déployer un modèle. Cliquez avec le bouton droit sur votre instance Azure OpenAI, puis sélectionnez Créer un nouveau déploiement. Dans la boîte de dialogue Créer un déploiement Azure OpenAI , spécifiez les informations suivantes, puis sélectionnez OK :

Le kit de ressources affiche un message d’état lorsque le déploiement est terminé et prêt à être utilisé.

Interagir avec Azure OpenAI à l’aide d’invites et de paramètres

  1. Cliquez avec le bouton droit sur votre ressource Azure OpenAI, puis sélectionnez Ouvrir dans AI Playground.

  2. Vous pouvez commencer à explorer les fonctionnalités OpenAI via le terrain de jeu Azure OpenAI Studio Chat dans IntelliJ IDEA.

    Capture d’écran de l’IntelliJ IDEA montrant la fenêtre vue d’ensemble du terrain de jeu de conversation.

Pour déclencher la complétion, vous pouvez entrer du texte comme élément déclencheur. Le modèle génère la saisie semi-automatique et tente de compléter votre contexte ou modèle.

Pour démarrer une session de conversation, procédez comme suit :

  1. Dans le volet de session de conversation, vous pouvez commencer par une simple invite comme celle-ci : « Je suis intéressé par l’achat d’une nouvelle Surface ». Après avoir tapé l’invite, sélectionnez Envoyer. Vous recevez une réponse similaire à l’exemple suivant :

    Great! Which Surface model are you interested in? There are several options available such as the Surface Pro, Surface Laptop, Surface Book, Surface Go, and Surface Studio. Each one has its own unique features and specifications, so it's important to choose the one that best fits your needs.
    

    Capture d’écran de l’IntelliJ IDEA montrant la fenêtre de terrain de jeu avec une première question et réponse.

  2. Entrez une question de suivi, par exemple : « Quels modèles prennent en charge LE GPU », puis sélectionnez Envoyer. Vous recevez une réponse similaire à l’exemple suivant :

    Most Surface models come with an integrated GPU (Graphics Processing Unit), which is sufficient for basic graphics tasks such as video playback and casual gaming. However, if you're looking for more powerful graphics performance, the Surface Book 3 and the Surface Studio 2 come with dedicated GPUs. The Surface Book 3 has an NVIDIA GeForce GTX GPU, while the Surface Studio 2 has an NVIDIA GeForce GTX 1060 or 1070 GPU, depending on the configuration.
    

    Capture d’écran de l’IntelliJ IDEA montrant la fenêtre de terrain de jeu avec une première et une deuxième question et réponse.

  3. Maintenant que vous avez une conversation de base, sélectionnez Afficher le code dans le volet, et vous pouvez voir un aperçu du code derrière toute la conversation jusqu’à présent. Vous pouvez voir les exemples de code basés sur le Kit de développement logiciel (SDK) Java, curl et JSON correspondant à votre session de conversation et paramètres, comme illustré dans la capture d’écran suivante :

    Capture d’écran d’IntelliJ IDEA montrant la fenêtre Exemple de code.

  4. Vous pouvez ensuite sélectionner Copier pour prendre ce code et écrire une application pour effectuer la même tâche que celle que vous effectuez actuellement avec le terrain de jeu.

Paramètres

Vous pouvez sélectionner l’onglet Configuration pour définir les paramètres suivants :

Nom Descriptif
Réponse maximale Définit une limite sur le nombre de jetons que le modèle peut générer.
Le nombre total de jetons (invite + réponse) que vous pouvez envoyer dépend du modèle que vous déployez :
• gpt-35-turbo-1106 / 0125 – jusqu’à 16 385 jetons
• gpt-35-turbo-16k-0613 – jusqu’à 16 385 jetons
• gpt-4-turbo-2024-04-09 – jusqu’à 128 000 jetons
• gpt-4o-2024-05-13 – jusqu’à 128 000 jetons
Pour obtenir la liste complète des limites de up-to-date, consultez la table récapitulative du modèle et disponibilité de la région. Assurez-vous toujours que la somme de votre prompt et du temps d’achèvement attendu s’inscrit dans la fenêtre contextuelle du modèle.
Température Contrôle le caractère aléatoire. La réduction de la température signifie que le modèle produit des réponses plus répétitives et déterministes. L’augmentation de la température entraîne des réponses plus inattendues ou créatives. Essayez d’ajuster la température ou les probabilités principales, mais pas les deux.
Probabilités principales Similaire à la température, contrôle l’aléatoire mais utilise une autre méthode. L’abaissement de la valeur de probabilité supérieure réduit la sélection de jetons du modèle aux jetons les plus probables. L’augmentation de la valeur permet au modèle de choisir parmi les jetons avec une probabilité élevée et faible. Essayez d’ajuster la température ou les probabilités principales, mais pas les deux.
Séquences d’arrêt Met fin à la réponse du modèle à un point souhaité. La réponse du modèle se termine avant la séquence spécifiée, de sorte qu’elle ne contient pas le texte de séquence d’arrêt. Pour GPT-35-Turbo, l’utilisation de <|im_end|> garantit que la réponse du modèle ne génère pas de requête utilisateur de suivi. Vous pouvez inclure jusqu’à quatre séquences d’arrêt.
Pénalité de fréquence Réduit le risque de répéter un jeton proportionnellement à la fréquence à laquelle il apparaît dans le texte jusqu’à présent. Cette action réduit la probabilité de répéter exactement le même texte dans une réponse.
Pénalité de présence Réduit les risques de répétition d’un élément qui apparaît dans le texte à tout moment jusqu’à présent. Cela augmente la probabilité d’introduire de nouvelles rubriques dans une réponse.

Nettoyer les ressources

Une fois que vous avez terminé de tester le terrain de jeu de conversation, si vous souhaitez nettoyer et supprimer une ressource OpenAI, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources efface également les autres ressources qui y sont associées. Procédez comme suit pour nettoyer les ressources :

  1. Pour supprimer vos ressources Azure OpenAI, accédez à la barre latérale d’Azure Explorer de gauche et recherchez l’élément Azure OpenAI .

  2. Cliquez avec le bouton droit sur le service Azure OpenAI que vous souhaitez supprimer, puis sélectionnez Supprimer.

  3. Pour supprimer votre groupe de ressources, visitez le portail Azure et supprimez manuellement les ressources sous votre abonnement.

Étapes suivantes

Pour plus d’informations, consultez Découvrez comment utiliser les modèles GPT-35-Turbo et GPT-4.

Pour plus d’exemples, consultez le dépôt GitHub d’exemples Azure OpenAI.