Freigeben über


Schnellstart: Erste Schritte mit GPT-35-Turbo und GPT-4 mit Azure OpenAI Service in IntelliJ

In diesem Artikel erfahren Sie, wie Sie mit dem Azure OpenAI-Dienst in IntelliJ IDEA beginnen. Es zeigt Ihnen, wie Sie Chatmodelle wie GPT-3.5-Turbo und GPT-4 verwenden, um verschiedene Parameter und Datenquellen zu testen und zu experimentieren.

Voraussetzungen

Installieren und Anmelden

Die folgenden Schritte führen Sie durch den Azure-Anmeldeprozess in Ihrer IntelliJ-Entwicklungsumgebung:

  1. Wenn Sie das Plug-In nicht installiert haben, lesen Sie das Azure Toolkit für IntelliJ.

  2. Um sich bei Ihrem Azure-Konto anzumelden, navigieren Sie zur linken Azure Explorer-Randleiste, und wählen Sie dann das Azure-Anmeldesymbol aus. Alternativ können Sie zu "Tools" navigieren, Azure erweitern und dann Azure Anmelden auswählen.

    Screenshot of the IntelliJ IDEA with the Azure Sign In button highlighted.

  3. Wählen Sie im Azure-Anmeldefenster OAuth 2.0 und dann "Anmelden" aus. Weitere Anmeldeoptionen finden Sie unter Anleitung zur Anmeldung für das Azure-Toolkit für IntelliJ.

  4. Melden Sie sich im Browser mit Ihrem Konto an, das Zugriff auf Ihre OpenAI-Ressource hat, und kehren Sie dann zu IntelliJ zurück. Wählen Sie im Dialogfeld "Abonnements auswählen" das Abonnement aus, das Sie verwenden möchten, und wählen Sie dann " Auswählen" aus.

Erstellen und Bereitstellen einer Azure OpenAI Service-Ressource

  1. Klicken Sie nach dem Anmeldeworkflow mit der rechten Maustaste auf das Azure OpenAI-Element im Azure Explorer, und wählen Sie "Azure OpenAI-Dienst erstellen" aus.

  2. Geben Sie im Dialogfeld "Azure OpenAI-Dienst erstellen" die folgenden Informationen an, und wählen Sie dann "OK" aus:

    • Name: Ein beschreibender Name für Ihre Azure OpenAI Service-Ressource, z . B. MyOpenAIResource. Dieser Name ist auch Ihre benutzerdefinierte Do Standard Name in Ihrem Endpunkt. Der Ressourcenname kann nur alphanumerische Zeichen und Bindestriche enthalten und kann nicht mit einem Bindestrich beginnen oder enden.
    • Region: Der Speicherort Ihrer Instanz. Bestimmte Modelle sind nur in bestimmten Regionen verfügbar. Weitere Informationen finden Sie unter Azure OpenAI Service-Modelle.
    • Sku: Standardmäßige Azure OpenAI-Ressourcen werden basierend auf der Tokenverwendung in Rechnung gestellt. Weitere Informationen finden Sie unter Azure OpenAI Service-Preise.
  3. Bevor Sie Chatabschlusse verwenden können, müssen Sie ein Modell bereitstellen. Klicken Sie mit der rechten Maustaste auf Ihre Azure OpenAI-Instanz, und wählen Sie "Neue Bereitstellung erstellen" aus. Geben Sie im Popupdialogfeld "Azure OpenAI-Bereitstellung erstellen" die folgenden Informationen an, und wählen Sie dann "OK" aus:

    • Bereitstellungsname: Wählen Sie einen Namen sorgfältig aus. Der Bereitstellungsname wird in Ihrem Code verwendet, um das Modell mithilfe der Clientbibliotheken und der REST-APIs aufzurufen.
    • Modell: Wählen Sie ein Modell aus. Die Modellverfügbarkeit variiert je nach Region. Eine Liste der verfügbaren Modelle pro Region finden Sie im Abschnitt "Modellzusammenfassung" und "Regionsverfügbarkeit " von Azure OpenAI-Dienstmodellen.

Das Toolkit zeigt eine Statusmeldung an, wenn die Bereitstellung abgeschlossen ist und einsatzbereit ist.

Interagieren mit Azure OpenAI mithilfe von Eingabeaufforderungen und Einstellungen

  1. Klicken Sie mit der rechten Maustaste auf Ihre Azure OpenAI-Ressource, und wählen Sie dann "In AI Playground öffnen" aus.

  2. Sie können mit der Erkundung der OpenAI-Funktionen über den Azure OpenAI Studio-Chat-Playground in IntelliJ IDEA beginnen.

    Screenshot of the IntelliJ IDEA that shows the Chat playground overview window.

Um den Abschluss auszulösen, können Sie Text als Eingabeaufforderung eingeben. Das Modell generiert die Vervollständigung und versucht, Ihrem Kontext oder Muster zu entsprechen.

Führen Sie die folgenden Schritte aus, um eine Chatsitzung zu starten:

  1. Im Chatsitzungsbereich können Sie mit einer einfachen Eingabeaufforderung wie dieser beginnen: "Ich bin daran interessiert, ein neues Surface zu kaufen." Nachdem Sie die Eingabeaufforderung eingegeben haben, wählen Sie "Senden" aus. Sie erhalten eine Antwort ähnlich dem folgenden Beispiel:

    Great! Which Surface model are you interested in? There are several options available such as the Surface Pro, Surface Laptop, Surface Book, Surface Go, and Surface Studio. Each one has its own unique features and specifications, so it's important to choose the one that best fits your needs.
    

    Screenshot of the IntelliJ IDEA that shows the playground window with a first question and answer.

  2. Geben Sie eine Nachverfolgungsfrage wie "Welche Modelle unterstützen GPU?" ein, und wählen Sie "Senden" aus. Sie erhalten eine Antwort ähnlich dem folgenden Beispiel:

    Most Surface models come with an integrated GPU (Graphics Processing Unit), which is sufficient for basic graphics tasks such as video playback and casual gaming. However, if you're looking for more powerful graphics performance, the Surface Book 3 and the Surface Studio 2 come with dedicated GPUs. The Surface Book 3 has an NVIDIA GeForce GTX GPU, while the Surface Studio 2 has an NVIDIA GeForce GTX 1060 or 1070 GPU, depending on the configuration.
    

    Screenshot of the IntelliJ IDEA that shows the playground window with a first and second question and answer.

  3. Nachdem Sie nun über eine einfache Unterhaltung verfügen, wählen Sie im Bereich "Code anzeigen" aus, und Sie haben eine Wiedergabe des Codes hinter der gesamten Unterhaltung bisher. Sie können die Codebeispiele anzeigen, die auf Java SDK, Curl und JSON basieren, die Ihrer Chatsitzung und Ihren Einstellungen entsprechen, wie im folgenden Screenshot gezeigt:

    Screenshot of the IntelliJ IDEA that shows the Sample Code window.

  4. Sie können dann "Kopieren" auswählen, um diesen Code zu übernehmen und eine Anwendung zu schreiben, um die gleiche Aufgabe abzuschließen, die Sie derzeit mit dem Playground ausführen.

Einstellungen

Sie können die Registerkarte "Konfiguration " auswählen, um die folgenden Parameter festzulegen:

Name Beschreibung
Max. Antwort Legt einen Grenzwert für die Anzahl der Token pro Modellantwort fest. Die API unterstützt maximal 4.096 Token, die zwischen der Eingabeaufforderung (einschließlich Systemmeldung, Beispielen, Nachrichtenverlauf und Benutzerabfrage) und der Antwort des Modells geteilt werden. Ein Token für typisch englischen Text besteht aus ungefähr vier Zeichen.
Temperatur Steuert die Zufälligkeit. Eine Senkung der Temperatur bedeutet, dass das Modell mehr wiederholte und deterministische Antworten erzeugt. Eine Erhöhung der Temperatur führt zu unerwarteten oder kreativen Antworten. Versuchen Sie, die Temperatur oder top-Wahrscheinlichkeiten anzupassen, aber nicht beides.
Höchste Wahrscheinlichkeiten Ähnlich wie bei der Temperatur steuert die Zufallsart, aber eine andere Methode. Durch Das Verringern des Werts "Top-Wahrscheinlichkeiten" wird die Tokenauswahl des Modells auf ver likelierende Token eingeschränkt. Wenn Sie den Wert erhöhen, kann das Modell aus Token mit hoher und niedriger Wahrscheinlichkeit auswählen. Versuchen Sie, die Temperatur oder top-Wahrscheinlichkeiten anzupassen, aber nicht beides.
Stoppsequenzen Beendet das Modell seine Antwort an einem gewünschten Punkt. Die Modellantwort endet vor der angegebenen Sequenz, sodass sie nicht den Text der Stoppsequenz enthält. Bei GPT-35-Turbo wird mit Verwendung von <|im_end|> sichergestellt, dass die Modellantwort keine Nachverfolgungs-Benutzerabfrage generiert. Sie können bis zu vier Stoppsequenzen einschließen.
Häufigkeitsstrafe Reduziert die Wahrscheinlichkeit, ein Token proportional zu wiederholen, basierend auf der Häufigkeit, die es bisher im Text angezeigt wird. Diese Aktion verringert die Wahrscheinlichkeit, denselben Text in einer Antwort zu wiederholen.
Anwesenheitsstrafe Reduziert die Wahrscheinlichkeit, dass alle Token wiederholt werden, die bisher im Text angezeigt werden. Dies erhöht die Wahrscheinlichkeit, dass neue Themen in eine Antwort eingeführt werden.

Bereinigen von Ressourcen

Nachdem Sie das Testen des Chat-Playgrounds abgeschlossen haben, können Sie die Ressource oder Ressourcengruppe löschen, wenn Sie eine OpenAI-Ressource sauber und entfernen möchten. Wenn Sie die Ressourcengruppe löschen, werden auch alle anderen Ressourcen gelöscht, die ihr zugeordnet sind. Führen Sie die folgenden Schritte aus, um Ressourcen zu sauber:

  1. Um Ihre Azure OpenAI-Ressourcen zu löschen, navigieren Sie zur linken Azure Explorer-Randleiste, und suchen Sie das Azure OpenAI-Element.

  2. Klicken Sie mit der rechten Maustaste auf den Azure OpenAI-Dienst, den Sie löschen möchten, und wählen Sie dann "Löschen" aus.

  3. Um Ihre Ressourcengruppe zu löschen, besuchen Sie die Azure-Portal, und löschen Sie die Ressourcen unter Ihrem Abonnement manuell.

Nächste Schritte

Weitere Informationen finden Sie unter "Erfahren Sie, wie Sie mit den GPT-35-Turbo- und GPT-4-Modellen arbeiten.

Weitere Beispiele finden Sie im GitHub-Repository von Azure OpenAI-Beispielen.