Freigeben über


Schnellstart: Erste Schritte mit Azure AI Foundry

In dieser Schnellstartanleitung führen wir Sie durch die Einrichtung Ihrer lokalen Entwicklungsumgebung mit dem Azure AI Foundry SDK. Wir schreiben einen Prompt, führen ihn als Teil Ihres App-Codes aus, verfolgen die LLM-Aufrufe und führen eine grundlegende Auswertung der Ausgaben des LLM aus.

Tipp

Im restlichen Artikel wird gezeigt, wie Sie ein hubbasiertes Projekt verwenden. Wählen Sie das Foundry-Projekt oben in diesem Artikel aus, wenn Sie stattdessen ein Foundry-Projekt verwenden möchten.

Voraussetzungen

  • Ein Azure-Abonnement. Wenn Sie kein Azure-Abonnement besitzen, können Sie ein kostenloses Konto erstellen, bevor Sie beginnen.
  • Ein Hub-basiertes Projekt. Wenn Sie mit Azure AI Foundry noch nicht über ein Hub-basiertes Projekt verfügen, wählen Sie das Foundry-Projekt oben in diesem Artikel aus, um stattdessen ein Foundry-Projekt zu verwenden.

Einrichten Ihrer Entwicklungsumgebung

  1. Einrichten Ihrer Entwicklungsumgebung

  2. Stellen Sie sicher, dass Sie diese Pakete installieren:

    pip install azure-ai-projects azure-ai-inference azure-identity 
    

Bereitstellen eines Modells

Tipp

Da Sie den linken Bereich im Azure AI Foundry-Portal anpassen können, werden möglicherweise unterschiedliche Elemente angezeigt als in diesen Schritten. Wenn Sie nicht sehen, wonach Sie suchen, wählen Sie ... Mehr am unteren Rand des linken Bereichs.

  1. Melden Sie sich bei Azure KI Foundry an.

  2. Wählen Sie ein hubbasiertes Projekt aus. Wenn Sie kein Hub-basiertes Projekt haben, wählen Sie das Foundry-Projekt oben in diesem Artikel aus, um stattdessen ein Foundry-Projekt zu verwenden.

  3. Wählen Sie im linken Bereich den Modellkatalog aus.

  4. Wählen Sie das Modell gpt-4o-mini aus der Liste der Modelle aus. Sie können dazu die Suchleiste verwenden.

  5. Wählen Sie auf der Modelldetailseite die Option Bereitstellen aus.

    Screenshot: Modelldetailseite mit einer Schaltfläche zum Bereitstellen des Modells

  6. Behalten Sie den Standard-Bereitstellungsnamen bei. Klicken Sie auf Bereitstellen.

  7. Nachdem das Modell bereitgestellt wurde, wählen Sie Im Playground öffnen aus, es zu testen.

Erstellen Ihrer Chat-App

Erstellen Sie eine Datei mit dem Namen chat.py. Kopieren Sie den folgenden Code, und fügen Sie ihn in die Datei ein:

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

Einfügen Ihrer Verbindungszeichenfolge

Ihre Projektverbindungszeichenfolge ist erforderlich, um azure OpenAI in Azure AI Foundry Models aus Ihrem Code aufzurufen.

Suchen Sie Ihre Verbindungszeichenfolge in dem Azure KI Foundry-Projekt, das Sie im Azure KI Foundry-Playground-Schnellstart erstellt haben. Öffnen Sie das Projekt, und suchen Sie dann die Verbindungszeichenfolge auf der Seite Übersicht.

Der Screenshot zeigt die Übersichtsseite eines Projekts und den Speicherort der Verbindungszeichenfolge.

Kopieren Sie die Verbindungszeichenfolge, und ersetzen Sie <your-connection-string-goes-here> in der chat.py-Datei.

Ausführen Ihres Chatskripts

Führen Sie das Skript aus, um die Antwort des Modells anzuzeigen.

python chat.py

Generieren eines Prompts aus Benutzereingaben und einer Promptvorlage

Das Skript verwendet hartcodierte Eingabe- und Ausgabemeldungen. In einer richtigen App verwenden Sie Eingaben aus einer Clientanwendung, generieren eine Systemmeldung mit internen Anweisungen für das Modell und rufen dann das LLM mit allen Meldungen auf.

Ändern Sie das Skript, um Eingaben aus einer Clientanwendung zu übernehmen und eine Systemmeldung mithilfe einer Promptvorlage zu generieren.

  1. Entfernen Sie die letzte Zeile des Skripts, das eine Antwort ausgibt.

  2. Definieren Sie nun eine get_chat_response-Funktion, die Nachrichten und Kontext übernimmt, eine Systemmeldung mithilfe einer Promptvorlage generiert und ein Modell aufruft. Fügen Sie diesen Code in Ihrer vorhandenen Datei chat.py hinzu:

    from azure.ai.inference.prompts import PromptTemplate
    
    
    def get_chat_response(messages, context):
        # create a prompt template from an inline string (using mustache syntax)
        prompt_template = PromptTemplate.from_string(
            prompt_template="""
            system:
            You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig? Refer to the user by their first name, try to work their last name into a pun.
    
            The user's first name is {{first_name}} and their last name is {{last_name}}.
            """
        )
    
        # generate system message from the template, passing in the context as variables
        system_message = prompt_template.create_messages(data=context)
    
        # add the prompt messages to the user messages
        return chat.complete(
            model="gpt-4o-mini",
            messages=system_message + messages,
            temperature=1,
            frequency_penalty=0.5,
            presence_penalty=0.5,
        )
    

    Hinweis

    In der Promptvorlage wird das Mustache-Format verwendet.

    Die „get_chat_response“-Funktion kann einfach als Route zu einer FastAPI- oder Flask-App hinzugefügt werden, um das Aufrufen dieser Funktion über eine Front-End-Webanwendung zu ermöglichen.

  3. Simulieren Sie nun das Übergeben von Informationen von einer Front-End-Anwendung an diese Funktion. Fügen Sie am Ende der chat.py-Datei den folgenden Code hinzu. Sie können die Meldung ändern und Ihren eigenen Namen hinzufügen.

    if __name__ == "__main__":
        response = get_chat_response(
            messages=[{"role": "user", "content": "what city has the best food in the world?"}],
            context={"first_name": "Jessie", "last_name": "Irwin"},
        )
        print(response.choices[0].message.content)
    

Führen Sie das überarbeitete Skript aus, um die Antwort des Modells mit dieser neuen Eingabe anzuzeigen.

python chat.py

Nächster Schritt

In dieser Schnellstartanleitung verwenden Sie Azure AI Foundry für:

  • Erstellen eines Projekts
  • Bereitstellen eines Modells
  • Ausführen einer Chatvervollständigung
  • Erstellen und Ausführen eines Agents
  • Hochladen von Dateien in den Agent

Das Azure AI Foundry SDK ist in mehreren Sprachen verfügbar, einschließlich Python, Java, JavaScript und C#. Diese Schnellstartanleitung enthält Anweisungen für jede dieser Sprachen.

Tipp

Der restliche Artikel zeigt, wie Sie ein Foundry-Projekt verwenden. Wählen Sie oben in diesem Artikel hubbasiertes Projekt aus, wenn Sie stattdessen ein hubbasiertes Projekt verwenden möchten.

Voraussetzungen

  • Ein Azure-Abonnement. Wenn Sie kein Azure-Abonnement besitzen, können Sie ein kostenloses Konto erstellen, bevor Sie beginnen.
  • Sie müssen Besitzer des Abonnements sein, um die entsprechende Zugriffssteuerung zu erhalten, die für die Verwendung Ihres Projekts erforderlich ist.

Von Bedeutung

Die in diesem Artikel markierten Elemente (Vorschau) sind aktuell als öffentliche Vorschau verfügbar. Diese Vorschauversion wird ohne Vereinbarung zum Servicelevel bereitgestellt und sollte nicht für Produktionsworkloads verwendet werden. Manche Features werden möglicherweise nicht unterstützt oder sind nur eingeschränkt verwendbar. Weitere Informationen finden Sie unter Zusätzliche Nutzungsbestimmungen für Microsoft Azure-Vorschauen.

Beginnen mit einem Projekt und Modell

  1. Melden Sie sich beim Azure AI Foundry-Portal an.

  2. Suchen Sie auf der Startseite, und wählen Sie dann das gpt-4o-Modell aus.

    Screenshot zeigt, wie Sie mit dem Erstellen eines Agents im Azure AI Foundry-Portal beginnen.

  3. Wählen Sie auf der Seite mit den Modelldetails die Option "Dieses Modell verwenden" aus.

  4. Geben Sie einen Namen ein, der für Ihr Projekt verwendet werden soll, und wählen Sie "Erstellen" aus.

  5. Sobald Ihre Ressourcen erstellt wurden, befinden Sie sich im Chat-Playground.

Richten Sie Ihre Umgebung ein

Es ist keine Installation erforderlich, um das Azure AI Foundry-Portal zu verwenden.

Ausführen einer Chatvervollständigung

Chatabschlusse sind der grundlegende Baustein von KI-Anwendungen. Mithilfe von Chatabschlüssen können Sie eine Liste von Nachrichten senden und eine Antwort vom Modell erhalten.

  1. Geben Sie im Chat-Playground die Eingabeaufforderung ein, und wählen Sie die Schaltfläche " Senden " aus.
  2. Das Modell gibt eine Antwort im Antwortbereich zurück.

Chatten mit einem Agent

Agents verfügen über leistungsstarke Funktionen durch die Verwendung von Tools. Beginnen Sie, indem Sie mit einem Agent chatten.

Wenn Sie bereit sind, einen Agent zu testen, wird ein Standard-Agent für Sie erstellt. So chatten Sie mit diesem Agent:

  1. Wählen Sie im linken Bereich " Playgrounds" aus.
  2. Wählen Sie auf der Agents-Playgroundkarte"Los geht's" aus.
  3. Fügen Sie Anweisungen hinzu, z. B. "Sie sind ein hilfreicher Schreibassistent.".
  4. Beginnen Sie mit Ihrem Agenten zu chatten, z. B. "Schreiben Sie mir ein Gedicht über Blumen.".

Hinzufügen von Dateien zum Agent

Nun fügen wir ein Dateisuchtool hinzu, das uns das Abrufen von Wissen ermöglicht.

  1. Scrollen Sie im Setupbereich Ihres Agents bei Bedarf nach unten, um Wissen zu finden.
  2. Wählen Sie Hinzufügen aus.
  3. Wählen Sie "Dateien " aus, um die Datei product_info_1.md hochzuladen.
  4. Wählen Sie unter "Dateien hinzufügen" die Option "Lokale Dateien auswählen" aus.
  5. Wählen Sie "Hochladen" und "Speichern" aus.
  6. Ändern Sie die Anweisungen Ihrer Agents, z. B. "Sie sind ein hilfreicher Assistent und können Informationen aus hochgeladenen Dateien durchsuchen".
  7. Stellen Sie eine Frage, z. B. "Hallo, welche Contoso-Produkte wissen Sie?"
  8. Um weitere Dateien hinzuzufügen, wählen Sie im AgentVectorStore die Option ... und dann "Verwalten" aus.

Bereinigen von Ressourcen

Wenn Sie sie nicht mehr benötigen, löschen Sie die dem Projekt zugeordnete Ressourcengruppe.

Wählen Sie im Azure AI Foundry-Portal ihren Projektnamen in der oberen rechten Ecke aus. Wählen Sie dann den Link für die Ressourcengruppe aus, um sie im Azure-Portal zu öffnen. Wählen Sie die Ressourcengruppe und dann "Löschen" aus. Vergewissern Sie sich, dass Sie die Ressourcengruppe löschen möchten.

Übersicht über die Azure AI Foundry-Clientbibliothek