Delen via


Quickstart: Aan de slag met Azure AI Foundry

In deze quickstart wordt u begeleid bij het instellen van uw lokale ontwikkelomgeving met de Azure AI Foundry SDK. We schrijven een prompt, voeren deze uit als onderdeel van uw app-code, traceren de LLM-aanroepen die worden uitgevoerd en voeren een basisevaluatie uit op de uitvoer van de LLM.

Aanbeveling

De rest van dit artikel laat zien hoe u een hubproject gebruikt. Selecteer Het Foundry-project bovenaan dit artikel als u in plaats daarvan een Foundry-project wilt gebruiken. Welk type project heb ik nodig?

Vereiste voorwaarden

  • Een Azure-abonnement. Als u nog geen abonnement op Azure hebt, maak dan een gratis account aan voordat u begint.
  • Een hub-project. Als u geen kennis hebt met Azure AI Foundry en geen hubproject hebt, selecteert u Het Foundry-project bovenaan dit artikel om in plaats daarvan een Foundry-project te gebruiken.

Uw ontwikkelomgeving instellen

  1. Uw ontwikkelomgeving instellen

  2. Installeer deze pakketten.

    pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10
    

    Opmerking

    Voor verschillende projecttypen zijn verschillende versies van het azure-ai-projects pakket vereist. Maak afzonderlijke Python-omgevingen om conflicten te voorkomen: gebruik de versie 1.0.0b10 voor hubprojecten en de nieuwste versie voor Foundry-projecten.

Een model implementeren

Aanbeveling

Omdat u het linkerdeelvenster in de Azure AI Foundry-portal kunt aanpassen, ziet u mogelijk andere items dan in deze stappen wordt weergegeven. Als u niet ziet wat u zoekt, selecteert u ... Meer onder aan het linkerdeelvenster.

  1. Meld u aan bij Azure AI Foundry.

  2. Selecteer een hub-project. Als u geen hubproject hebt, selecteert u Het Foundry-project bovenaan dit artikel om in plaats daarvan een Foundry-project te gebruiken.

  3. Selecteer modelcatalogus in het linkerdeelvenster.

  4. Selecteer het gpt-4o-minimodel in de lijst met modellen. U kunt de zoekbalk gebruiken om deze te vinden.

  5. Selecteer Implementeren op de pagina met modeldetails.

    Schermopname van de pagina met modeldetails met een knop om het model te implementeren.

  6. Laat de standaardimplementatienaam staan. Selecteer Implementeren.

  7. Zodra het model is geïmplementeerd, selecteert u Openen in speeltuin om uw model te testen.

Uw chat-app bouwen

Maak een bestand met de naam chat.py. Kopieer en plak de volgende code erin.

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

Uw verbindingsreeks invoegen

Uw projectverbindingsreeks is vereist om de Azure OpenAI in Azure AI Foundry-modellen aan te roepen vanuit uw code.

Zoek uw verbindingsreeks in het Azure AI Foundry-project dat u hebt gemaakt in de Azure AI Foundry quickstart sandbox. Open het project en zoek vervolgens de verbindingsreeks op de pagina Overzicht.

Schermopname van de overzichtspagina van een project en de locatie van de verbindingsreeks.

Kopieer de verbindingsreeks en vervang <your-connection-string-goes-here> deze in het bestand chat.py.

Uw chatscript uitvoeren

Voer het script uit om het antwoord van het model te zien.

python chat.py

Prompt genereren op basis van gebruikersinvoer en een promptsjabloon

Het script maakt gebruik van in code vastgelegde invoer- en uitvoerberichten. In een echte app neemt u invoer van een clienttoepassing, genereert u een systeembericht met interne instructies voor het model en roept u de LLM vervolgens aan met alle berichten.

We gaan het script wijzigen om invoer uit een clienttoepassing te nemen en een systeembericht te genereren met behulp van een promptsjabloon.

  1. Verwijder de laatste regel van het script waarmee een antwoord wordt afgedrukt.

  2. Definieer nu een get_chat_response functie die berichten en context gebruikt, een systeembericht genereert met behulp van een promptsjabloon en een model aanroept. Voeg deze code toe aan uw bestaande chat.py-bestand :

    from azure.ai.inference.prompts import PromptTemplate
    
    
    def get_chat_response(messages, context):
        # create a prompt template from an inline string (using mustache syntax)
        prompt_template = PromptTemplate.from_string(
            prompt_template="""
            system:
            You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig? Refer to the user by their first name, try to work their last name into a pun.
    
            The user's first name is {{first_name}} and their last name is {{last_name}}.
            """
        )
    
        # generate system message from the template, passing in the context as variables
        system_message = prompt_template.create_messages(data=context)
    
        # add the prompt messages to the user messages
        return chat.complete(
            model="gpt-4o-mini",
            messages=system_message + messages,
            temperature=1,
            frequency_penalty=0.5,
            presence_penalty=0.5,
        )
    

    Opmerking

    De promptsjabloon maakt gebruik van de mustache-indeling.

    De get_chat_response-functie kan eenvoudig worden toegevoegd als een route naar een FastAPI- of Flask-app om het aanroepen van deze functie vanuit een front-endwebtoepassing mogelijk te maken.

  3. Simuleer nu het doorgeven van informatie van een front-endtoepassing aan deze functie. Voeg de volgende code toe aan het einde van het chat.py-bestand . Speel gerust met het bericht en voeg uw eigen naam toe.

    if __name__ == "__main__":
        response = get_chat_response(
            messages=[{"role": "user", "content": "what city has the best food in the world?"}],
            context={"first_name": "Jessie", "last_name": "Irwin"},
        )
        print(response.choices[0].message.content)
    

Voer het herziene script uit om het antwoord van het model te zien met deze nieuwe invoer.

python chat.py

De hulpbronnen opschonen

Als u geen resources meer nodig hebt die u hebt gemaakt, verwijdert u de resourcegroep die aan uw project is gekoppeld.

Selecteer in de Azure AI Foundry-portal de naam van uw project in de rechterbovenhoek. Selecteer vervolgens de koppeling voor de resourcegroep om deze te openen in Azure Portal. Selecteer de resourcegroep en selecteer vervolgens Verwijderen. Bevestig dat u de resourcegroep wilt verwijderen.

Volgende stap

In deze quickstart gebruikt u Azure AI Foundry voor het volgende:

  • Een project maken
  • Een model implementeren
  • Een chatvoltooiing uitvoeren
  • Een agent maken en uitvoeren
  • Bestanden uploaden naar de agent

De Azure AI Foundry SDK is beschikbaar in meerdere talen, waaronder Python, Java, Java, JavaScript en C#. Deze quickstart bevat instructies voor elk van deze talen.

Aanbeveling

De rest van dit artikel laat zien hoe u een Foundry-project gebruikt. Selecteer een hubproject boven aan dit artikel als u in plaats daarvan een hubproject wilt gebruiken. Welk type project heb ik nodig?

Vereiste voorwaarden

  • Een Azure-abonnement. Als u nog geen abonnement op Azure hebt, maak dan een gratis account aan voordat u begint.
  • U moet eigenaar van het abonnement zijn om het juiste toegangsbeheer te ontvangen dat nodig is om uw project te kunnen gebruiken.

Belangrijk

Items die in dit artikel zijn gemarkeerd (preview) zijn momenteel beschikbaar als openbare preview. Deze preview wordt aangeboden zonder een service level agreement en we raden deze niet aan voor productieworkloads. Bepaalde functies worden mogelijk niet ondersteund of hebben mogelijk beperkte mogelijkheden. Voor meer informatie, zie Aanvullende Gebruiksvoorwaarden voor Microsoft Azure Previews.

Beginnen met een project en model

  1. Meld u aan bij de Azure AI Foundry-portal.

  2. Zoek op de startpagina en selecteer vervolgens het gpt-4o-model .

    Schermopname van het bouwen van een agent in de Azure AI Foundry-portal.

  3. Selecteer Dit model gebruiken op de pagina met modeldetails.

  4. Vul een naam in die u voor uw project wilt gebruiken en selecteer Maken.

  5. Zodra uw resources zijn gemaakt, bevindt u zich in de chatspeeltuin.

Uw omgeving instellen

Er is geen installatie nodig om de Azure AI Foundry-portal te gebruiken.

Een chatvoltooiing uitvoeren

Chatvoltooiingen zijn de basisbouwsteen van AI-toepassingen. Met behulp van chatvoltooiingen kunt u een lijst met berichten verzenden en een antwoord krijgen van het model.

  1. Vul in de chatspeeltuin de prompt in en selecteer de knop Verzenden .
  2. Het model retourneert een antwoord in het deelvenster Antwoord .

Chatten met een agent

Agents hebben krachtige mogelijkheden via het gebruik van hulpprogramma's. Begin met chatten met een agent.

Wanneer u klaar bent om een agent te proberen, wordt er een standaardagent voor u gemaakt. Om te chatten met deze agent:

  1. Selecteer Speeltuinen in het linkerdeelvenster.
  2. Selecteer Let's go op de kaart Agents-speeltuin.
  3. Voeg instructies toe, zoals 'U bent een handige schrijfassistent'.
  4. Begin te chatten met je agent, bijvoorbeeld 'Schrijf me een gedicht over bloemen'.

Bestanden toevoegen aan de agent

We gaan nu een hulpprogramma voor het zoeken naar bestanden toevoegen waarmee we kennis kunnen ophalen.

  1. Schuif in het installatievenster van uw agent zo nodig omlaag om Kennis te vinden.
  2. Selecteer Toevoegen.
  3. Selecteer Bestanden om het bestand product_info_1.md te uploaden.
  4. Selecteer Lokale bestanden selecteren onder Bestanden toevoegen.
  5. Selecteer Uploaden en opslaan.
  6. Wijzig de instructies van uw agents, zoals 'U bent een handige assistent en kan zoeken naar informatie uit geüploade bestanden'.
  7. Stel een vraag, zoals 'Hallo, welke Contoso-producten weet u?'
  8. Als u meer bestanden wilt toevoegen, selecteert u de ... op de AgentVectorStore en selecteert u Beheren.

De hulpbronnen opschonen

Als u geen resources meer nodig hebt die u hebt gemaakt, verwijdert u de resourcegroep die aan uw project is gekoppeld.

Selecteer in de Azure AI Foundry-portal de naam van uw project in de rechterbovenhoek. Selecteer vervolgens de koppeling voor de resourcegroep om deze te openen in Azure Portal. Selecteer de resourcegroep en selecteer vervolgens Verwijderen. Bevestig dat u de resourcegroep wilt verwijderen.

Volgende stap