Udostępnij za pośrednictwem


Szybki start: rozpoczynanie pracy z usługą Azure AI Foundry

W tym przewodniku szybkiego uruchomienia pokażemy Ci krok po kroku, jak skonfigurować lokalne środowisko deweloperskie za pomocą zestawu SDK Azure AI Foundry. Napiszemy monit, uruchomimy go w ramach kodu aplikacji, prześledziemy wykonywane wywołania LLM i uruchomimy podstawową ocenę danych wyjściowych usługi LLM.

Wskazówka

W pozostałej części tego artykułu pokazano, jak używać projektu opartego na centrum. Wybierz pozycję Projekt Foundry w górnej części tego artykułu, jeśli zamiast tego chcesz użyć projektu Foundry. Jakiego typu projektu potrzebuję?

Wymagania wstępne

  • Subskrypcja platformy Azure. Jeśli nie masz subskrypcji platformy Azure, przed rozpoczęciem utwórz bezpłatne konto.
  • Projekt oparty na centrum. Jeśli dopiero zaczynasz korzystać z rozwiązania Azure AI Foundry i nie masz projektu opartego na centrum, wybierz pozycję Projekt Foundry w górnej części tego artykułu, aby zamiast tego użyć projektu Foundry.

Konfigurowanie środowiska projektowego

  1. Konfigurowanie środowiska projektowego

  2. Upewnij się, że zainstalowano następujące pakiety:

    pip install azure-ai-projects azure-ai-inference azure-identity 
    

Wdrażanie modelu

Wskazówka

Ponieważ możesz dostosować okienko po lewej stronie w portalu azure AI Foundry, możesz zobaczyć inne elementy niż pokazano w tych krokach. Jeśli nie widzisz szukanych danych, wybierz pozycję ... Więcej w dolnej części okienka po lewej stronie.

  1. Zaloguj się do usługi Azure AI Foundry.

  2. Wybierz projekt oparty na centrum. Jeśli nie masz projektu opartego na centrum, wybierz pozycję Projekt Foundry w górnej części tego artykułu, aby zamiast tego użyć projektu Foundry.

  3. Wybierz pozycję Katalog modeli w okienku po lewej stronie.

  4. Wybierz model gpt-4o-mini z listy modeli. Aby go znaleźć, możesz użyć paska wyszukiwania.

  5. Na stronie szczegółów modelu wybierz pozycję Wdróż.

    Zrzut ekranu przedstawiający stronę szczegółów modelu z przyciskiem umożliwiającym wdrożenie modelu.

  6. Pozostaw domyślną nazwę wdrożenia. Wybierz Wdróż.

  7. Po wdrożeniu modelu wybierz pozycję Otwórz na placu zabaw , aby przetestować model.

Tworzenie aplikacji do czatu

Utwórz plik o nazwie chat.py. Skopiuj i wklej do niego następujący kod.

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

Wstaw parametry połączenia

Łańcuch połączenia projektu jest wymagany do wywołania Azure OpenAI w modelach Azure AI Foundry z poziomu kodu.

Znajdź swoje parametry połączenia w projekcie Azure AI Foundry, który utworzyłeś w szybkim starcie platformy Azure AI Foundry. Otwórz projekt, a następnie znajdź parametry połączenia na stronie Przegląd.

Zrzut ekranu przedstawia stronę przeglądu projektu i lokalizację łańcucha połączenia.

Skopiuj parametry połączenia i zastąp <your-connection-string-goes-here>element w pliku chat.py.

Uruchamianie skryptu czatu

Uruchom skrypt, aby wyświetlić odpowiedź z modelu.

python chat.py

Generowanie monitu na podstawie danych wejściowych użytkownika i szablonu monitu

Skrypt używa zakodowanych na stałe komunikatów wejściowych i wyjściowych. W prawdziwej aplikacji należy wprowadzić dane wejściowe z aplikacji klienckiej, wygenerować komunikat systemowy z wewnętrznymi instrukcjami do modelu, a następnie wywołać llM ze wszystkimi komunikatami.

Zmieńmy skrypt tak, aby pobierał dane wejściowe z aplikacji klienckiej i generujmy komunikat systemowy przy użyciu szablonu monitu.

  1. Usuń ostatni wiersz skryptu, który wyświetla odpowiedź.

  2. Teraz zdefiniuj get_chat_response funkcję, która pobiera komunikaty i kontekst, generuje komunikat systemowy przy użyciu szablonu monitu i wywołuje model. Dodaj ten kod do istniejącego pliku chat.py :

    from azure.ai.inference.prompts import PromptTemplate
    
    
    def get_chat_response(messages, context):
        # create a prompt template from an inline string (using mustache syntax)
        prompt_template = PromptTemplate.from_string(
            prompt_template="""
            system:
            You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig? Refer to the user by their first name, try to work their last name into a pun.
    
            The user's first name is {{first_name}} and their last name is {{last_name}}.
            """
        )
    
        # generate system message from the template, passing in the context as variables
        system_message = prompt_template.create_messages(data=context)
    
        # add the prompt messages to the user messages
        return chat.complete(
            model="gpt-4o-mini",
            messages=system_message + messages,
            temperature=1,
            frequency_penalty=0.5,
            presence_penalty=0.5,
        )
    

    Uwaga / Notatka

    Szablon monitu używa formatu wąsu.

    Funkcję get_chat_response można łatwo dodać jako trasę do aplikacji FastAPI lub Flask, aby umożliwić wywoływanie tej funkcji z poziomu aplikacji internetowej frontonu.

  3. Teraz symuluj przekazywanie informacji z aplikacji frontonu do tej funkcji. Dodaj następujący kod na końcu pliku chat.py . Możesz swobodnie grać z wiadomością i dodać własne imię.

    if __name__ == "__main__":
        response = get_chat_response(
            messages=[{"role": "user", "content": "what city has the best food in the world?"}],
            context={"first_name": "Jessie", "last_name": "Irwin"},
        )
        print(response.choices[0].message.content)
    

Uruchom poprawiony skrypt, aby zobaczyć odpowiedź z modelu przy użyciu tych nowych danych wejściowych.

python chat.py

Następny krok

W tym przewodniku Szybki start użyjesz rozwiązania Azure AI Foundry do:

  • Tworzenie projektu
  • Wdrażanie modelu
  • Uruchomienie zakończenia czatu
  • Tworzenie i uruchamianie agenta
  • Przekazywanie plików do agenta

Zestaw AZURE AI Foundry SDK jest dostępny w wielu językach, w tym Python, Java, JavaScript i C#. Ten przewodnik szybkiego startu zawiera instrukcje dla każdego z tych języków.

Wskazówka

W pozostałej części tego artykułu pokazano, jak używać projektu Foundry. Wybierz projekt oparty na centrum w górnej części tego artykułu, jeśli zamiast tego chcesz użyć projektu opartego na centrum. Jakiego typu projektu potrzebuję?

Wymagania wstępne

  • Subskrypcja platformy Azure. Jeśli nie masz subskrypcji platformy Azure, przed rozpoczęciem utwórz bezpłatne konto.
  • Aby uzyskać odpowiednią kontrolę dostępu wymaganą do korzystania z projektu, musisz być właścicielem subskrypcji.

Ważne

Elementy oznaczone jako (wersja zapoznawcza) w tym artykule są aktualnie dostępne w publicznej wersji zapoznawczej. Ta wersja zapoznawcza jest udostępniana bez umowy dotyczącej poziomu usług i nie zalecamy korzystania z niej w przypadku obciążeń produkcyjnych. Niektóre funkcje mogą nie być obsługiwane lub mogą mieć ograniczone możliwości. Aby uzyskać więcej informacji, zobacz Warunki dodatkowe korzystania z testowych wersji Microsoft Azure.

Rozpoczynanie pracy z projektem i modelem

  1. Zaloguj się do portalu usługi Azure AI Foundry.

  2. Na stronie głównej wyszukaj, a następnie wybierz model gpt-4o .

    Zrzut ekranu przedstawia sposób rozpoczynania tworzenia agenta w portalu usługi Azure AI Foundry.

  3. Na stronie szczegółów modelu wybierz pozycję Użyj tego modelu.

  4. Wypełnij nazwę, która ma być używana dla projektu, a następnie wybierz pozycję Utwórz.

  5. Po utworzeniu zasobów znajdujesz się w środowisku czatu.

Konfigurowanie środowiska

Do korzystania z portalu usługi Azure AI Foundry nie jest konieczna instalacja.

Uruchomienie zakończenia czatu

Uzupełnianie czatów to podstawowy blok konstrukcyjny aplikacji sztucznej inteligencji. Korzystając z uzupełniania czatu, możesz wysłać listę wiadomości i uzyskać odpowiedź od modelu.

  1. Na placu zabaw czatu wypełnij monit i wybierz przycisk Wyślij .
  2. Model zwraca odpowiedź w okienku Odpowiedź .

Rozmowa z agentem

Agenci mają zaawansowane możliwości dzięki użyciu narzędzi. Zacznij od rozmowy z agentem.

Kiedy będziesz gotowy do wypróbowania agenta, zostanie utworzony dla ciebie domyślny agent. Aby porozmawiać z tym agentem:

  1. W okienku po lewej stronie wybierz pozycję Place zabaw.
  2. Na karcie Plac zabaw agentów wybierz pozycję Chodźmy.
  3. Dodaj instrukcje, takie jak "Jesteś pomocnym asystentem pisania".
  4. Zacznij rozmawiać z agentem, na przykład "Napisz mi wiersz o kwiatach".

Dodawanie plików do agenta

Teraz dodajmy narzędzie do wyszukiwania plików, które umożliwia nam pobieranie wiedzy.

  1. W okienku Konfiguracja agenta przewiń w dół, jeśli to konieczne, aby znaleźć wiedzę.
  2. Wybierz Dodaj.
  3. Wybierz Pliki, aby załadować plik product_info_1.md.
  4. Wybierz pozycję Wybierz pliki lokalne w obszarze Dodaj pliki.
  5. Wybierz pozycję Przekaż i zapisz.
  6. Zmień instrukcje agentów, takie jak "Jesteś pomocnym asystentem i możesz wyszukiwać informacje z przekazanych plików".
  7. Zadaj pytanie, takie jak "Witaj, co wiesz o produktach Firmy Contoso?"
  8. Aby dodać więcej plików, wybierz pozycję ... w magazynie AgentVectorStore, a następnie wybierz pozycję Zarządzaj.

Uprzątnij zasoby

Jeśli nie są już potrzebne, usuń grupę zasobów skojarzona z projektem.

W portalu Azure AI Foundry wybierz nazwę projektu w prawym górnym rogu. Następnie wybierz link do grupy zasobów, aby otworzyć ją w witrynie Azure Portal. Wybierz grupę zasobów, a następnie wybierz pozycję Usuń. Upewnij się, że chcesz usunąć grupę zasobów.

Omówienie biblioteki klienta usługi Azure AI Foundry