Udostępnij za pośrednictwem


Narzędzie LLM dla przepływów w usłudze Azure AI Studio

Ważne

Elementy oznaczone (wersja zapoznawcza) w tym artykule są obecnie dostępne w publicznej wersji zapoznawczej. Ta wersja zapoznawcza jest udostępniana bez umowy dotyczącej poziomu usług i nie zalecamy korzystania z niej w przypadku obciążeń produkcyjnych. Niektóre funkcje mogą być nieobsługiwane lub ograniczone. Aby uzyskać więcej informacji, zobacz Uzupełniające warunki korzystania z wersji zapoznawczych platformy Microsoft Azure.

Aby używać dużych modeli językowych (LLM) do przetwarzania języka naturalnego, należy użyć narzędzia LLM przepływu monitu.

Uwaga

Aby osadzić w celu przekonwertowania tekstu na gęste reprezentacje wektorów dla różnych zadań przetwarzania języka naturalnego, zobacz Osadzanie narzędzia.

Wymagania wstępne

Przygotuj monit zgodnie z opisem w dokumentacji narzędzia Monituj. Narzędzie LLM i narzędzie Monit obsługują szablony Jinja . Aby uzyskać więcej informacji i najlepszych rozwiązań, zobacz Monituj techniki inżynieryjne.

Kompilowanie za pomocą narzędzia LLM

  1. Tworzenie lub otwieranie przepływu w usłudze Azure AI Studio. Aby uzyskać więcej informacji, zobacz Tworzenie przepływu.

  2. Wybierz pozycję + LLM, aby dodać narzędzie LLM do przepływu.

    Zrzut ekranu przedstawiający narzędzie LLM dodane do przepływu w usłudze Azure AI Studio.

  3. Wybierz połączenie z jednym z zaaprowizowanych zasobów. Na przykład wybierz pozycję Default_AzureOpenAI.

  4. Z listy rozwijanej Interfejs API wybierz pozycję Czat lub ukończenie.

  5. Wprowadź wartości parametrów wejściowych narzędzia LLM opisanych w tabeli Wprowadzanie tekstu. Jeśli wybrano interfejs API czatu, zobacz tabelę Dane wejściowe czatu. Jeśli wybrano interfejs API uzupełniania, zobacz tabelę Wprowadzanie tekstu. Aby uzyskać informacje na temat przygotowywania danych wejściowych monitu, zobacz Wymagania wstępne.

  6. Dodaj więcej narzędzi do przepływu zgodnie z potrzebami. Możesz też wybrać pozycję Uruchom , aby uruchomić przepływ.

  7. Dane wyjściowe są opisane w tabeli Dane wyjściowe.

Dane wejściowe

Dostępne są następujące parametry wejściowe.

Wprowadzanie tekstu

Nazwisko Pisz Opis Wymagania
monit string Monit tekstowy dla modelu językowego. Tak
model, deployment_name string Model językowy do użycia. Tak
max_tokens integer Maksymalna liczba tokenów do wygenerowania w zakończeniu. Wartość domyślna to 16. Nie.
temperature liczba zmiennoprzecinkowa Losowość wygenerowanego tekstu. Wartość domyślna to 1. Nie.
zatrzymać lista Sekwencja zatrzymywania wygenerowanego tekstu. Wartość domyślna to null. Nie.
przyrostek string Tekst dołączony na końcu ukończenia. Nie.
top_p liczba zmiennoprzecinkowa Prawdopodobieństwo użycia najlepszego wyboru z wygenerowanych tokenów. Wartość domyślna to 1. Nie.
logprobs integer Liczba prawdopodobieństwa dziennika do wygenerowania. Wartość domyślna to null. Nie.
echo boolean Wartość wskazująca, czy należy powtórzyć monit w odpowiedzi. Wartość domyślna to „fałsz”. Nie.
presence_penalty liczba zmiennoprzecinkowa Wartość, która kontroluje zachowanie modelu w odniesieniu do powtarzających się fraz. Wartość domyślna to 0. Nie.
frequency_penalty liczba zmiennoprzecinkowa Wartość, która kontroluje zachowanie modelu w zakresie generowania rzadkich fraz. Wartość domyślna to 0. Nie.
best_of integer Liczba najlepszych uzupełnień do wygenerowania. Wartość domyślna to 1. Nie.
logit_bias słownik Stronnicza stronnicza logit dla modelu językowego. Wartość domyślna to pusty słownik. Nie.

Dane wejściowe czatu

Nazwisko Pisz Opis Wymagania
monit string Monit tekstowy, na który powinien odpowiadać model językowy. Tak
model, deployment_name string Model językowy do użycia. Tak
max_tokens integer Maksymalna liczba tokenów do wygenerowania w odpowiedzi. Wartość domyślna to inf. Nie.
temperature liczba zmiennoprzecinkowa Losowość wygenerowanego tekstu. Wartość domyślna to 1. Nie.
zatrzymać lista Sekwencja zatrzymywania wygenerowanego tekstu. Wartość domyślna to null. Nie.
top_p liczba zmiennoprzecinkowa Prawdopodobieństwo użycia najlepszego wyboru z wygenerowanych tokenów. Wartość domyślna to 1. Nie.
presence_penalty liczba zmiennoprzecinkowa Wartość, która kontroluje zachowanie modelu w odniesieniu do powtarzających się fraz. Wartość domyślna to 0. Nie.
frequency_penalty liczba zmiennoprzecinkowa Wartość, która kontroluje zachowanie modelu w zakresie generowania rzadkich fraz. Wartość domyślna to 0. Nie.
logit_bias słownik Stronnicza stronnicza logit dla modelu językowego. Wartość domyślna to pusty słownik. Nie.

Dane wyjściowe

Dane wyjściowe różnią się w zależności od interfejsu API wybranego dla danych wejściowych.

interfejs API Typ zwracany opis
Zakończenie string Tekst jednego przewidywanego ukończenia.
Czat string Tekst jednej odpowiedzi konwersacji.

Następne kroki