Udostępnij za pośrednictwem


Dostosowywanie modeli w usłudze Azure AI Studio

Ważne

Niektóre funkcje opisane w tym artykule mogą być dostępne tylko w wersji zapoznawczej. Ta wersja zapoznawcza jest udostępniana bez umowy dotyczącej poziomu usług i nie zalecamy korzystania z niej w przypadku obciążeń produkcyjnych. Niektóre funkcje mogą być nieobsługiwane lub ograniczone. Aby uzyskać więcej informacji, zobacz Uzupełniające warunki korzystania z wersji zapoznawczych platformy Microsoft Azure.

Kiedy mówimy o dostrajaniu, naprawdę oznaczamy nadzorowane dostrajanie nie ciągłego wstępnego trenowania lub uczenia wzmacniania za pośrednictwem opinii człowieka (RLHF). Nadzorowane dostrajanie odnosi się do procesu ponownego trenowania wstępnie wstępnie wytrenowanych modeli na określonych zestawach danych, zazwyczaj w celu zwiększenia wydajności modelu na określonych zadaniach lub wprowadzenia informacji, które nie były dobrze reprezentowane podczas pierwotnego trenowania modelu podstawowego.

W tym artykule dowiesz się, czy dostrajanie jest właściwym rozwiązaniem dla danego przypadku użycia i jak program Azure AI może obsługiwać twoje potrzeby dostrajania.

Wprowadzenie do dostrajania

Podczas podejmowania decyzji, czy dostrajanie jest właściwym rozwiązaniem do zbadania danego przypadku użycia, istnieją pewne kluczowe terminy, które warto znać:

  • Prompt Engineering to technika, która obejmuje projektowanie monitów dotyczących modeli przetwarzania języka naturalnego. Ten proces poprawia dokładność i trafność w odpowiedziach, optymalizując wydajność modelu.
  • Pobieranie rozszerzonej generacji (RAG) zwiększa wydajność modelu dużego języka (LLM) przez pobieranie danych ze źródeł zewnętrznych i dołączanie ich do monitu. Rozwiązanie RAG umożliwia firmom osiągnięcie dostosowanych rozwiązań przy zachowaniu istotności danych i optymalizacji kosztów.
  • Dostrajanie ponownie wytrenuje istniejący model dużego języka przy użyciu przykładowych danych, co spowoduje utworzenie nowego "niestandardowego" modelu dużego języka zoptymalizowanego przy użyciu podanych przykładów.

Dostrajanie jest zaawansowaną techniką, która wymaga odpowiedniej wiedzy. Poniższe pytania mogą pomóc w ocenie, czy wszystko jest gotowe do dostrajania i jak dobrze przemyślane przez ten proces. Można ich użyć, aby kierować kolejnymi krokami lub identyfikować inne podejścia, które mogą być bardziej odpowiednie.

Dlaczego chcesz dostosować model?

Możesz być gotowy do dostrajania, jeśli:

  • Należy wyraźnie przedstawić konkretny przypadek użycia do dostrajania i zidentyfikować model , który chcesz dostosować.
  • Dobre przypadki użycia dostrajania obejmują kierowanie modelem do zawartości wyjściowej w określonym i dostosowanym stylu, tonu lub formacie albo scenariuszach, w których informacje potrzebne do kierowania modelem są zbyt długie lub złożone, aby zmieścić się w oknie monitu.
  • Zapoznaj się z jasnymi przykładami dotyczącymi podejścia alternatywnego i tego, co zostało przetestowane, jak to możliwe, aby poprawić wydajność.
  • Zidentyfikowano braki przy użyciu modelu podstawowego, takiego jak niespójna wydajność w przypadkach brzegowych, brak możliwości dopasowania wystarczającej liczby monitów strzałów w oknie kontekstowym w celu kierowania modelem, dużym opóźnieniem itp.

Być może nie jesteś gotowy do dostrajania, jeśli:

  • Niewystarczająca wiedza z modelu lub źródła danych.
  • Brak możliwości znalezienia odpowiednich danych do obsługi modelu.
  • Nie ma jasnego przypadku użycia do dostrajania lub niezdolności do wyrażania więcej niż "Chcę ulepszyć model".
  • Jeśli zidentyfikujesz koszt jako podstawowy motywator, zachowaj ostrożność. Dostrajanie może obniżyć koszty niektórych przypadków użycia przez skrócenie monitów lub umożliwienie korzystania z mniejszego modelu, ale istnieje wyższy koszt z góry trenowania i trzeba płacić za hosting własnego modelu niestandardowego. Aby uzyskać więcej informacji na temat dostrajania kosztów dostosowywania usługi Azure OpenAI, zapoznaj się ze stroną cennika.
  • Jeśli chcesz dodać wiedzę z domeny do modelu, zacznij od pobierania rozszerzonej generacji (RAG) z funkcjami takimi jak azure OpenAI na danych lub osadzanie. Często jest to tańsza, bardziej elastyczna i potencjalnie bardziej efektywna opcja w zależności od przypadku użycia i danych.

Co nie działa z alternatywnymi podejściami?

Zrozumienie, gdzie brakuje monitów inżynieryjnych, powinno dostarczyć wskazówek dotyczących dostosowywania. Czy model podstawowy kończy się niepowodzeniem w przypadkach brzegowych lub wyjątkach? Czy model podstawowy nie stale dostarcza danych wyjściowych w odpowiednim formacie i nie można dopasować wystarczającej liczby przykładów w oknie kontekstowym, aby go naprawić?

Przykłady awarii z modelem podstawowym i inżynierią monitów pomogą Zidentyfikować dane, które muszą zebrać w celu dostrajania, oraz sposób oceny dostosowanego modelu.

Oto przykład: Klient chciał użyć biblioteki GPT-3.5-Turbo, aby przekształcić pytania języka naturalnego w zapytania w określonym, niestandardowym języku zapytań. W wierszu polecenia podano wskazówki ("Zawsze zwracaj GQL") i użyto programu RAG do pobrania schematu bazy danych. Jednak składnia nie zawsze była poprawna i często kończyła się niepowodzeniem w przypadku przypadków brzegowych. Zebrali tysiące przykładów pytań dotyczących języka naturalnego i równoważnych zapytań dotyczących bazy danych, w tym przypadków, w których model wcześniej zakończył się niepowodzeniem, i wykorzystali te dane do dostosowania modelu. Połączenie nowego, dostosowanego modelu z zaprojektowanym monitem i pobieraniem przyniosło dokładność danych wyjściowych modelu do akceptowalnych standardów użycia.

Co próbowano do tej pory?

Dostrajanie jest zaawansowaną funkcją, a nie punktem wyjścia dla generacyjnych podróży sztucznej inteligencji. Znasz już podstawy korzystania z dużych modeli językowych (LLMs). Zacznij od oceny wydajności modelu podstawowego z monitem inżynieryjnym i/lub pobieraniem rozszerzonej generacji (RAG), aby uzyskać punkt odniesienia dla wydajności.

Posiadanie punktu odniesienia dla wydajności bez precyzyjnego dostrajania jest niezbędne do poznania, czy dostrajanie ma lepszą wydajność modelu. Dostrajanie przy użyciu nieprawidłowych danych sprawia, że model podstawowy jest gorszy, ale bez punktu odniesienia trudno jest wykryć regresje.

Jeśli wszystko jest gotowe do dostrajania:

  • Powinien być w stanie zademonstrować dowody i wiedzę na temat metod opartych na inżynierii monitu i rag.
  • Możliwość dzielenia się konkretnymi doświadczeniami i wyzwaniami przy użyciu technik innych niż precyzyjne dostrajanie, które zostały już wypróbowane w twoim przypadku użycia.
  • Należy mieć oceny ilościowe wydajności punktu odniesienia, jeśli jest to możliwe.

Typowe znaki, które mogą nie być jeszcze gotowe do dostrajania:

  • Począwszy od dostrajania bez testowania innych technik.
  • Niewystarczająca wiedza lub wiedza na temat tego, jak dostrajanie ma zastosowanie specjalnie do dużych modeli językowych (LLMs).
  • Brak pomiarów porównawczych w celu oceny precyzyjnego dostrajania.

Jakie dane będą używane do dostrajania?

Nawet w przypadku doskonałego użycia dostrajanie jest tak dobre, jak jakość danych, które można dostarczyć. Musisz być gotów zainwestować czas i wysiłek, aby dostrajać pracę. Różne modele wymagają różnych ilości danych, ale często trzeba mieć możliwość zapewnienia dość dużych ilości danych wyselekcjonowanych wysokiej jakości.

Innym ważnym punktem jest nawet w przypadku danych wysokiej jakości, jeśli dane nie są w wymaganym formacie dostrajania, należy zatwierdzić zasoby inżynieryjne w celu prawidłowego sformatowania danych. Aby uzyskać więcej informacji na temat przygotowywania danych do dostrajania, zapoznaj się z dokumentacją dostrajania.

Jeśli wszystko jest gotowe do dostrajania:

  • Zidentyfikowano zestaw danych do dostrajania.
  • Zestaw danych jest w odpowiednim formacie trenowania.
  • W celu zapewnienia jakości zestawu danych zastosowano pewien poziom curation.

Typowe znaki, które mogą nie być jeszcze gotowe do dostrajania:

  • Zestaw danych nie został jeszcze zidentyfikowany.
  • Format zestawu danych nie jest zgodny z modelem, który chcesz dostosować.

Jak zmierzysz jakość dostosowanego modelu?

Nie ma jednej właściwej odpowiedzi na to pytanie, ale należy jasno zdefiniować cele dotyczące tego, jak wygląda sukces z dostrajaniem. W idealnym przypadku nie powinno to być tylko jakościowe, ale powinno obejmować ilościowe miary sukcesu, takie jak wykorzystanie zestawu blokady danych do weryfikacji, a także testowanie akceptacyjne użytkowników lub testowanie A/B dostosowanego modelu do modelu podstawowego.

Obsługiwane modele dostrajania w usłudze Azure AI Studio

Teraz, gdy wiesz, kiedy korzystać z dostrajania w twoim przypadku użycia, możesz przejść do usługi Azure AI Studio, aby znaleźć kilka modeli dostępnych do dostosowania, w tym:

  • Modele usługi Azure OpenAI
  • Rodzina modeli Phi-3
  • Meta Llama 2 modele rodziny
  • Rodzina modeli Meta Llama 3.1

Modele usługi Azure OpenAI

Następujące modele usługi Azure OpenAI są obsługiwane w usłudze Azure AI Studio w celu dostrajania:

Model ID Dostrajanie regionów Maksymalne żądanie (tokeny) Dane szkoleniowe (maksymalnie)
babbage-002 Północno-środkowe stany USA
Szwecja Środkowa
Szwajcaria Zachodnia
16,384 Wrzesień 2021 r.
davinci-002 Północno-środkowe stany USA
Szwecja Środkowa
Szwajcaria Zachodnia
16,384 Wrzesień 2021 r.
gpt-35-turbo (0613) Wschodnie stany USA 2
Północno-środkowe stany USA
Szwecja Środkowa
Szwajcaria Zachodnia
4,096 Wrzesień 2021 r.
gpt-35-turbo (1106) Wschodnie stany USA 2
Północno-środkowe stany USA
Szwecja Środkowa
Szwajcaria Zachodnia
Dane wejściowe: 16 385
Dane wyjściowe: 4096
Wrzesień 2021 r.
gpt-35-turbo (0125) Wschodnie stany USA 2
Północno-środkowe stany USA
Szwecja Środkowa
Szwajcaria Zachodnia
16,385 Wrzesień 2021 r.
gpt-4 (0613) 1 Północno-środkowe stany USA
Szwecja Środkowa
8192 Wrzesień 2021 r.

Dostrajanie 1 GPT-4 jest obecnie dostępne w publicznej wersji zapoznawczej. Aby uzyskać więcej informacji, zobacz nasze wskazówki dotyczące oceny bezpieczeństwa dostrajania GPT-4.

Pamiętaj, aby dostrajać modele usługi Azure OpenAI, musisz dodać połączenie do zasobu usługi Azure OpenAI z obsługiwanym regionem do projektu.

Modele rodziny Phi-3

Następujące modele rodziny Phi-3 są obsługiwane w usłudze Azure AI Studio w celu dostrajania:

  • Phi-3-mini-4k-instruct
  • Phi-3-mini-128k-instruct
  • Phi-3-medium-4k-instruct
  • Phi-3-medium-128k-instruct

Dostrajanie modeli Phi-3 jest obecnie obsługiwane w projektach znajdujących się w regionie Wschodnie stany USA 2.

Modele rodziny Llama 2

Następujące modele rodziny Llama 2 są obsługiwane w usłudze Azure AI Studio w celu dostrajania:

  • Meta-Llama-2-70b
  • Meta-Llama-2-7b
  • Meta-Llama-2-13b

Dostrajanie modeli Llama 2 jest obecnie obsługiwane w projektach znajdujących się w regionie Zachodnie stany USA 3.

Modele rodziny Llama 3.1

Następujące modele rodziny Llama 3.1 są obsługiwane w usłudze Azure AI Studio w celu dostrajania:

  • Meta-Llama-3.1-70b-Instruct
  • Meta-Llama-3.1-8b-Instruct

Dostrajanie modeli Llama 3.1 jest obecnie obsługiwane w projektach znajdujących się w regionie Zachodnie stany USA 3.