Uwaga
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Jako deweloper tworzący aplikacje GenAI potrzebujesz sposobu śledzenia obserwacji dotyczących jakości danych wyjściowych aplikacji. Śledzenie MLflow pozwala dodawać opinie lub oczekiwania bezpośrednio do ścieżek w trakcie opracowywania, zapewniając szybki sposób rejestrowania problemów z jakością, oznaczania udanych przykładów lub dodawania notatek dla przyszłej dokumentacji.
Wymagania wstępne
- Twoja aplikacja jest uzupełniona o MLflow Tracing
- Wygenerowano ślady, uruchamiając aplikację
Dodawanie etykiet do śladów za pośrednictwem interfejsu użytkownika
Narzędzie MLflow ułatwia dodawanie adnotacji (etykiet) bezpośrednio do śladów za pośrednictwem interfejsu użytkownika platformy MLflow.
Uwaga / Notatka
Jeśli korzystasz z notesu usługi Databricks, możesz również wykonać te kroki z poziomu interfejsu użytkownika Trace, który jest renderowany bezpośrednio w notesie.
- Przejdź do karty Ślady w interfejsie użytkownika eksperymentu platformy MLflow
- Otwórz pojedynczy ślad
- W interfejsie użytkownika śledzenia kliknij określony zakres, który chcesz oznaczyć etykietą
- Wybranie zakresu głównego dołącza opinię do całego śledzenia
- Rozwiń kartę Oceny po prawej stronie
- Wypełnij formularz, aby dodać swoją opinię
-
Typ oceny
- Opinie: Subiektywna ocena jakości (oceny, komentarze)
- Oczekiwanie: oczekiwane dane wyjściowe lub wartość (co powinno zostać wygenerowane)
-
Nazwa oceny
- Unikatowa nazwa dla tego, czego dotyczy informacja zwrotna
-
Typ danych
- Liczba
- logiczny
- Sznurek
-
Wartość
- Ocena
-
Uzasadnienie
- Opcjonalne uwagi dotyczące wartości
-
Typ oceny
- Kliknij pozycję Utwórz , aby zapisać etykietę
- Po powrocie do karty Ślady etykieta będzie wyświetlana jako nowa kolumna
Dodawanie etykiet do śladów za pomocą zestawu SDK
Można programowo dodawać etykiety do śladów przy użyciu zestawu SDK platformy MLflow. Jest to przydatne w przypadku automatycznego etykietowania na podstawie logiki aplikacji lub przetwarzania śladów w trybie wsadowym.
Aby zobaczyć pełny zestaw przykładów, odwiedź stronę koncepcji ocen logowania.
import mlflow
@mlflow.trace
def my_app(input: str) -> str:
return input + "_output"
my_app(input="hello")
trace_id = mlflow.get_last_active_trace_id()
# Log a thumbs up/down rating
mlflow.log_feedback(
trace_id=trace_id,
name="quality_rating",
value=1, # 1 for thumbs up, 0 for thumbs down
rationale="The response was accurate and helpful",
source=mlflow.entities.assessment.AssessmentSource(
source_type=mlflow.entities.assessment.AssessmentSourceType.HUMAN,
source_id="bob@example.com",
),
)
# Log expected response text
mlflow.log_expectation(
trace_id=trace_id,
name="expected_response",
value="The capital of France is Paris.",
source=mlflow.entities.assessment.AssessmentSource(
source_type=mlflow.entities.assessment.AssessmentSourceType.HUMAN,
source_id="bob@example.com",
),
)
Dalsze kroki
Kontynuuj pracę z tymi zalecanymi akcjami i samouczkami.
- Zbieranie opinii ekspertów dotyczących domeny — konfigurowanie sesji etykietowania strukturalnego
- Tworzenie zestawów danych oceny — użycie oznakowanych śladów do tworzenia testowych zestawów danych
- Zbieranie opinii użytkowników końcowych — przechwytywanie opinii z wdrożonych aplikacji
Przewodniki referencyjne
Zapoznaj się ze szczegółową dokumentacją dotyczącą pojęć i funkcji wymienionych w tym przewodniku.
- Oceny logowania — szczegółowe omówienie rodzajów ocen i ich zastosowania
- Model danych śledzenia — Zrozumienie, w jaki sposób oceny są dołączane do śladów
- Schematy etykietowania — dowiedz się o zbieraniu ustrukturyzowanych opinii