Partilhar via


Instrutor de Rastreamento

Rastreamento do Instrutor usando o autolog

O Instructor é uma biblioteca Python de código aberto construída sobre o Pydantic, simplificando saídas LLM estruturadas com validação, tentativas e streaming.

MLflow Tracing funciona com o Instructor permitindo o rastreamento automático das bibliotecas LLM subjacentes. Por exemplo, se usares o Instructor para OpenAI LLMs, podes habilitar o rastreamento com mlflow.openai.autolog() e os rastreamentos gerados capturarão as saídas estruturadas provenientes do Instructor.

Da mesma forma, você também pode rastrear o Instructor com outros provedores de LLM, como Anthropic, Gemini e LiteLLM, habilitando o registro automático correspondente no MLflow.

Observação

Em clusters de computação sem servidor, o registro automático não é habilitado automaticamente. Você deve chamar explicitamente a função de registro automático apropriada (por exemplo mlflow.openai.autolog() , oumlflow.anthropic.autolog()) para habilitar o rastreamento automático para essa integração.

Exemplo de Utilização

O exemplo a seguir mostra como rastrear uma chamada de instrutor que encapsula uma API OpenAI.

import instructor
from pydantic import BaseModel
from openai import OpenAI
import mlflow

# Use other autologging function e.g., mlflow.anthropic.autolog() if you are using Instructor with different LLM providers
mlflow.openai.autolog()

# Set up MLflow tracking on Databricks
mlflow.set_tracking_uri("databricks")
mlflow.set_experiment("/Shared/instructor-demo")


# Use Instructor as usual
class ExtractUser(BaseModel):
    name: str
    age: int


client = instructor.from_openai(OpenAI())

res = client.chat.completions.create(
    model="gpt-4o-mini",
    response_model=ExtractUser,
    messages=[{"role": "user", "content": "John Doe is 30 years old."}],
)
print(f"Name: {res.name}, Age:{res.age}")

Próximos passos