Notes
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Avertissement
L’intégration d’OpenAI Swarm a été déconseillée, car la bibliothèque est remplacée par le nouveau Kit de développement logiciel (SDK) Des agents OpenAI. Envisagez de migrer vers le nouveau Kit de développement logiciel (SDK) pour les fonctionnalités et la prise en charge les plus récentes.
MLflow Tracing fournit une fonctionnalité de suivi automatique pour OpenAI Swarm, une infrastructure multi-agent développée par OpenAI. En activant le suivi automatique pour OpenAI en appelant la mlflow.openai.autolog
fonction, MLflow capture les traces imbriquées et les connecte à l’expérience MLflow active lors de l’appel du Kit de développement logiciel (SDK) OpenAI.
import mlflow
mlflow.openai.autolog()
Outre le suivi de base des appels LLM pour OpenAI, MLflow capture les étapes intermédiaires que l'agent Swarm effectue ainsi que tous les appels d'outils initiés par l'agent.
Conditions préalables
Pour utiliser MLflow Tracing avec OpenAI Swarm, vous devez installer MLflow, le Kit de développement logiciel (SDK) OpenAI et la openai-swarm
bibliothèque.
Développement
Pour les environnements de développement, installez le package MLflow complet avec les extras de Databricks, openai
et openai-swarm
:
pip install --upgrade "mlflow[databricks]>=3.1" openai openai-swarm
Le package complet mlflow[databricks]
inclut toutes les fonctionnalités de développement et d’expérimentation locaux sur Databricks.
Production
Pour les déploiements de production, installez mlflow-tracing
, openai
et openai-swarm
:
pip install --upgrade mlflow-tracing openai openai-swarm
Le mlflow-tracing
package est optimisé pour une utilisation en production.
Remarque
MLflow 3 est fortement recommandé. Notez que OpenAI Swarm lui-même a été déconseillé en faveur du Kit de développement logiciel (SDK) Des agents OpenAI.
Avant d’exécuter les exemples, vous devez configurer votre environnement :
Pour les utilisateurs en dehors des notebooks Databricks : définissez vos variables d’environnement Databricks :
export DATABRICKS_HOST="https://your-workspace.cloud.databricks.com"
export DATABRICKS_TOKEN="your-personal-access-token"
Pour les utilisateurs de notebooks Databricks : ces informations d’identification sont automatiquement définies pour vous.
Clés API : Vérifiez que votre clé API OpenAI est définie :
export OPENAI_API_KEY="your-openai-api-key"
Exemple de base
import mlflow
from swarm import Swarm, Agent
import os
# Ensure your OPENAI_API_KEY is set in your environment
# os.environ["OPENAI_API_KEY"] = "your-openai-api-key" # Uncomment and set if not globally configured
# Calling the autolog API will enable trace logging by default.
mlflow.openai.autolog()
# Set up MLflow tracking to Databricks
mlflow.set_tracking_uri("databricks")
mlflow.set_experiment("/Shared/openai-swarm-demo")
# Define a simple multi-agent workflow using OpenAI Swarm
client = Swarm()
def transfer_to_agent_b():
return agent_b
agent_a = Agent(
name="Agent A",
instructions="You are a helpful agent.",
functions=[transfer_to_agent_b],
)
agent_b = Agent(
name="Agent B",
instructions="Only speak in Haikus.",
)
response = client.run(
agent=agent_a,
messages=[{"role": "user", "content": "I want to talk to agent B."}],
)
Désactiver le suivi automatique
Le suivi automatique pour OpenAI Swarm peut être désactivé globalement en appelant mlflow.openai.autolog(disable=True)
ou mlflow.autolog(disable=True)
.
Étapes suivantes
- Comprendre les concepts de suivi - Découvrez comment MLflow capture et organise les données de trace multi-agent
- Déboguer et observer votre application : utilisez l’interface utilisateur trace pour analyser le comportement de votre application multi-agent
- Évaluer la qualité de votre application - Configurer l’évaluation de la qualité pour votre application basée sur l’agent