Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
DevUI fournit une API Réponses compatibles OpenAI, ce qui vous permet d’utiliser le Kit de développement logiciel (SDK) OpenAI ou tout client HTTP pour interagir avec vos agents et flux de travail.
Bientôt disponible
La documentation DevUI pour C# sera bientôt disponible. Consultez la documentation Python ultérieurement ou reportez-vous à la documentation Python pour obtenir des conseils conceptuels.
URL de base
http://localhost:8080/v1
Le port peut être configuré avec l’option --port CLI.
Authentication
Par défaut, DevUI ne nécessite pas d’authentification pour le développement local. Lors de l’exécution avec --auth, l’authentification par jeton du porteur est requise.
Utilisation du Kit de développement logiciel (SDK) OpenAI
Demande de base
from openai import OpenAI
client = OpenAI(
base_url="http://localhost:8080/v1",
api_key="not-needed" # API key not required for local DevUI
)
response = client.responses.create(
metadata={"entity_id": "weather_agent"}, # Your agent/workflow name
input="What's the weather in Seattle?"
)
# Extract text from response
print(response.output[0].content[0].text)
Diffusion en continu
response = client.responses.create(
metadata={"entity_id": "weather_agent"},
input="What's the weather in Seattle?",
stream=True
)
for event in response:
# Process streaming events
print(event)
Conversations à plusieurs tours
Utilisez le paramètre OpenAI conversation standard pour les conversations multitours :
# Create a conversation
conversation = client.conversations.create(
metadata={"agent_id": "weather_agent"}
)
# First turn
response1 = client.responses.create(
metadata={"entity_id": "weather_agent"},
input="What's the weather in Seattle?",
conversation=conversation.id
)
# Follow-up turn (continues the conversation)
response2 = client.responses.create(
metadata={"entity_id": "weather_agent"},
input="How about tomorrow?",
conversation=conversation.id
)
DevUI récupère automatiquement l’historique des messages de la conversation et le transmet à l’agent.
Points de terminaison d’API REST
API Réponses (OpenAI Standard)
Exécutez un agent ou un workflow :
curl -X POST http://localhost:8080/v1/responses \
-H "Content-Type: application/json" \
-d '{
"metadata": {"entity_id": "weather_agent"},
"input": "What is the weather in Seattle?"
}'
Conversations API (OpenAI Standard)
| Point de terminaison | Méthode | Descriptif |
|---|---|---|
/v1/conversations |
PUBLIER | Créer une conversation |
/v1/conversations/{id} |
GET | Obtenir les détails de la conversation |
/v1/conversations/{id} |
PUBLIER | Mettre à jour les métadonnées de conversation |
/v1/conversations/{id} |
Supprimer | Supprimer une conversation |
/v1/conversations?agent_id={id} |
GET | Répertorier les conversations (extension DevUI) |
/v1/conversations/{id}/items |
PUBLIER | Ajouter des éléments à la conversation |
/v1/conversations/{id}/items |
GET | Répertorier les éléments de conversation |
/v1/conversations/{id}/items/{item_id} |
GET | Obtenir un élément de conversation |
Entity Management (extension DevUI)
| Point de terminaison | Méthode | Descriptif |
|---|---|---|
/v1/entities |
GET | Répertorier les agents/workflows découverts |
/v1/entities/{entity_id}/info |
GET | Obtenir des informations détaillées sur l’entité |
/v1/entities/{entity_id}/reload |
PUBLIER | Entité de rechargement à chaud (mode développeur) |
Contrôle d’intégrité
curl http://localhost:8080/health
Métadonnées du serveur
Obtenir la configuration et les fonctionnalités du serveur :
curl http://localhost:8080/meta
Returns:
-
ui_mode- Mode actuel (developerouuser) -
version- Version devUI -
framework- Nom de l’infrastructure (agent_framework) -
runtime- Runtime principal (python) -
capabilities- Indicateurs de fonctionnalité (suivi, proxy OpenAI, déploiement) -
auth_required- Indique si l’authentification est activée
Mappage d’événements
DevUI mappe les événements Agent Framework aux événements de l’API Réponses OpenAI. Le tableau ci-dessous montre le mappage :
Événements de cycle de vie
| Événement OpenAI | Événement Agent Framework |
|---|---|
response.created + response.in_progress |
AgentStartedEvent |
response.completed |
AgentCompletedEvent |
response.failed |
AgentFailedEvent |
response.created + response.in_progress |
WorkflowStartedEvent |
response.completed |
WorkflowCompletedEvent |
response.failed |
WorkflowFailedEvent |
Types de contenu
| Événement OpenAI | Contenu de l’infrastructure de l’agent |
|---|---|
response.content_part.added + response.output_text.delta |
TextContent |
response.reasoning_text.delta |
TextReasoningContent |
response.output_item.added |
FunctionCallContent (initial) |
response.function_call_arguments.delta |
FunctionCallContent (args) |
response.function_result.complete |
FunctionResultContent |
response.output_item.added (image) |
DataContent (images) |
response.output_item.added (fichier) |
DataContent (fichiers) |
error |
ErrorContent |
Événements de flux de travail
| Événement OpenAI | Événement Agent Framework |
|---|---|
response.output_item.added (ExecutorActionItem) |
WorkflowEvent avec type="executor_invoked" |
response.output_item.done (ExecutorActionItem) |
WorkflowEvent avec type="executor_completed" |
response.output_item.added (ResponseOutputMessage) |
WorkflowEvent avec type="output" |
Extensions personnalisées DevUI
DevUI ajoute des types d’événements personnalisés pour les fonctionnalités spécifiques à Agent Framework :
-
response.function_approval.requested- Demandes d’approbation de fonction -
response.function_approval.responded- Réponses d’approbation de fonction -
response.function_result.complete- Résultats de l’exécution de la fonction côté serveur -
response.workflow_event.complete- Événements de flux de travail -
response.trace.complete- Suivis d’exécution
Ces extensions personnalisées sont espaces de noms et peuvent être ignorées en toute sécurité par les clients OpenAI standard.
OpenAI Proxy Mode
DevUI fournit une fonctionnalité de proxy OpenAI pour tester des modèles OpenAI directement via l’interface sans créer d’agents personnalisés. Activez via paramètres dans l’interface utilisateur.
curl -X POST http://localhost:8080/v1/responses \
-H "X-Proxy-Backend: openai" \
-d '{"model": "gpt-4.1-mini", "input": "Hello"}'
Note
Le mode proxy nécessite une OPENAI_API_KEY variable d’environnement configurée sur le serveur principal.
Étapes suivantes
- Suivi &Observabilité - Afficher les traces pour le débogage
- Sécurité & Déploiement - Sécuriser votre déploiement DevUI