Partager via


Informations de référence sur l’API

DevUI fournit une API Réponses compatibles OpenAI, ce qui vous permet d’utiliser le Kit de développement logiciel (SDK) OpenAI ou tout client HTTP pour interagir avec vos agents et flux de travail.

Bientôt disponible

La documentation DevUI pour C# sera bientôt disponible. Consultez la documentation Python ultérieurement ou reportez-vous à la documentation Python pour obtenir des conseils conceptuels.

URL de base

http://localhost:8080/v1

Le port peut être configuré avec l’option --port CLI.

Authentication

Par défaut, DevUI ne nécessite pas d’authentification pour le développement local. Lors de l’exécution avec --auth, l’authentification par jeton du porteur est requise.

Utilisation du Kit de développement logiciel (SDK) OpenAI

Demande de base

from openai import OpenAI

client = OpenAI(
    base_url="http://localhost:8080/v1",
    api_key="not-needed"  # API key not required for local DevUI
)

response = client.responses.create(
    metadata={"entity_id": "weather_agent"},  # Your agent/workflow name
    input="What's the weather in Seattle?"
)

# Extract text from response
print(response.output[0].content[0].text)

Diffusion en continu

response = client.responses.create(
    metadata={"entity_id": "weather_agent"},
    input="What's the weather in Seattle?",
    stream=True
)

for event in response:
    # Process streaming events
    print(event)

Conversations à plusieurs tours

Utilisez le paramètre OpenAI conversation standard pour les conversations multitours :

# Create a conversation
conversation = client.conversations.create(
    metadata={"agent_id": "weather_agent"}
)

# First turn
response1 = client.responses.create(
    metadata={"entity_id": "weather_agent"},
    input="What's the weather in Seattle?",
    conversation=conversation.id
)

# Follow-up turn (continues the conversation)
response2 = client.responses.create(
    metadata={"entity_id": "weather_agent"},
    input="How about tomorrow?",
    conversation=conversation.id
)

DevUI récupère automatiquement l’historique des messages de la conversation et le transmet à l’agent.

Points de terminaison d’API REST

API Réponses (OpenAI Standard)

Exécutez un agent ou un workflow :

curl -X POST http://localhost:8080/v1/responses \
  -H "Content-Type: application/json" \
  -d '{
    "metadata": {"entity_id": "weather_agent"},
    "input": "What is the weather in Seattle?"
  }'

Conversations API (OpenAI Standard)

Point de terminaison Méthode Descriptif
/v1/conversations PUBLIER Créer une conversation
/v1/conversations/{id} GET Obtenir les détails de la conversation
/v1/conversations/{id} PUBLIER Mettre à jour les métadonnées de conversation
/v1/conversations/{id} Supprimer Supprimer une conversation
/v1/conversations?agent_id={id} GET Répertorier les conversations (extension DevUI)
/v1/conversations/{id}/items PUBLIER Ajouter des éléments à la conversation
/v1/conversations/{id}/items GET Répertorier les éléments de conversation
/v1/conversations/{id}/items/{item_id} GET Obtenir un élément de conversation

Entity Management (extension DevUI)

Point de terminaison Méthode Descriptif
/v1/entities GET Répertorier les agents/workflows découverts
/v1/entities/{entity_id}/info GET Obtenir des informations détaillées sur l’entité
/v1/entities/{entity_id}/reload PUBLIER Entité de rechargement à chaud (mode développeur)

Contrôle d’intégrité

curl http://localhost:8080/health

Métadonnées du serveur

Obtenir la configuration et les fonctionnalités du serveur :

curl http://localhost:8080/meta

Returns:

  • ui_mode - Mode actuel (developer ou user)
  • version - Version devUI
  • framework - Nom de l’infrastructure (agent_framework)
  • runtime - Runtime principal (python)
  • capabilities - Indicateurs de fonctionnalité (suivi, proxy OpenAI, déploiement)
  • auth_required - Indique si l’authentification est activée

Mappage d’événements

DevUI mappe les événements Agent Framework aux événements de l’API Réponses OpenAI. Le tableau ci-dessous montre le mappage :

Événements de cycle de vie

Événement OpenAI Événement Agent Framework
response.created + response.in_progress AgentStartedEvent
response.completed AgentCompletedEvent
response.failed AgentFailedEvent
response.created + response.in_progress WorkflowStartedEvent
response.completed WorkflowCompletedEvent
response.failed WorkflowFailedEvent

Types de contenu

Événement OpenAI Contenu de l’infrastructure de l’agent
response.content_part.added + response.output_text.delta TextContent
response.reasoning_text.delta TextReasoningContent
response.output_item.added FunctionCallContent (initial)
response.function_call_arguments.delta FunctionCallContent (args)
response.function_result.complete FunctionResultContent
response.output_item.added (image) DataContent (images)
response.output_item.added (fichier) DataContent (fichiers)
error ErrorContent

Événements de flux de travail

Événement OpenAI Événement Agent Framework
response.output_item.added (ExecutorActionItem) WorkflowEvent avec type="executor_invoked"
response.output_item.done (ExecutorActionItem) WorkflowEvent avec type="executor_completed"
response.output_item.added (ResponseOutputMessage) WorkflowEvent avec type="output"

Extensions personnalisées DevUI

DevUI ajoute des types d’événements personnalisés pour les fonctionnalités spécifiques à Agent Framework :

  • response.function_approval.requested - Demandes d’approbation de fonction
  • response.function_approval.responded - Réponses d’approbation de fonction
  • response.function_result.complete - Résultats de l’exécution de la fonction côté serveur
  • response.workflow_event.complete - Événements de flux de travail
  • response.trace.complete - Suivis d’exécution

Ces extensions personnalisées sont espaces de noms et peuvent être ignorées en toute sécurité par les clients OpenAI standard.

OpenAI Proxy Mode

DevUI fournit une fonctionnalité de proxy OpenAI pour tester des modèles OpenAI directement via l’interface sans créer d’agents personnalisés. Activez via paramètres dans l’interface utilisateur.

curl -X POST http://localhost:8080/v1/responses \
  -H "X-Proxy-Backend: openai" \
  -d '{"model": "gpt-4.1-mini", "input": "Hello"}'

Note

Le mode proxy nécessite une OPENAI_API_KEY variable d’environnement configurée sur le serveur principal.

Étapes suivantes