Compartir a través de


Referencia de API

DevUI proporciona una API de respuestas compatibles con OpenAI, lo que le permite usar el SDK de OpenAI o cualquier cliente HTTP para interactuar con los agentes y flujos de trabajo.

Próximamente.

La documentación de DevUI para C# estará disponible próximamente. Por favor, vuelva a comprobar más tarde o consulte la documentación de Python para obtener instrucciones conceptuales.

Dirección URL base

http://localhost:8080/v1

El puerto se puede configurar con la opción cli --port .

Autenticación

De forma predeterminada, DevUI no requiere autenticación para el desarrollo local. Cuando se ejecuta con --auth, se requiere la autenticación de token de portador.

Uso del SDK de OpenAI

Solicitud básica

from openai import OpenAI

client = OpenAI(
    base_url="http://localhost:8080/v1",
    api_key="not-needed"  # API key not required for local DevUI
)

response = client.responses.create(
    metadata={"entity_id": "weather_agent"},  # Your agent/workflow name
    input="What's the weather in Seattle?"
)

# Extract text from response
print(response.output[0].content[0].text)

Transmisión en línea

response = client.responses.create(
    metadata={"entity_id": "weather_agent"},
    input="What's the weather in Seattle?",
    stream=True
)

for event in response:
    # Process streaming events
    print(event)

Conversaciones multiturno

Use el parámetro OpenAI conversation estándar para las conversaciones multiturno:

# Create a conversation
conversation = client.conversations.create(
    metadata={"agent_id": "weather_agent"}
)

# First turn
response1 = client.responses.create(
    metadata={"entity_id": "weather_agent"},
    input="What's the weather in Seattle?",
    conversation=conversation.id
)

# Follow-up turn (continues the conversation)
response2 = client.responses.create(
    metadata={"entity_id": "weather_agent"},
    input="How about tomorrow?",
    conversation=conversation.id
)

DevUI recupera automáticamente el historial de mensajes de la conversación y lo pasa al agente.

Puntos de conexión de API REST

API de respuestas (OpenAI Standard)

Ejecute un agente o flujo de trabajo:

curl -X POST http://localhost:8080/v1/responses \
  -H "Content-Type: application/json" \
  -d '{
    "metadata": {"entity_id": "weather_agent"},
    "input": "What is the weather in Seattle?"
  }'

Conversations API (OpenAI Standard)

Punto final Método Description
/v1/conversations POST Creación de una conversación
/v1/conversations/{id} OBTENER Obtener detalles de la conversación
/v1/conversations/{id} POST Actualizar metadatos de conversación
/v1/conversations/{id} DELETE Eliminar una conversación
/v1/conversations?agent_id={id} OBTENER Enumerar conversaciones (extensión DevUI)
/v1/conversations/{id}/items POST Agregar elementos a la conversación
/v1/conversations/{id}/items OBTENER Enumerar elementos de conversación
/v1/conversations/{id}/items/{item_id} OBTENER Obtener un elemento de conversación

Administración de entidades (extensión DevUI)

Punto final Método Description
/v1/entities OBTENER Enumeración de agentes o flujos de trabajo detectados
/v1/entities/{entity_id}/info OBTENER Obtención de información detallada de la entidad
/v1/entities/{entity_id}/reload POST Entidad de recarga activa (modo de desarrollador)

Comprobación de estado

curl http://localhost:8080/health

Metadatos del servidor

Obtención de la configuración y las funcionalidades del servidor:

curl http://localhost:8080/meta

Devoluciones:

  • ui_mode - Modo actual (developer o user)
  • version - Versión de DevUI
  • framework - Nombre del marco (agent_framework)
  • runtime - Tiempo de ejecución de back-end (python)
  • capabilities - Marcas de características (seguimiento, proxy de OpenAI, implementación)
  • auth_required - Indica si la autenticación está habilitada.

Asignación de eventos

DevUI asigna eventos de Agent Framework a eventos de Api de respuestas de OpenAI. En la tabla siguiente se muestra la asignación:

Eventos del ciclo de vida

Evento OpenAI Evento de Marco de agente
response.created + response.in_progress AgentStartedEvent
response.completed AgentCompletedEvent
response.failed AgentFailedEvent
response.created + response.in_progress WorkflowStartedEvent
response.completed WorkflowCompletedEvent
response.failed WorkflowFailedEvent

Tipos de contenido

Evento OpenAI Contenido del marco de trabajo del agente
response.content_part.added + response.output_text.delta TextContent
response.reasoning_text.delta TextReasoningContent
response.output_item.added FunctionCallContent (inicial)
response.function_call_arguments.delta FunctionCallContent (argumentos)
response.function_result.complete FunctionResultContent
response.output_item.added (imagen) DataContent (imágenes)
response.output_item.added (archivo) DataContent (archivos)
error ErrorContent

Eventos de flujo de trabajo

Evento OpenAI Evento de Marco de agente
response.output_item.added (ExecutorActionItem) WorkflowEvent con type="executor_invoked"
response.output_item.done (ExecutorActionItem) WorkflowEvent con type="executor_completed"
response.output_item.added (ResponseOutputMessage) WorkflowEvent con type="output"

Extensiones personalizadas de DevUI

DevUI agrega tipos de eventos personalizados para la funcionalidad específica de Agent Framework:

  • response.function_approval.requested - Solicitudes de aprobación de funciones
  • response.function_approval.responded - Respuestas de aprobación de funciones
  • response.function_result.complete - Resultados de la ejecución de funciones del lado servidor
  • response.workflow_event.complete - Eventos de flujo de trabajo
  • response.trace.complete - Seguimientos de ejecución

Estas extensiones personalizadas están espacio de nombres y se pueden omitir de forma segura por parte de los clientes estándar de OpenAI.

Modo proxy de OpenAI

DevUI proporciona una característica proxy de OpenAI para probar modelos de OpenAI directamente a través de la interfaz sin crear agentes personalizados. Habilite a través de Configuración en la interfaz de usuario.

curl -X POST http://localhost:8080/v1/responses \
  -H "X-Proxy-Backend: openai" \
  -d '{"model": "gpt-4.1-mini", "input": "Hello"}'

Nota:

El modo proxy requiere OPENAI_API_KEY una variable de entorno configurada en el back-end.

Pasos siguientes