Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
DevUI proporciona una API de respuestas compatibles con OpenAI, lo que le permite usar el SDK de OpenAI o cualquier cliente HTTP para interactuar con los agentes y flujos de trabajo.
Próximamente.
La documentación de DevUI para C# estará disponible próximamente. Por favor, vuelva a comprobar más tarde o consulte la documentación de Python para obtener instrucciones conceptuales.
Dirección URL base
http://localhost:8080/v1
El puerto se puede configurar con la opción cli --port .
Autenticación
De forma predeterminada, DevUI no requiere autenticación para el desarrollo local. Cuando se ejecuta con --auth, se requiere la autenticación de token de portador.
Uso del SDK de OpenAI
Solicitud básica
from openai import OpenAI
client = OpenAI(
base_url="http://localhost:8080/v1",
api_key="not-needed" # API key not required for local DevUI
)
response = client.responses.create(
metadata={"entity_id": "weather_agent"}, # Your agent/workflow name
input="What's the weather in Seattle?"
)
# Extract text from response
print(response.output[0].content[0].text)
Transmisión en línea
response = client.responses.create(
metadata={"entity_id": "weather_agent"},
input="What's the weather in Seattle?",
stream=True
)
for event in response:
# Process streaming events
print(event)
Conversaciones multiturno
Use el parámetro OpenAI conversation estándar para las conversaciones multiturno:
# Create a conversation
conversation = client.conversations.create(
metadata={"agent_id": "weather_agent"}
)
# First turn
response1 = client.responses.create(
metadata={"entity_id": "weather_agent"},
input="What's the weather in Seattle?",
conversation=conversation.id
)
# Follow-up turn (continues the conversation)
response2 = client.responses.create(
metadata={"entity_id": "weather_agent"},
input="How about tomorrow?",
conversation=conversation.id
)
DevUI recupera automáticamente el historial de mensajes de la conversación y lo pasa al agente.
Puntos de conexión de API REST
API de respuestas (OpenAI Standard)
Ejecute un agente o flujo de trabajo:
curl -X POST http://localhost:8080/v1/responses \
-H "Content-Type: application/json" \
-d '{
"metadata": {"entity_id": "weather_agent"},
"input": "What is the weather in Seattle?"
}'
Conversations API (OpenAI Standard)
| Punto final | Método | Description |
|---|---|---|
/v1/conversations |
POST | Creación de una conversación |
/v1/conversations/{id} |
OBTENER | Obtener detalles de la conversación |
/v1/conversations/{id} |
POST | Actualizar metadatos de conversación |
/v1/conversations/{id} |
DELETE | Eliminar una conversación |
/v1/conversations?agent_id={id} |
OBTENER | Enumerar conversaciones (extensión DevUI) |
/v1/conversations/{id}/items |
POST | Agregar elementos a la conversación |
/v1/conversations/{id}/items |
OBTENER | Enumerar elementos de conversación |
/v1/conversations/{id}/items/{item_id} |
OBTENER | Obtener un elemento de conversación |
Administración de entidades (extensión DevUI)
| Punto final | Método | Description |
|---|---|---|
/v1/entities |
OBTENER | Enumeración de agentes o flujos de trabajo detectados |
/v1/entities/{entity_id}/info |
OBTENER | Obtención de información detallada de la entidad |
/v1/entities/{entity_id}/reload |
POST | Entidad de recarga activa (modo de desarrollador) |
Comprobación de estado
curl http://localhost:8080/health
Metadatos del servidor
Obtención de la configuración y las funcionalidades del servidor:
curl http://localhost:8080/meta
Devoluciones:
-
ui_mode- Modo actual (developerouser) -
version- Versión de DevUI -
framework- Nombre del marco (agent_framework) -
runtime- Tiempo de ejecución de back-end (python) -
capabilities- Marcas de características (seguimiento, proxy de OpenAI, implementación) -
auth_required- Indica si la autenticación está habilitada.
Asignación de eventos
DevUI asigna eventos de Agent Framework a eventos de Api de respuestas de OpenAI. En la tabla siguiente se muestra la asignación:
Eventos del ciclo de vida
| Evento OpenAI | Evento de Marco de agente |
|---|---|
response.created + response.in_progress |
AgentStartedEvent |
response.completed |
AgentCompletedEvent |
response.failed |
AgentFailedEvent |
response.created + response.in_progress |
WorkflowStartedEvent |
response.completed |
WorkflowCompletedEvent |
response.failed |
WorkflowFailedEvent |
Tipos de contenido
| Evento OpenAI | Contenido del marco de trabajo del agente |
|---|---|
response.content_part.added + response.output_text.delta |
TextContent |
response.reasoning_text.delta |
TextReasoningContent |
response.output_item.added |
FunctionCallContent (inicial) |
response.function_call_arguments.delta |
FunctionCallContent (argumentos) |
response.function_result.complete |
FunctionResultContent |
response.output_item.added (imagen) |
DataContent (imágenes) |
response.output_item.added (archivo) |
DataContent (archivos) |
error |
ErrorContent |
Eventos de flujo de trabajo
| Evento OpenAI | Evento de Marco de agente |
|---|---|
response.output_item.added (ExecutorActionItem) |
WorkflowEvent con type="executor_invoked" |
response.output_item.done (ExecutorActionItem) |
WorkflowEvent con type="executor_completed" |
response.output_item.added (ResponseOutputMessage) |
WorkflowEvent con type="output" |
Extensiones personalizadas de DevUI
DevUI agrega tipos de eventos personalizados para la funcionalidad específica de Agent Framework:
-
response.function_approval.requested- Solicitudes de aprobación de funciones -
response.function_approval.responded- Respuestas de aprobación de funciones -
response.function_result.complete- Resultados de la ejecución de funciones del lado servidor -
response.workflow_event.complete- Eventos de flujo de trabajo -
response.trace.complete- Seguimientos de ejecución
Estas extensiones personalizadas están espacio de nombres y se pueden omitir de forma segura por parte de los clientes estándar de OpenAI.
Modo proxy de OpenAI
DevUI proporciona una característica proxy de OpenAI para probar modelos de OpenAI directamente a través de la interfaz sin crear agentes personalizados. Habilite a través de Configuración en la interfaz de usuario.
curl -X POST http://localhost:8080/v1/responses \
-H "X-Proxy-Backend: openai" \
-d '{"model": "gpt-4.1-mini", "input": "Hello"}'
Nota:
El modo proxy requiere OPENAI_API_KEY una variable de entorno configurada en el back-end.
Pasos siguientes
- Seguimiento y observabilidad : ver seguimientos para la depuración
- Seguridad e implementación : protección de la implementación de DevUI