Oharra
Baimena behar duzu orria atzitzeko. Direktorioetan saioa has dezakezu edo haiek alda ditzakezu.
Baimena behar duzu orria atzitzeko. Direktorioak alda ditzakezu.
DevUI proporciona una API de respuestas compatibles con OpenAI, lo que le permite usar el SDK de OpenAI o cualquier cliente HTTP para interactuar con los agentes y flujos de trabajo.
Próximamente.
La documentación de DevUI para C# estará disponible próximamente. Por favor, vuelva a comprobar más tarde o consulte la documentación de Python para obtener instrucciones conceptuales.
Dirección URL base
http://localhost:8080/v1
El puerto se puede configurar con la opción cli --port .
Autenticación
De forma predeterminada, DevUI no requiere autenticación para el desarrollo local. Cuando se ejecuta con --auth, se requiere la autenticación de token de portador.
Uso del SDK de OpenAI
Solicitud básica
from openai import OpenAI
client = OpenAI(
base_url="http://localhost:8080/v1",
api_key="not-needed" # API key not required for local DevUI
)
response = client.responses.create(
metadata={"entity_id": "weather_agent"}, # Your agent/workflow name
input="What's the weather in Seattle?"
)
# Extract text from response
print(response.output[0].content[0].text)
Transmisión en línea
response = client.responses.create(
metadata={"entity_id": "weather_agent"},
input="What's the weather in Seattle?",
stream=True
)
for event in response:
# Process streaming events
print(event)
Conversaciones multiturno
Use el parámetro OpenAI conversation estándar para las conversaciones multiturno:
# Create a conversation
conversation = client.conversations.create(
metadata={"agent_id": "weather_agent"}
)
# First turn
response1 = client.responses.create(
metadata={"entity_id": "weather_agent"},
input="What's the weather in Seattle?",
conversation=conversation.id
)
# Follow-up turn (continues the conversation)
response2 = client.responses.create(
metadata={"entity_id": "weather_agent"},
input="How about tomorrow?",
conversation=conversation.id
)
DevUI recupera automáticamente el historial de mensajes de la conversación y lo pasa al agente.
Puntos de conexión de API REST
API de respuestas (OpenAI Standard)
Ejecute un agente o flujo de trabajo:
curl -X POST http://localhost:8080/v1/responses \
-H "Content-Type: application/json" \
-d '{
"metadata": {"entity_id": "weather_agent"},
"input": "What is the weather in Seattle?"
}'
Conversations API (OpenAI Standard)
| Punto final | Método | Description |
|---|---|---|
/v1/conversations |
POST | Creación de una conversación |
/v1/conversations/{id} |
OBTENER | Obtener detalles de la conversación |
/v1/conversations/{id} |
POST | Actualizar metadatos de conversación |
/v1/conversations/{id} |
DELETE | Eliminar una conversación |
/v1/conversations?agent_id={id} |
OBTENER | Enumerar conversaciones (extensión DevUI) |
/v1/conversations/{id}/items |
POST | Agregar elementos a la conversación |
/v1/conversations/{id}/items |
OBTENER | Enumerar elementos de conversación |
/v1/conversations/{id}/items/{item_id} |
OBTENER | Obtener un elemento de conversación |
Administración de entidades (extensión DevUI)
| Punto final | Método | Description |
|---|---|---|
/v1/entities |
OBTENER | Enumeración de agentes o flujos de trabajo detectados |
/v1/entities/{entity_id}/info |
OBTENER | Obtención de información detallada de la entidad |
/v1/entities/{entity_id}/reload |
POST | Entidad de recarga activa (modo de desarrollador) |
Comprobación de estado
curl http://localhost:8080/health
Metadatos del servidor
Obtención de la configuración y las funcionalidades del servidor:
curl http://localhost:8080/meta
Devoluciones:
-
ui_mode- Modo actual (developerouser) -
version- Versión de DevUI -
framework- Nombre del marco (agent_framework) -
runtime- Tiempo de ejecución de back-end (python) -
capabilities- Marcas de características (seguimiento, proxy de OpenAI, implementación) -
auth_required- Indica si la autenticación está habilitada.
Asignación de eventos
DevUI asigna eventos de Agent Framework a eventos de Api de respuestas de OpenAI. En la tabla siguiente se muestra la asignación:
Eventos del ciclo de vida
| Evento OpenAI | Evento de Marco de agente |
|---|---|
response.created + response.in_progress |
AgentStartedEvent |
response.completed |
AgentCompletedEvent |
response.failed |
AgentFailedEvent |
response.created + response.in_progress |
WorkflowStartedEvent |
response.completed |
WorkflowCompletedEvent |
response.failed |
WorkflowFailedEvent |
Tipos de contenido
| Evento OpenAI | Contenido del marco de trabajo del agente |
|---|---|
response.content_part.added + response.output_text.delta |
TextContent |
response.reasoning_text.delta |
TextReasoningContent |
response.output_item.added |
FunctionCallContent (inicial) |
response.function_call_arguments.delta |
FunctionCallContent (argumentos) |
response.function_result.complete |
FunctionResultContent |
response.output_item.added (imagen) |
DataContent (imágenes) |
response.output_item.added (archivo) |
DataContent (archivos) |
error |
ErrorContent |
Eventos de flujo de trabajo
| Evento OpenAI | Evento de Marco de agente |
|---|---|
response.output_item.added (ExecutorActionItem) |
WorkflowEvent con type="executor_invoked" |
response.output_item.done (ExecutorActionItem) |
WorkflowEvent con type="executor_completed" |
response.output_item.added (ResponseOutputMessage) |
WorkflowEvent con type="output" |
Extensiones personalizadas de DevUI
DevUI agrega tipos de eventos personalizados para la funcionalidad específica de Agent Framework:
-
response.function_approval.requested- Solicitudes de aprobación de funciones -
response.function_approval.responded- Respuestas de aprobación de funciones -
response.function_result.complete- Resultados de la ejecución de funciones del lado servidor -
response.workflow_event.complete- Eventos de flujo de trabajo -
response.trace.complete- Seguimientos de ejecución
Estas extensiones personalizadas están espacio de nombres y se pueden omitir de forma segura por parte de los clientes estándar de OpenAI.
Modo proxy de OpenAI
DevUI proporciona una característica proxy de OpenAI para probar modelos de OpenAI directamente a través de la interfaz sin crear agentes personalizados. Habilite a través de Configuración en la interfaz de usuario.
curl -X POST http://localhost:8080/v1/responses \
-H "X-Proxy-Backend: openai" \
-d '{"model": "gpt-4.1-mini", "input": "Hello"}'
Nota:
El modo proxy requiere OPENAI_API_KEY una variable de entorno configurada en el back-end.
Pasos siguientes
- Seguimiento y observabilidad : ver seguimientos para la depuración
- Seguridad e implementación : protección de la implementación de DevUI