Delen via


API-verwijzing

DevUI biedt een OpenAI-compatibele Antwoorden-API, zodat u de OpenAI SDK of een HTTP-client kunt gebruiken om te communiceren met uw agents en werkstromen.

Binnenkort beschikbaar

De DevUI-documentatie voor C# is binnenkort beschikbaar. Kom later terug of raadpleeg de Python-documentatie voor conceptuele richtlijnen.

Basis-URL

http://localhost:8080/v1

De poort kan worden geconfigureerd met de --port CLI-optie.

Authenticatie

DevUI vereist standaard geen verificatie voor lokale ontwikkeling. Bij uitvoering met --authis Bearer-tokenverificatie vereist.

De OpenAI SDK gebruiken

Basisaanvraag

from openai import OpenAI

client = OpenAI(
    base_url="http://localhost:8080/v1",
    api_key="not-needed"  # API key not required for local DevUI
)

response = client.responses.create(
    metadata={"entity_id": "weather_agent"},  # Your agent/workflow name
    input="What's the weather in Seattle?"
)

# Extract text from response
print(response.output[0].content[0].text)

Streamen

response = client.responses.create(
    metadata={"entity_id": "weather_agent"},
    input="What's the weather in Seattle?",
    stream=True
)

for event in response:
    # Process streaming events
    print(event)

Gesprekken met meerdere paden

Gebruik de standaardparameter OpenAI conversation voor gesprekken met meerdere paden:

# Create a conversation
conversation = client.conversations.create(
    metadata={"agent_id": "weather_agent"}
)

# First turn
response1 = client.responses.create(
    metadata={"entity_id": "weather_agent"},
    input="What's the weather in Seattle?",
    conversation=conversation.id
)

# Follow-up turn (continues the conversation)
response2 = client.responses.create(
    metadata={"entity_id": "weather_agent"},
    input="How about tomorrow?",
    conversation=conversation.id
)

DevUI haalt automatisch de berichtgeschiedenis van het gesprek op en geeft deze door aan de agent.

REST API-eindpunten

Response-API (OpenAI Standard)

Voer een agent of werkstroom uit:

curl -X POST http://localhost:8080/v1/responses \
  -H "Content-Type: application/json" \
  -d '{
    "metadata": {"entity_id": "weather_agent"},
    "input": "What is the weather in Seattle?"
  }'

Conversations-API (OpenAI Standard)

Eindpunt Methode Description
/v1/conversations BERICHT Een gesprek maken
/v1/conversations/{id} GET Gespreksgegevens ophalen
/v1/conversations/{id} BERICHT Gespreksmetagegevens bijwerken
/v1/conversations/{id} Verwijderen Een gesprek verwijderen
/v1/conversations?agent_id={id} GET Gesprekken weergeven (DevUI-extensie)
/v1/conversations/{id}/items BERICHT Items toevoegen aan gesprek
/v1/conversations/{id}/items GET Gespreksitems vermelden
/v1/conversations/{id}/items/{item_id} GET Een gespreksitem ophalen

Entiteitsbeheer (DevUI-extensie)

Eindpunt Methode Description
/v1/entities GET Gedetecteerde agents/werkstromen vermelden
/v1/entities/{entity_id}/info GET Gedetailleerde entiteitsgegevens ophalen
/v1/entities/{entity_id}/reload BERICHT Entiteit dynamisch opnieuw laden (ontwikkelaarsmodus)

Statuscontrole

curl http://localhost:8080/health

Servermetagegevens

Serverconfiguratie en -mogelijkheden ophalen:

curl http://localhost:8080/meta

Retouren

  • ui_mode - Huidige modus (developer of user)
  • version - DevUI-versie
  • framework - Frameworknaam (agent_framework)
  • runtime - Back-endruntime (python)
  • capabilities - Functievlagmen (tracering, OpenAI-proxy, implementatie)
  • auth_required - Of verificatie is ingeschakeld

Gebeurtenistoewijzing

DevUI wijst Agent Framework-gebeurtenissen toe aan OpenAI Response API-gebeurtenissen. In de onderstaande tabel ziet u de toewijzing:

Levenscyclus-gebeurtenissen

OpenAI-gebeurtenis Agent Framework-gebeurtenis
response.created + response.in_progress AgentStartedEvent
response.completed AgentCompletedEvent
response.failed AgentFailedEvent
response.created + response.in_progress WorkflowStartedEvent
response.completed WorkflowCompletedEvent
response.failed WorkflowFailedEvent

Inhoudstypen

OpenAI-gebeurtenis Inhoud van agentframework
response.content_part.added + response.output_text.delta TextContent
response.reasoning_text.delta TextReasoningContent
response.output_item.added FunctionCallContent (initiƫle)
response.function_call_arguments.delta FunctionCallContent (args)
response.function_result.complete FunctionResultContent
response.output_item.added (afbeelding) DataContent (afbeeldingen)
response.output_item.added (bestand) DataContent (bestanden)
error ErrorContent

Werkstroomevenementen

OpenAI-gebeurtenis Agent Framework-gebeurtenis
response.output_item.added (ExecutorActionItem) WorkflowEvent met type="executor_invoked"
response.output_item.done (ExecutorActionItem) WorkflowEvent met type="executor_completed"
response.output_item.added (ResponseOutputMessage) WorkflowEvent met type="output"

Aangepaste DevUI-extensies

DevUI voegt aangepaste gebeurtenistypen toe voor agentframeworkspecifieke functionaliteit:

  • response.function_approval.requested - Goedkeuringsaanvragen voor functies
  • response.function_approval.responded - Goedkeuringsantwoorden voor functies
  • response.function_result.complete - Resultaten van de uitvoering van de functie aan de serverzijde
  • response.workflow_event.complete - Werkstroomgebeurtenissen
  • response.trace.complete - Uitvoeringstraceringen

Deze aangepaste extensies zijn naamruimted en kunnen veilig worden genegeerd door standaard OpenAI-clients.

OpenAI-proxymodus

DevUI biedt een OpenAI-proxyfunctie voor het rechtstreeks testen van OpenAI-modellen via de interface zonder aangepaste agents te maken. Inschakelen via Instellingen in de gebruikersinterface.

curl -X POST http://localhost:8080/v1/responses \
  -H "X-Proxy-Backend: openai" \
  -d '{"model": "gpt-4.1-mini", "input": "Hello"}'

Opmerking

Voor de proxymodus is een omgevingsvariabele vereist OPENAI_API_KEY die is geconfigureerd op de back-end.

Volgende stappen