Udostępnij przez


Referencja API

Interfejs DevUI udostępnia interfejs API odpowiedzi zgodny z interfejsem OpenAI, który umożliwia korzystanie z zestawu OpenAI SDK lub dowolnego klienta HTTP do interakcji z agentami i przepływami pracy.

Wkrótce

Dokumentacja usługi DevUI dla języka C# jest dostępna wkrótce. Sprawdź ponownie później lub przejrzyj dokumentację języka Python, aby uzyskać wskazówki koncepcyjne.

Podstawowy adres URL

http://localhost:8080/v1

Port można skonfigurować za pomocą opcji interfejsu --port wiersza polecenia.

Authentication

Domyślnie interfejs DevUI nie wymaga uwierzytelniania na potrzeby programowania lokalnego. W przypadku uruchamiania z --authsystemem wymagane jest uwierzytelnianie tokenu elementu nośnego.

Korzystanie z zestawu OpenAI SDK

Żądanie podstawowe

from openai import OpenAI

client = OpenAI(
    base_url="http://localhost:8080/v1",
    api_key="not-needed"  # API key not required for local DevUI
)

response = client.responses.create(
    metadata={"entity_id": "weather_agent"},  # Your agent/workflow name
    input="What's the weather in Seattle?"
)

# Extract text from response
print(response.output[0].content[0].text)

Streaming

response = client.responses.create(
    metadata={"entity_id": "weather_agent"},
    input="What's the weather in Seattle?",
    stream=True
)

for event in response:
    # Process streaming events
    print(event)

Konwersacje obejmujące wiele obrotu

Użyj standardowego parametru OpenAI conversation na potrzeby konwersacji wieloełowych:

# Create a conversation
conversation = client.conversations.create(
    metadata={"agent_id": "weather_agent"}
)

# First turn
response1 = client.responses.create(
    metadata={"entity_id": "weather_agent"},
    input="What's the weather in Seattle?",
    conversation=conversation.id
)

# Follow-up turn (continues the conversation)
response2 = client.responses.create(
    metadata={"entity_id": "weather_agent"},
    input="How about tomorrow?",
    conversation=conversation.id
)

Usługa DevUI automatycznie pobiera historię wiadomości konwersacji i przekazuje ją do agenta.

Punkty końcowe interfejsu API REST

Interfejs API odpowiedzi (OpenAI Standard)

Wykonaj agenta lub przepływ pracy:

curl -X POST http://localhost:8080/v1/responses \
  -H "Content-Type: application/json" \
  -d '{
    "metadata": {"entity_id": "weather_agent"},
    "input": "What is the weather in Seattle?"
  }'

Interfejs API konwersacji (OpenAI Standard)

Endpoint Metoda Opis
/v1/conversations Bez znajomości kontekstu, w którym "POST" jest używany, nie mogę zaproponować dokładnego tłumaczenia. Jeżeli dotyczy HTTP, pozostaw jako "POST". Tworzenie konwersacji
/v1/conversations/{id} GET Pobieranie szczegółów konwersacji
/v1/conversations/{id} Bez znajomości kontekstu, w którym "POST" jest używany, nie mogę zaproponować dokładnego tłumaczenia. Jeżeli dotyczy HTTP, pozostaw jako "POST". Aktualizowanie metadanych konwersacji
/v1/conversations/{id} USUŃ Usuwanie konwersacji
/v1/conversations?agent_id={id} GET Wyświetlanie listy konwersacji (rozszerzenie DevUI)
/v1/conversations/{id}/items Bez znajomości kontekstu, w którym "POST" jest używany, nie mogę zaproponować dokładnego tłumaczenia. Jeżeli dotyczy HTTP, pozostaw jako "POST". Dodawanie elementów do konwersacji
/v1/conversations/{id}/items GET Wyświetlanie listy elementów konwersacji
/v1/conversations/{id}/items/{item_id} GET Pobieranie elementu konwersacji

Zarządzanie jednostkami (rozszerzenie DevUI)

Endpoint Metoda Opis
/v1/entities GET Wyświetlanie listy odnalezionych agentów/przepływów pracy
/v1/entities/{entity_id}/info GET Uzyskiwanie szczegółowych informacji o jednostce
/v1/entities/{entity_id}/reload Bez znajomości kontekstu, w którym "POST" jest używany, nie mogę zaproponować dokładnego tłumaczenia. Jeżeli dotyczy HTTP, pozostaw jako "POST". Załaduj ponownie jednostkę (tryb dewelopera)

Kontrola kondycji

curl http://localhost:8080/health

Metadane serwera

Uzyskaj konfigurację i możliwości serwera:

curl http://localhost:8080/meta

Zwraca:

  • ui_mode - Bieżący tryb (developer lub user)
  • version — Wersja devUI
  • framework — Nazwa struktury (agent_framework)
  • runtime — Środowisko uruchomieniowe zaplecza (python)
  • capabilities - Flagi funkcji (śledzenie, serwer proxy OpenAI, wdrożenie)
  • auth_required - Czy uwierzytelnianie jest włączone

Mapowanie zdarzeń

Interfejs DevUI mapuje zdarzenia platformy agentów na zdarzenia interfejsu API odpowiedzi interfejsu OpenAI. W poniższej tabeli przedstawiono mapowanie:

Zdarzenia cyklu życia

Zdarzenie OpenAI Zdarzenie struktury agenta
response.created + response.in_progress AgentStartedEvent
response.completed AgentCompletedEvent
response.failed AgentFailedEvent
response.created + response.in_progress WorkflowStartedEvent
response.completed WorkflowCompletedEvent
response.failed WorkflowFailedEvent

Typy zawartości

Zdarzenie OpenAI Zawartość platformy agentów
response.content_part.added + response.output_text.delta TextContent
response.reasoning_text.delta TextReasoningContent
response.output_item.added FunctionCallContent (początkowe)
response.function_call_arguments.delta FunctionCallContent (args)
response.function_result.complete FunctionResultContent
response.output_item.added (obraz) DataContent (obrazy)
response.output_item.added (plik) DataContent (pliki)
error ErrorContent

Zdarzenia przepływu pracy

Zdarzenie OpenAI Zdarzenie struktury agenta
response.output_item.added (ExecutorActionItem) WorkflowEvent z type="executor_invoked"
response.output_item.done (ExecutorActionItem) WorkflowEvent z type="executor_completed"
response.output_item.added (ResponseOutputMessage) WorkflowEvent z type="output"

Rozszerzenia niestandardowe devUI

Usługa DevUI dodaje niestandardowe typy zdarzeń dla funkcji specyficznej dla struktury agentów:

  • response.function_approval.requested - Żądania zatwierdzenia funkcji
  • response.function_approval.responded - Odpowiedzi zatwierdzenia funkcji
  • response.function_result.complete - Wyniki wykonywania funkcji po stronie serwera
  • response.workflow_event.complete - Zdarzenia przepływu pracy
  • response.trace.complete - Ślady wykonywania

Te rozszerzenia niestandardowe są przestrzeniami nazw i mogą być bezpiecznie ignorowane przez standardowych klientów openAI.

Tryb serwera proxy OpenAI

Usługa DevUI udostępnia funkcję serwera proxy openAI do testowania modeli OpenAI bezpośrednio za pośrednictwem interfejsu bez tworzenia agentów niestandardowych. Włącz za pomocą ustawień w interfejsie użytkownika.

curl -X POST http://localhost:8080/v1/responses \
  -H "X-Proxy-Backend: openai" \
  -d '{"model": "gpt-4.1-mini", "input": "Hello"}'

Uwaga / Notatka

Tryb serwera proxy wymaga OPENAI_API_KEY zmiennej środowiskowej skonfigurowanej na zapleczu.

Dalsze kroki