Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Interfejs DevUI udostępnia interfejs API odpowiedzi zgodny z interfejsem OpenAI, który umożliwia korzystanie z zestawu OpenAI SDK lub dowolnego klienta HTTP do interakcji z agentami i przepływami pracy.
Wkrótce
Dokumentacja usługi DevUI dla języka C# jest dostępna wkrótce. Sprawdź ponownie później lub przejrzyj dokumentację języka Python, aby uzyskać wskazówki koncepcyjne.
Podstawowy adres URL
http://localhost:8080/v1
Port można skonfigurować za pomocą opcji interfejsu --port wiersza polecenia.
Authentication
Domyślnie interfejs DevUI nie wymaga uwierzytelniania na potrzeby programowania lokalnego. W przypadku uruchamiania z --authsystemem wymagane jest uwierzytelnianie tokenu elementu nośnego.
Korzystanie z zestawu OpenAI SDK
Żądanie podstawowe
from openai import OpenAI
client = OpenAI(
base_url="http://localhost:8080/v1",
api_key="not-needed" # API key not required for local DevUI
)
response = client.responses.create(
metadata={"entity_id": "weather_agent"}, # Your agent/workflow name
input="What's the weather in Seattle?"
)
# Extract text from response
print(response.output[0].content[0].text)
Streaming
response = client.responses.create(
metadata={"entity_id": "weather_agent"},
input="What's the weather in Seattle?",
stream=True
)
for event in response:
# Process streaming events
print(event)
Konwersacje obejmujące wiele obrotu
Użyj standardowego parametru OpenAI conversation na potrzeby konwersacji wieloełowych:
# Create a conversation
conversation = client.conversations.create(
metadata={"agent_id": "weather_agent"}
)
# First turn
response1 = client.responses.create(
metadata={"entity_id": "weather_agent"},
input="What's the weather in Seattle?",
conversation=conversation.id
)
# Follow-up turn (continues the conversation)
response2 = client.responses.create(
metadata={"entity_id": "weather_agent"},
input="How about tomorrow?",
conversation=conversation.id
)
Usługa DevUI automatycznie pobiera historię wiadomości konwersacji i przekazuje ją do agenta.
Punkty końcowe interfejsu API REST
Interfejs API odpowiedzi (OpenAI Standard)
Wykonaj agenta lub przepływ pracy:
curl -X POST http://localhost:8080/v1/responses \
-H "Content-Type: application/json" \
-d '{
"metadata": {"entity_id": "weather_agent"},
"input": "What is the weather in Seattle?"
}'
Interfejs API konwersacji (OpenAI Standard)
| Endpoint | Metoda | Opis |
|---|---|---|
/v1/conversations |
Bez znajomości kontekstu, w którym "POST" jest używany, nie mogę zaproponować dokładnego tłumaczenia. Jeżeli dotyczy HTTP, pozostaw jako "POST". | Tworzenie konwersacji |
/v1/conversations/{id} |
GET | Pobieranie szczegółów konwersacji |
/v1/conversations/{id} |
Bez znajomości kontekstu, w którym "POST" jest używany, nie mogę zaproponować dokładnego tłumaczenia. Jeżeli dotyczy HTTP, pozostaw jako "POST". | Aktualizowanie metadanych konwersacji |
/v1/conversations/{id} |
USUŃ | Usuwanie konwersacji |
/v1/conversations?agent_id={id} |
GET | Wyświetlanie listy konwersacji (rozszerzenie DevUI) |
/v1/conversations/{id}/items |
Bez znajomości kontekstu, w którym "POST" jest używany, nie mogę zaproponować dokładnego tłumaczenia. Jeżeli dotyczy HTTP, pozostaw jako "POST". | Dodawanie elementów do konwersacji |
/v1/conversations/{id}/items |
GET | Wyświetlanie listy elementów konwersacji |
/v1/conversations/{id}/items/{item_id} |
GET | Pobieranie elementu konwersacji |
Zarządzanie jednostkami (rozszerzenie DevUI)
| Endpoint | Metoda | Opis |
|---|---|---|
/v1/entities |
GET | Wyświetlanie listy odnalezionych agentów/przepływów pracy |
/v1/entities/{entity_id}/info |
GET | Uzyskiwanie szczegółowych informacji o jednostce |
/v1/entities/{entity_id}/reload |
Bez znajomości kontekstu, w którym "POST" jest używany, nie mogę zaproponować dokładnego tłumaczenia. Jeżeli dotyczy HTTP, pozostaw jako "POST". | Załaduj ponownie jednostkę (tryb dewelopera) |
Kontrola kondycji
curl http://localhost:8080/health
Metadane serwera
Uzyskaj konfigurację i możliwości serwera:
curl http://localhost:8080/meta
Zwraca:
-
ui_mode- Bieżący tryb (developerlubuser) -
version— Wersja devUI -
framework— Nazwa struktury (agent_framework) -
runtime— Środowisko uruchomieniowe zaplecza (python) -
capabilities- Flagi funkcji (śledzenie, serwer proxy OpenAI, wdrożenie) -
auth_required- Czy uwierzytelnianie jest włączone
Mapowanie zdarzeń
Interfejs DevUI mapuje zdarzenia platformy agentów na zdarzenia interfejsu API odpowiedzi interfejsu OpenAI. W poniższej tabeli przedstawiono mapowanie:
Zdarzenia cyklu życia
| Zdarzenie OpenAI | Zdarzenie struktury agenta |
|---|---|
response.created + response.in_progress |
AgentStartedEvent |
response.completed |
AgentCompletedEvent |
response.failed |
AgentFailedEvent |
response.created + response.in_progress |
WorkflowStartedEvent |
response.completed |
WorkflowCompletedEvent |
response.failed |
WorkflowFailedEvent |
Typy zawartości
| Zdarzenie OpenAI | Zawartość platformy agentów |
|---|---|
response.content_part.added + response.output_text.delta |
TextContent |
response.reasoning_text.delta |
TextReasoningContent |
response.output_item.added |
FunctionCallContent (początkowe) |
response.function_call_arguments.delta |
FunctionCallContent (args) |
response.function_result.complete |
FunctionResultContent |
response.output_item.added (obraz) |
DataContent (obrazy) |
response.output_item.added (plik) |
DataContent (pliki) |
error |
ErrorContent |
Zdarzenia przepływu pracy
| Zdarzenie OpenAI | Zdarzenie struktury agenta |
|---|---|
response.output_item.added (ExecutorActionItem) |
WorkflowEvent z type="executor_invoked" |
response.output_item.done (ExecutorActionItem) |
WorkflowEvent z type="executor_completed" |
response.output_item.added (ResponseOutputMessage) |
WorkflowEvent z type="output" |
Rozszerzenia niestandardowe devUI
Usługa DevUI dodaje niestandardowe typy zdarzeń dla funkcji specyficznej dla struktury agentów:
-
response.function_approval.requested- Żądania zatwierdzenia funkcji -
response.function_approval.responded- Odpowiedzi zatwierdzenia funkcji -
response.function_result.complete- Wyniki wykonywania funkcji po stronie serwera -
response.workflow_event.complete- Zdarzenia przepływu pracy -
response.trace.complete- Ślady wykonywania
Te rozszerzenia niestandardowe są przestrzeniami nazw i mogą być bezpiecznie ignorowane przez standardowych klientów openAI.
Tryb serwera proxy OpenAI
Usługa DevUI udostępnia funkcję serwera proxy openAI do testowania modeli OpenAI bezpośrednio za pośrednictwem interfejsu bez tworzenia agentów niestandardowych. Włącz za pomocą ustawień w interfejsie użytkownika.
curl -X POST http://localhost:8080/v1/responses \
-H "X-Proxy-Backend: openai" \
-d '{"model": "gpt-4.1-mini", "input": "Hello"}'
Uwaga / Notatka
Tryb serwera proxy wymaga OPENAI_API_KEY zmiennej środowiskowej skonfigurowanej na zapleczu.
Dalsze kroki
- Śledzenie i obserwowanie — wyświetlanie śladów na potrzeby debugowania
- Zabezpieczenia i wdrażanie — zabezpieczanie wdrożenia devUI