Notatka
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Symuluje odpowiedzi z usług Azure OpenAI i OpenAI przy użyciu lokalnego modelu językowego.
Przykład konfiguracji
{
"$schema": "https://raw.githubusercontent.com/dotnet/dev-proxy/main/schemas/v2.2.0/rc.schema.json",
"plugins": [
{
"name": "OpenAIMockResponsePlugin",
"enabled": true,
"pluginPath": "~appFolder/plugins/DevProxy.Plugins.dll"
}
]
}
Właściwości konfiguracji
Brak
Opcje wiersza polecenia
Brak
Uwagi
Wtyczka OpenAIMockResponsePlugin symuluje odpowiedzi z usług Azure OpenAI i OpenAI przy użyciu lokalnego modelu językowego. Użycie tej wtyczki umożliwia emulowanie przy użyciu modelu językowego w aplikacji bez nawiązywania połączenia z usługą OpenAI lub Azure OpenAI i ponoszenia kosztów.
Wtyczka używa konfiguracji modelu języka serwera proxy dev do komunikowania się z lokalnym modelem językowym. Aby użyć tej wtyczki, skonfiguruj serwer proxy deweloperów do korzystania z lokalnego modelu językowego.
Ważne
Dokładność odpowiedzi wygenerowanych przez wtyczkę zależy od używanego modelu języka lokalnego. Przed wdrożeniem aplikacji w środowisku produkcyjnym należy przetestować ją przy użyciu modelu językowego, który ma być używany w środowisku produkcyjnym.
Wtyczka OpenAIMockResponsePlugin obsługuje następujące punkty końcowe interfejsu API openAI:
-
Ukończenie czatu (
/v1/chat/completions) — używamessagestablicy i zwraca zchoicespolamicompletion_tokensprompt_tokens/użycia -
Interfejs API odpowiedzi (
/v1/responses) — używainputtablicy i zwraca zoutputpolamiinput_tokens/output_tokensużycia
Wtyczka nie obsługuje innych punktów końcowych interfejsu API interfejsu OpenAI.