Buffersize bei Azure OpenAI Streaming

Thomas Reinhardt 0 Zuverlässigkeitspunkte
2024-03-15T14:43:12.73+00:00

Hi,

Situation:
bei der Verwendung von GPTs (z.B. GPT-4-1106-preview) habe ich bei der Nutzung der Azure OpenAI API im Streaming-Modus relativ lange Buffergrößen beim Generieren von Text (also viele Tokens werden generiert, bevor eine Ausgabe der Chat Completion zusehen ist) . Im Unterschied dazu scheint die API von OpenAI beim Streaming nur eine Buffergröße einem Token zu haben und man sieht den Text flüssig generieren. Also so, als ob jemand im Chat die Buchstaben hintereinander eintippt.

Frage:
Kann man irgendwie die Anzahl der Tokens, die pro Streaming-Paket von Azure OpenAI generiert werden, einstellen? z.B. auch auf 1 Paket pro Token, so dass es "flüssig" aussieht, wenn Text in z.B. einem Chat generiert wird und man nicht erst 20 Sekunden warten muss, bis man die ersten x Tokens lesen kann?

Hoffe die Aufgabe ist verständlich, falls nicht, bitte fragen. Oder ich mache noch ein Video, wo man die Unterschiede sieht. Ich bin wirklich dankbar für jede Hilfe.

LG, Thomas

Azure SDKs
Azure SDKs
Eine Reihe von Visual Studio-Tools, Befehlszeilentools, Laufzeitbinärdateien und Clientbibliotheken, die Clients beim Entwickeln, Testen und Bereitstellen von Apps unterstützen, die in Azure ausgeführt werden.
81 Fragen
0 Kommentare Keine Kommentare
{count} Stimmen

1 Antwort

Sortieren nach: Am hilfreichsten
  1. Ivan Dragov (CONCENTRIX Corporation) 2.555 Zuverlässigkeitspunkte Microsoft-Anbieter
    2024-03-18T10:29:33.6766667+00:00

    Hallo Thomas,

    Hast Du versucht, tokens_in_message Parameter in tiktoken, einem Tokenizer für GPT-4-Modelle, zu verwenden? Dieser Parameter bietet eine Möglichkeit, die Anzahl der Token in einer einzelnen Nachricht innerhalb Deiner GPT-4-Modellkonversation festzulegen. Weitere Informationen findest Du hier:

    Erfahren Sie, wie Sie mit den Modellen GPT-35-Turbo und GPT-4 arbeiten > Verwalten von Konversationen.

    Gruß,

    Ivan Dragov

    0 Kommentare Keine Kommentare

Ihre Antwort

Fragesteller*innen können Antworten als akzeptierte Antworten markiert werden, wodurch Benutzer*innen wissen, dass diese Antwort das Problem gelöst hat.