Azure OpenAI Service-Modelle
Azure OpenAI bietet Zugriff auf viele verschiedene Modelle, gruppiert nach Familie und Funktionalität. Eine Modellfamilie ordnet in der Regel Modelle nach ihrer beabsichtigten Aufgabe zu. In der folgenden Tabelle werden Modellfamilien beschrieben, die aktuell in Azure OpenAI verfügbar sind. Nicht alle Modelle sind derzeit in allen Regionen verfügbar. Eine vollständige Aufschlüsselung finden Sie in diesem Artikel in der Modellfunktionstabelle.
Modellfamilie | Beschreibung |
---|---|
GPT-3 | Eine Reihe von Modellen, die natürliche Sprache verstehen und generieren können Dies schließt das neue ChatGPT-Modell ein. |
Codex | Eine Reihe von Modellen, die Code verstehen und generieren können, einschließlich der Übersetzung natürlicher Sprache in Code |
Einbettungen | Eine Reihe von Modellen, die Einbettungen verstehen und verwenden können. Eine Einbettung ist ein spezielles Format der Datendarstellung, das problemlos von Machine Learning-Modellen und -Algorithmen genutzt werden kann. Die Einbettung ist eine verdichtete Informationsdarstellung der semantischen Bedeutung eines Textteils. Aktuell bieten wir drei Familien von Einbettungsmodellen für unterschiedliche Funktionen: Ähnlichkeit, Textsuche und Codesuche. |
Modellfunktionen
Jede Modellfamilie verfügt über eine Reihe von Modellen, die durch die Funktionalität weiter unterschieden werden. Diese Funktionalität wird in der Regel durch Namen identifiziert, und die alphabetische Reihenfolge dieser Namen zeigt im Allgemeinen die relative Funktionalität und die Kosten dieses Modells innerhalb einer bestimmten Modellfamilie an. Beispielsweise verwenden GPT-3-Modelle Namen wie Ada, Babbage, Curie und Davinci, um die relative Funktionalität und die Kosten anzugeben. Davinci bietet mehr Funktionen und ist teurer als Curie, dies bietet wiederum mehr Funktionen und ist teurer als Babbage usw.
Hinweis
Jede Aufgabe, die von einem weniger fähigen Modell wie Ada ausgeführt werden kann, kann von einem leistungsfähigeren Modell wie Curie oder Davinci ausgeführt werden.
Benennungskonvention
Die Modellnamen von Azure OpenAI entsprechen in der Regel der folgenden Standardbenennungskonvention:
{capability}-{family}[-{input-type}]-{identifier}
Element | BESCHREIBUNG |
---|---|
{capability} |
Die Modellfunktion des Modells. Beispielsweise verwenden GPT-3-Modelletext , während Codex-Modellecode verwenden. |
{family} |
Die relative Familie des Modells. Beispielsweise zählen zu den GPT-3-Modellen ada , babbage , curie und davinci . |
{input-type} |
(Nur Einbettungsmodelle) Der Eingabetyp der Einbettung, die vom Modell unterstützt wird. Beispielsweise unterstützen Einbettungsmodelle zur Textsuche doc und query . |
{identifier} |
Der Versionsbezeichner des Modells. |
Unser leistungsstärkstes GPT-3-Modell heißt z. B. text-davinci-003
, während unser leistungsstärkstes Codex-Modell code-davinci-002
heißt.
Die älteren Versionen von GPT-3-Modellen mit den Namen
ada
,babbage
,curie
unddavinci
, die nicht der Standardbenennungskonvention folgen, dienen in erster Linie der Optimierung. Weitere Informationen erfahren Sie unter Erfahren Sie, wie Sie ein Modell für Ihre Anwendung anpassen.
Ermitteln der verfügbaren Modelle
Sie können mit der Modelllisten-API eine Liste der Modelle abrufen, die sowohl für Rückschlüsse als auch für die Feinabstimmung durch Ihre Azure OpenAI-Ressource verfügbar sind.
Ermitteln des richtigen Modells
Sie sollten mit dem leistungsfähigsten Modell in einer Modellfamilie, um zu überprüfen, ob die Modellfunktionen Ihren Anforderungen entsprechen. Dann können Sie entweder bei diesem Modell bleiben oder zu einem Modell mit geringerer Funktionalität und geringeren Kosten wechseln und die Funktionen dieses Modells optimieren.
GPT-3-Modelle
Die GPT-3-Modelle können natürliche Sprache verstehen und generieren. Der Dienst bietet vier Modellfunktionalitäten, von denen jedes ein anderes Leistungs- und Geschwindigkeitsniveau bietet und sich für unterschiedliche Aufgaben eignet. Davinci ist das leistungsstärkste Modell, während Ada das schnellste ist. Hier sind die Modelle nach dem Umfang der Funktionalität absteigend aufgelistet:
text-davinci-003
text-curie-001
text-babbage-001
text-ada-001
Während Davinci fähigste Modell ist, bieten die anderen Modelle erhebliche Geschwindigkeitsvorteile. Wir empfehlen Benutzern, zum Ausprobieren mit Davinci zu beginnen, da dieses Modell die besten Ergebnisse erzeugt, und den Nutzen zu überprüfen, den Azure OpenAI bieten kann. Sobald Sie einen funktionierenden Prototyp haben, können Sie dann Ihre Modellauswahl mit dem besten Gleichgewicht zwischen Latenz und Leistung für Ihre Anwendung optimieren.
Davinci
Davinci ist das leistungsstärkste Modell. Es kann jede Aufgabe ausführen, die die anderen Modelle ausführen können – oftmals mit weniger Anweisungen. Bei Anwendungen, die ein tiefes Verständnis des Inhalts erfordern, z. B. Zusammenfassungen für eine bestimmte Zielgruppe und kreative Inhaltsgenerierung, generiert Davinci die besten Ergebnisse. Diese größeren Fähigkeiten, die Davinci bietet, erfordern allerdings mehr Computeressourcen. Davinci kostet daher mehr und ist nicht so schnell wie die anderen Modelle.
Ein weiterer Bereich, in dem Davinci überlegen ist, ist das Verstehen der Textintention. Davinci ist für die Lösung vieler verschiedener Logikprobleme und die Erklärung der Motive von Charakteren hervorragend geeignet. Davinci konnte einige der anspruchsvollsten KI-Probleme lösen, die Ursache und Wirkung betreffen.
Verwendung für: Komplexe Intention, Ursache und Wirkung, Zusammenfassung für Die Zielgruppe
Curie
Curie ist leistungsstark und zugleich schnell. Während Davinci Stärken aufweist, wenn es um die Analyse komplizierter Texte geht, ist Curie gut für viele nuancierte Aufgaben wie Stimmungsklassifizierung und Zusammenfassung geeignet. Curie ist auch gut für die Beantwortung von Fragen und die Durchführung von Fragen und Antworten sowie als allgemeiner Service-Chatbot geeignet.
Verwendung für: Sprachübersetzung, komplexe Klassifizierung, Textstimmung, Zusammenfassung
Babbage
Babbage kann einfache Aufgaben, z. B. einfache Klassifizierungen, ausführen. Es ist auch gut geeignet, wenn es bei einer semantischen Suche um die Bewertung geht, wie gut Dokumente mit Suchabfragen übereinstimmen.
Verwendung für: Moderate Klassifizierung, semantische Suchklassifizierung
Ada
Ada ist in der Regel das schnellste Modell und kann Aufgaben wie Textanalyse, Adresskorrektur und bestimmte Arten von Klassifizierungsaufgaben ausführen, die nicht zu nuanciert sind. Die Leistung von Ada kann häufig durch Bereitstellung von mehr Kontext verbessert werden.
Verwendung für: Textanalyse, einfache Klassifizierung, Adresskorrektur, Schlüsselwörter
ChatGPT (gpt-35-turbo)
Das ChatGPT-Modell (gpt-35-turbo) ist ein Sprachmodell, das für Unterhaltungsschnittstellen entwickelt wurde und sich anders als frühere GPT-3-Modelle verhält. Frühere Modelle basierten auf einer Texteingabe und Textausgabe, was bedeutet, dass sie eine Eingabeaufforderungszeichenfolge akzeptierten und eine Vervollständigung zurückgaben, die an die Eingabeaufforderung angefügt werden konnte. Das ChatGPT-Modell basiert jedoch auf der Eingabe einer Unterhaltung und der Ausgabe einer Nachricht. Das Modell erwartet eine Eingabeaufforderungszeichenfolge, die in einem bestimmten chatähnlichen Transkriptformat formatiert ist, und gibt eine Vervollständigung zurück, die eine modellgeschriebene Nachricht im Chat darstellt.
Das ChatGPT-Modell verwendet dieselbe Vervollständigungs-API, die Sie für andere Modelle wie text-davinci-002 verwenden, erfordert jedoch ein eindeutiges Eingabeaufforderungsformat. Es ist wichtig, das neue Eingabeaufforderungsformat zu verwenden, um die besten Ergebnisse zu erzielen. Ohne die richtigen Eingabeaufforderungen ist das Modell in der Regel ausführlich und bietet weniger nützliche Antworten. Weitere Informationen finden Sie in der detaillierten Anleitung.
Codexmodelle
Die Codex-Modelle sind Abkömmlinge der GPT-3-Basismodelle, die Code verstehen und generieren können. Ihre Trainingsdaten umfassen sowohl natürliche Sprache als auch Milliarden öffentlicher Codezeilen aus GitHub.
Sie sind in Python besonders leistungsstark und erzielen kompetente Ergebnisse in mehr als einem Dutzend Sprachen wie C#, JavaScript, Go, Perl, PHP, Ruby, Swift, TypeScript, SQL und Shell. Hier sind die Codex-Modelle nach dem Umfang der Funktionalität absteigend aufgelistet:
code-davinci-002
code-cushman-001
Davinci
Ähnlich wie bei GPT-3 ist Davinci das leistungsstärkste Codex-Modell. Es kann jede Aufgabe ausführen, die die anderen Modelle ausführen können – oftmals mit weniger Anweisungen. Für Anwendungen, die ein tiefes Verständnis des Inhalts erfordern, erzeugt Davinci die besten Ergebnisse. Umfangreichere Funktionalitäten erfordern allerdings mehr Computeressourcen. Darum ist teurer und nicht so schnell wie andere Modelle.
Cushman
Cushman ist leistungsstark und zugleich schnell. Während Davinci stärker ist, wenn es um die Analyse komplizierter Aufgaben geht, ist Cushman ein leistungsstarkes Modell für viele Codegenerierungsaufgaben. Cushman läuft normalerweise schneller und ist billiger als Davinci.
Einbettungsmodelle
Aktuell bieten wir drei Familien von Einbettungsmodellen für unterschiedliche Funktionen:
Jede Familie enthält Modelle, die eine Bandbreite an Funktionalität abdecken. Die folgende Liste gibt die Länge des numerischen Vektors an, der vom Dienst zurückgegeben wird, basierend auf der Modellfunktionalität:
- Ada: 1024 Dimensionen
- Babbage: 2048 Dimensionen
- Curie: 4096 Dimensionen
- Davinci: 12288 Dimensionen
Davinci ist das fähigste Modell, aber langsamer und teurer als die anderen Modelle. Ada ist das Modell mit den geringsten Fähigkeiten, aber sowohl schneller als auch kostengünstiger.
Ähnlichkeitseinbettung
Diese Modelle sind gut für die Erfassung der semantischen Ähnlichkeit zwischen zwei oder mehr Textteilen geeignet.
Anwendungsfälle | Modelle |
---|---|
Clustern, Regression, Anomalieerkennung, Visualisierung | text-similarity-ada-001 text-similarity-babbage-001 text-similarity-curie-001 text-similarity-davinci-001 |
Textsucheinbettung
Diese Modelle helfen bei der Einschätzung, ob umfangreiche Dokumente für eine kurze Suchabfrage relevant sind. Von dieser Familie werden zwei Einbettungstypen unterstützt: doc
zum Einbetten der abzurufenden Dokumente und query
zum Einbetten der Suchabfrage.
Anwendungsfälle | Modelle |
---|---|
Suche, Kontextrelevanz, Informationsabruf | text-search-ada-doc-001 text-search-ada-query-001 text-search-babbage-doc-001 text-search-babbage-query-001 text-search-curie-doc-001 text-search-curie-query-001 text-search-davinci-doc-001 text-search-davinci-query-001 |
Codesucheinbettungen
Ähnlich wie bei den Einbettungsmodellen für die Textsuche werden von dieser Familie zwei Eingabetypen unterstützt: code
zum Einbetten der abzurufenden Codeausschnitte und text
zum Einbetten von natürlichsprachlichen Suchabfragen.
Anwendungsfälle | Modelle |
---|---|
Codesuche und Relevanz | code-search-ada-code-001 code-search-ada-text-001 code-search-babbage-code-001 code-search-babbage-text-001 |
Beachten Sie bei der Verwendung unserer Einbettungsmodelle deren Einschränkungen und Risiken.
Tabelle mit Modellzusammenfassung und Regionsverfügbarkeit
GPT-3-Modelle
Modell-ID | Unterstützung für Vervollständigungen | Unterstützung für Einbettungen | Regionen mit Basismodellen | Regionen mit Feinabstimmung | Maximale Anforderung (Token) | Trainingsdaten (bis) |
---|---|---|---|---|---|---|
ada | Ja | Nein | – | USA, Osten2; USA, Süden-Mitte; Europa, Westen2 | 2.049 | Oktober 2019 |
text-ada-001 | Ja | Nein | USA, Osten; USA, Süden-Mitte; Europa, Westen | – | 2.049 | Oktober 2019 |
babbage | Ja | Nein | – | USA, Osten2; USA, Süden-Mitte; Europa, Westen2 | 2.049 | Oktober 2019 |
text-babbage-001 | Ja | Nein | USA, Osten; USA, Süden-Mitte; Europa, Westen | – | 2.049 | Oktober 2019 |
curie | Ja | Nein | – | USA, Osten2; USA, Süden-Mitte; Europa, Westen2 | 2.049 | Oktober 2019 |
text-curie-001 | Ja | Nein | USA, Osten; USA, Süden-Mitte; Europa, Westen | – | 2.049 | Oktober 2019 |
davinci1 | Ja | Nein | – | USA, Osten2; USA, Süden-Mitte; Europa, Westen2 | 2.049 | Oktober 2019 |
text-davinci-001 | Ja | Nein | USA, Süden-Mitte; Europa, Westen | – | ||
text-davinci-002 | Ja | Nein | USA, Osten; USA, Süden-Mitte; Europa, Westen | – | 4.097 | Juni 2021 |
text-davinci-003 | Ja | Nein | East US | – | 4.097 | Juni 2021 |
text-davinci-fine-tune-0021 | Ja | Nein | – | USA, Osten; Europa, Westen2 | ||
gpt-35-turbo3 (ChatGPT) | Ja | Nein | – | USA, Osten; USA, Süden-Mitte | 4\.096 | September 2021 |
1 Das Modell ist nur auf Anfrage verfügbar. Derzeit akzeptieren wir keine neuen Anforderungen zur Verwendung des Modells.
2 „USA, Osten“ und „Europa, Westen“ sind aufgrund der hohen Nachfrage derzeit nicht für Neukunden zur Feinabstimmung verfügbar. Verwenden Sie die Region „USA, Süden-Mitte“ für die Feinabstimmung.
3 Derzeit ist nur die Version "0301"
dieses Modells verfügbar. Diese Version des Modells wird am 01.08.2023 zugunsten der neueren Version des gpt-35-Modells eingestellt. Weitere Informationen finden Sie unter Versionsverwaltung für ChatGPT-Modelle.
Codexmodelle
Modell-ID | Unterstützung für Vervollständigungen | Unterstützung für Einbettungen | Regionen mit Basismodellen | Regionen mit Feinabstimmung | Maximale Anforderung (Token) | Trainingsdaten (bis) |
---|---|---|---|---|---|---|
code-cushman-0011 | Ja | Nein | USA, Süden-Mitte; Europa, Westen | USA, Osten2; USA, Süden-Mitte; Europa, Westen2 | 2\.048 | |
code-davinci-002 | Ja | Nein | Ost-USA, Europa, Westen | – | 8.001 | Juni 2021 |
code-davinci-fine-tune-0021 | Ja | Nein | – | USA, Osten2; Europa, Westen2 |
1 Das Modell ist nur auf Anfrage für Feinabstimmung verfügbar. Derzeit akzeptieren wir keine neuen Anforderungen zur Feinabstimmung des Modells.
2 „USA, Osten“ ist aufgrund der hohen Nachfrage derzeit nicht für Neukunden zur Feinabstimmung verfügbar. Verwenden Sie die Region „USA, Süden-Mitte“ für US-basiertes Training.
Einbettungsmodelle
Modell-ID | Unterstützung für Vervollständigungen | Unterstützung für Einbettungen | Regionen mit Basismodellen | Regionen mit Feinabstimmung | Maximale Anforderung (Token) | Trainingsdaten (bis) |
---|---|---|---|---|---|---|
text-embeddings-ada-002 | Nein | Ja | USA, Osten; USA, Süden-Mitte; Europa, Westen | – | 2.046 | September 2021 |
text-similarity-ada-001 | Nein | Ja | USA, Osten; USA, Süden-Mitte; Europa, Westen | – | 2.046 | August 2020 |
text-similarity-babbage-001 | Nein | Ja | USA, Süden-Mitte; Europa, Westen | – | 2.046 | August 2020 |
text-similarity-curie-001 | Nein | Ja | USA, Osten; USA, Süden-Mitte; Europa, Westen | – | 2.046 | August 2020 |
text-similarity-davinci-001 | Nein | Ja | USA, Süden-Mitte; Europa, Westen | – | 2.046 | August 2020 |
text-search-ada-doc-001 | Nein | Ja | USA, Süden-Mitte; Europa, Westen | – | 2.046 | August 2020 |
text-search-ada-query-001 | Nein | Ja | USA, Süden-Mitte; Europa, Westen | – | 2.046 | August 2020 |
text-search-babbage-doc-001 | Nein | Ja | USA, Süden-Mitte; Europa, Westen | – | 2.046 | August 2020 |
text-search-babbage-query-001 | Nein | Ja | USA, Süden-Mitte; Europa, Westen | – | 2.046 | August 2020 |
text-search-curie-doc-001 | Nein | Ja | USA, Süden-Mitte; Europa, Westen | – | 2.046 | August 2020 |
text-search-curie-query-001 | Nein | Ja | USA, Süden-Mitte; Europa, Westen | – | 2.046 | August 2020 |
text-search-davinci-doc-001 | Nein | Ja | USA, Süden-Mitte; Europa, Westen | – | 2.046 | August 2020 |
text-search-davinci-query-001 | Nein | Ja | USA, Süden-Mitte; Europa, Westen | – | 2.046 | August 2020 |
code-search-ada-code-001 | Nein | Ja | USA, Süden-Mitte; Europa, Westen | – | 2.046 | August 2020 |
code-search-ada-text-001 | Nein | Ja | USA, Süden-Mitte; Europa, Westen | – | 2.046 | August 2020 |
code-search-babbage-code-001 | Nein | Ja | USA, Süden-Mitte; Europa, Westen | – | 2.046 | August 2020 |
code-search-babbage-text-001 | Nein | Ja | USA, Süden-Mitte; Europa, Westen | – | 2.046 | August 2020 |