Was ist Azure OpenAI Service?

Azure OpenAI Service bietet REST-API-Zugriff auf die leistungsstarken Sprachmodelle von OpenAI, einschließlich der Modellserien GPT-4, GPT-4-Turbo mit Vision, GPT-3.5-Turbo und Einbettungen. Darüber hinaus sind die neuen Modellreihen GPT-4 und GPT-3.5-Turbo nun allgemein verfügbar. Diese Modelle können problemlos an Ihre spezifische Aufgabe angepasst werden, einschließlich, aber nicht beschränkt auf die Erstellung von Inhalten, die Zusammenfassung, die Bildanalyse, die semantische Suche und die Übersetzung von natürlicher Sprache in Code. Benutzer können über REST-APIs, das Python SDK oder unsere webbasierte Schnittstelle in Azure OpenAI Studio auf den Dienst zugreifen.

Featureübersicht

Funktion Azure OpenAI
Verfügbare Modelle GPT-4-Serie (einschließlich GPT-4 Turbo mit Vision)
GPT-3.5-Turbo-Serie
Einbettungsserie
Mehr dazu erfahren Sie auf der Seite Modelle.
Feinabstimmung (Vorschau) GPT-3.5-Turbo (0613)
babbage-002
davinci-002.
Preis Hier verfügbar
Ausführliche Informationen zu GPT-4 Turbo mit Vision finden Sie in den Sonderpreisinformationen.
Unterstützung für virtuelle Netzwerke und private Verbindungen Ja, es sei denn, Sie verwenden Azure OpenAI für Ihre Daten.
Verwaltete Identität Ja, über Microsoft Entra ID
Benutzeroberfläche Azure-Portal für die Konto- und Ressourcenverwaltung,
Azure OpenAI Service Studio für Modelluntersuchung und Feinabstimmung
Regionale Modellverfügbarkeit Modellverfügbarkeit
Inhaltsfilterung Aufforderungen und Vervollständigungen werden anhand unserer Inhaltsrichtlinien mithilfe automatisierter Systeme bewertet. Inhalt mit dem Schweregrad „Hoch“ wird gefiltert.

Verantwortungsvolle KI

Microsoft engagiert sich für die Weiterentwicklung von KI auf der Grundlage von Prinzipien, die den Menschen in den Mittelpunkt stellen. Generative Modelle wie diejenigen, die Azure OpenAI zur Verfügung stehen, bieten potenziell bedeutende Vorteile, aber ohne ein sorgfältiges Design und eine durchdachte Risikominderung können solche Modelle auch falsche oder sogar schädliche Inhalte erzeugen. Microsoft hat erhebliche Investitionen getätigt, um Missbrauch und unbeabsichtigte Schäden zu verhindern. Dazu gehört, dass Antragsteller klar definierte Anwendungsfälle vorweisen müssen, in denen die Prinzipien für eine verantwortungsvolle KI-Nutzung von Microsoft berücksichtigt werden, dass Inhaltsfilter zur Unterstützung der Kunden entwickelt werden und dass neuen Kunden Anleitungen für eine verantwortungsvolle KI-Implementierung zur Verfügung gestellt werden.

Wie erhalte ich Zugriff auf Azure OpenAI?

Wie erhalte ich Zugriff auf Azure OpenAI?

Der Zugang ist derzeit begrenzt, da wir der hohen Nachfrage, bevorstehenden Produktverbesserungen und der Verpflichtung von Microsoft zu verantwortungsvoller KI gerecht werden müssen. Im Moment arbeiten wir mit Kunden zusammen, die bereits eine Partnerschaft mit Microsoft eingegangen sind, deren Anwendungsfälle mit einem geringeren Risiko verbunden sind und die sich verpflichtet haben, Maßnahmen zur Risikominderung zu ergreifen.

Weitere spezifische Informationen finden Sie im Antragsformular. Wir danken Ihnen für Ihre Geduld, während wir daran arbeiten, einen erweiterten Zugang zu Azure OpenAI zu ermöglichen.

Beantragen Sie hier den Zugriff:

Jetzt anwenden

Vergleich von Azure OpenAI und OpenAI

Azure OpenAI Service bietet Kunden eine fortschrittliche Sprach-KI mit OpenAI GPT-4, GPT-3, Codex, DALL-E, Whisper und Sprachsynthesemodellen mit dem Sicherheits- und Unternehmensversprechen von Azure. Azure OpenAI entwickelt die APIs gemeinsam mit OpenAI, um Kompatibilität und einen reibungslosen Übergang von einer zur anderen zu gewährleisten.

Mit Azure OpenAI erhalten Kunden die Sicherheitsfunktionen von Microsoft Azure, wobei sie die gleichen Modelle wie OpenAI ausführen. Azure OpenAI bietet private Netzwerke, regionale Verfügbarkeit und verantwortungsvolle KI-Inhaltsfilterung.

Wichtige Begriffe

Prompts und Vervollständigungen

Der Vervollständigungsendpunkt ist die Kernkomponente des API-Diensts. Diese API bietet Zugriff auf die Texteingabe- und Textausgabeschnittstelle des Modells. Benutzer müssen einfach eine Befehlszeile mit dem englischen Textbefehl bereitstellen, und das Modell generiert eine Vervollständigung für den Text.

Hier sehen Sie ein Beispiel für eine einfache Befehlszeile und Vervollständigung:

Befehlszeile: """ count to 5 in a for loop """

Vervollständigung: for i in range(1, 6): print(i)

Token

Texttoken

Azure OpenAI verarbeitet Text, indem er in Token unterteilt wird. Token können Wörter oder einfach nur Zeichenblöcke sein. Beispielsweise wird das Wort „Hamburger“ in die Token „Ham“, „bur“ und „ger“ unterteilt, während ein kurzes Wort wie „Brot“ ein einzelnes Token ist. Viele Token beginnen mit einem Leerzeichen, z. B. „ Hallo“ und „ Tschüss“.

Die Gesamtzahl der in einer bestimmten Anforderung verarbeiteten Token hängt von der Länge der Eingabe-, Ausgabe- und Anforderungsparameter ab. Die Menge der zu verarbeitenden Token wirkt sich auch auf die Reaktionszeit und den Durchsatz der Modelle aus.

Bildtoken (GPT-4 Turbo mit Vision)

Die Tokenkosten eines Eingabebilds hängen von zwei Hauptfaktoren ab: der Größe des Bilds und der Detaileinstellung (niedrig oder hoch), die für jedes Bild verwendet wird. Im Folgenden ist die Funktionsweise aufgeschlüsselt:

  • Detail: Modus mit niedriger Auflösung

    • Bei geringeren Details kann die API schneller Antworten zurückgeben, und sie verbraucht weniger Eingabetoken für Anwendungsfälle, die keine hohen Details erfordern.
    • Diese Bilder kosten jeweils 85 Token, unabhängig von der Bildgröße.
    • Beispiel: Bild mit 4.096 × 8.192 (wenige Details): Die Kosten sind immer 85 Token, da es sich um ein Bild mit wenigen Details handelt und sich die Größe in diesem Modus nicht auf die Kosten auswirkt.
  • Detail: Modus mit hoher Auflösung

    • Mit vielen Details kann die API das Bild ausführlicher analysieren, indem sie es in kleinere Quadrate zuschneidet. Jedes Quadrat verwendet weitere Token für das Generieren von Text.
    • Die Tokenkosten werden anhand mehrerer Skalierungsschritte berechnet:
      1. Das Bild wird zunächst so skaliert, dass es in ein Quadrat der Größe 2.048 × 2.048 passt, wobei das Seitenverhältnis beibehalten wird.
      2. Das Bild wird dann herunterskaliert, sodass die kürzeste Seite 768 Pixel lang ist.
      3. Das Bild wird in quadratische Kacheln mit 512 Pixeln Seitenlänge unterteilt, und die Anzahl dieser Kacheln (bei unvollständigen Kacheln wird aufgerundet) bestimmt die Endkosten. Jede Kachel kostet 170 Token.
      4. Zusätzliche werden 85 Token auf die Gesamtkosten aufgeschlagen.
    • Beispiel: Bild mit 2.048 × 4.096 (viele Details)
      1. Ursprünglich wurde die Größe auf 1.024 × 2.048 angepasst, um in ein Quadrat mit einer Seitenlänge von 2.048 Pixeln zu passen.
      2. Weitere Größenänderung auf 768 × 1.536.
      3. Erfordert insgesamt sechs 512-Pixel-Kacheln.
      4. Die Gesamtkosten betragen 170 × 6 + 85 = 1105 Token.

Ressourcen

Azure OpenAI ist ein neues Produktangebot in Azure. Der erste Schritt in Azure OpenAI ist wie bei jedem anderen Azure-Produkt die Erstellung einer Ressource (Dienstinstanz) in Ihrem Azure-Abonnement. Informieren Sie sich über das Design der Ressourcenverwaltung von Azure.

Bereitstellungen

Nachdem Sie eine Azure OpenAI-Ressource erstellt haben, müssen Sie ein Modell bereitstellen, bevor Sie mit dem Erstellen von API-Aufrufen und Generieren von Text beginnen können. Dafür können Sie die Bereitstellungs-APIs verwenden. Bei diesen APIs können Sie das Modell angeben, das Sie verwenden möchten.

Prompt Engineering

Die Modelle GPT-3, GPT-3.5 und GPT-4 von OpenAI sind promptbasiert. Bei prompt-basierten Modellen interagiert der Benutzer mit dem Modell, indem er einen Textprompt eingibt, auf den das Modell mit einer Textvervollständigung antwortet. Diese Vervollständigung ist die Fortsetzung des Eingabetexts durch das Modell.

Obwohl diese Modelle äußerst leistungsfähig sind, ist ihr Verhalten auch sehr vom eingegebenen Prompt abhängig. Dies macht das Prompt Engineering zu einer wichtigen Fähigkeit, die es zu entwickeln gilt.

Das Erstellen von Prompts kann schwierig sein. In der Praxis fungiert der Prompt, um die Modellgewichte so zu konfigurieren, dass sie die gewünschte Aufgabe erfüllen. Aber dies ist eher eine Kunst als eine Wissenschaft und es erfordert häufig Erfahrung und Intuition, einen erfolgreichen Prompt zu erstellen.

Modelle

Dieser Dienst bietet Benutzern Zugriff auf viele verschiedene Modelle. All diese Modelle bieten unterschiedliche Funktionen und Preispunkte.

Die DALL-E-Modelle (einige in der Vorschau; sieh Modelle) generieren Bilder aus Textaufforderungen, die der Benutzer bereitstellt.

Die Whisper-Modelle können zur Transkription und zur Übersetzung von gesprochener Sprache in Schrifttexte genutzt werden.

Die Sprachsynthesemodelle, die sich derzeit in der Vorschau befinden, können verwendet werden, um Text in Sprache zu synthetisieren.

Auf unserer Seite mit Modellkonzepten erfahren Sie mehr über die einzelnen Modelle.

Nächste Schritte

Erfahren Sie mehr über die zugrunde liegenden Modelle, auf denen Azure OpenAI basiert.