Neuigkeiten in Azure OpenAI Service

April 2024

Feinabstimmungen werden nun in den beiden neuen Regionen „USA, Osten 2“ und „Schweiz, Westen“ unterstützt

Feinabstimmung ist jetzt mit Unterstützung für verfügbar:

USA (Ost) 2

  • gpt-35-turbo (0613)
  • gpt-35-turbo (1106)
  • gpt-35-turbo (0125)

Schweiz, Westen

  • babbage-002
  • davinci-002
  • gpt-35-turbo (0613)
  • gpt-35-turbo (1106)
  • gpt-35-turbo (0125)

Auf der Seite Modelle finden Sie die neuesten Informationen über die Verfügbarkeit der Modelle und die Unterstützung bei der Feinabstimmung in jeder Region.

Trainingsbeispiele für Chats mit mehreren Teilnehmenden

Feinabstimmung unterstützt jetzt Trainingsbeispiele für Chats mit mehreren Teilnehmenden.

GPT-4 (0125) für Azure OpenAI On Your Data verfügbar

Sie können jetzt das GPT-4-Modell (0125) in verfügbaren Regionen mit Azure OpenAI On Your Data verwenden.

März 2024

Risiko- und Sicherheitsüberwachung in Azure OpenAI Studio

Azure OpenAI Studio bietet ein Dashboard zur Risiko- und Sicherheit für jede Ihrer Bereitstellungen, die eine Inhaltsfilterkonfiguration verwenden. Verwenden Sie sie, um die Ergebnisse der Filteraktivität zu überprüfen. Anschließend können Sie Ihre Filterkonfiguration anpassen, um Ihren geschäftlichen Anforderungen besser gerecht zu werden und verantwortungsvolle KI-Prinzipien zu erfüllen.

Verwenden der Risiko- und Sicherheitsüberwachung

Azure OpenAI für Ihre Datenupdates

  • Sie können jetzt eine Verbindung mit einer Elasticsearch-Vektordatenbank herstellen, die mit Azure OpenAI On Your Data verwendet wird.
  • Sie können den Blockgrößenparameter während der Datenerfassung verwenden, um die maximale Anzahl von Token eines bestimmten Datenabschnitts in Ihrem Index festzulegen.

2024-02-01 GA (General Availability)-API veröffentlicht

Dies ist der neueste GA-API-Release und ist der Ersatz für den vorherigen 2023-05-15-GA-Release. Diese Version bietet Unterstützung für die neuesten Azure OpenAI GA-Features wie Whisper, DALLE-3, Feinabstimmung, „für Ihre Daten“ usw.

Features, die sich noch in der Vorschau befinden, z. B. Assistenten, Sprachsynthese (Text To Speech, TTS) und bestimmte Ihrer Datenquellen, erfordern weiterhin eine Vorschau-API-Version. Weitere Informationen finden Sie in unserem Lebenszyklushandbuch für die API-Version.

Allgemeinen Verfügbarkeit (GA) von Whisper

Das Whisper-Spracherkennungsmodell ist jetzt GA sowohl für REST als auch Python. Clientbibliothek-SDKs befinden sich derzeit noch in der öffentlichen Vorschau.

Probieren Sie Whisper aus, indem Sie einem Schnellstart folgen.

DALL-E 3 allgemeine Verfügbarkeit (GA)

Das DALL-E 3-Bildgenerierungsmodell ist jetzt GA sowohl für REST als auch Python. Clientbibliothek-SDKs befinden sich derzeit noch in der öffentlichen Vorschau.

Probieren Sie DALL-E 3 aus, indem Sie einen Schnellstart ausführen.

Neue regionale Unterstützung für DALL-E 3

Sie können jetzt mit einer Azure OpenAI-Ressource in der Azure-Region East US oder AustraliaEast auf DALL-E 3 zugreifen, zusätzlich zu SwedenCentral.

Modellveralterungen und -außerkraftsetzungen

Wir haben eine Seite hinzugefügt, um Modellveralterungen und -außerkraftsetzungen im Azure OpenAI-Dienst nachzuverfolgen. Dieses Dokument enthält Informationen zu den derzeit verfügbaren, den veralteten und den eingestellten Modellen.

2024-03-01-Preview-API veröffentlicht

2024-03-01-preview hat alle die gleichen Funktionen wie 2024-02-15-preview und fügt zwei neue Parameter für Einbettungen hinzu:

  • encoding_format ermöglicht es Ihnen, das Format zum Generieren von Einbettungen in float, oder base64. Der Standardwert ist float.
  • dimensions ermöglicht das Festlegen der Anzahl der Ausgabeeinbettungen. Dieser Parameter wird nur mit den neuen Einbettungsmodellen der dritten Generation unterstützt: text-embedding-3-large, text-embedding-3-small. In der Regel sind größere Einbettungen aus Compute-, Arbeitsspeicher- und Speicherperspektive teurer. Die Möglichkeit, die Anzahl der Dimensionen anzupassen, ermöglicht eine bessere Kontrolle über die Gesamtkosten und die Leistung. Der Parameter dimensions wird nicht in allen Versionen der OpenAI 1.x-Python-Bibliothek unterstützt. Um diesen Parameter zu nutzen, empfehlen wir ein Upgrade auf die neueste Version: pip install openai --upgrade.

Wenn Sie derzeit eine Vorschau-API-Version verwenden, um die neuesten Features zu nutzen, empfehlen wir, den ARTIKEL zum API-Versionslebenszyklus zu konsultieren, um nachzuverfolgen, wie lange Ihre aktuelle API-Version unterstützt wird.

Aktualisieren auf GPT-4-1106-Preview-Upgradepläne

Das für den 8. März 2024 geplante Bereitstellungsupgrade von gpt-4 1106-Preview auf gpt-4 0125-Vorschau findet nicht mehr statt. Bereitstellungen der gpt-4 Versionen 1106-Preview und 0125-Preview werden auf "Automatisches Update auf Standard" festgelegt, und „Upgrade nach ablaufen“ wird gestartet, nachdem eine stabile Version des Modells veröffentlicht wurde.

Weitere Informationen zum Upgradeprozess finden Sie auf der Modellseite.

Februar 2024

GPT-3.5-Turbo-0125-Modell verfügbar

Dieses Modell weist verschiedene Verbesserungen auf, darunter eine höhere Genauigkeit bei der Beantwortung von Anfragen in den gewünschten Formaten und die Behebung eines Fehlers, der ein Problem mit der Textkodierung bei nicht englischsprachigen Funktionsaufrufen verursachte.

Informationen zur regionalen Modellverfügbarkeit finden Sie auf der Modellseite.

Verfügbare Einbettungsmodelle der dritten Generation

  • text-embedding-3-large
  • text-embedding-3-small

In Tests berichtet OpenAI, dass sowohl das große als auch das kleine Einbettungsmodell der dritten Generation beim MIRACL-Benchmark eine bessere durchschnittliche mehrsprachige Retrieval-Leistung bietet, während es beim MTEB-Benchmark für englische Aufgaben immer noch besser abschneidet als das Texteinbettungsmodell der zweiten Generation (ad-002).

Informationen zur regionalen Modellverfügbarkeit finden Sie auf der Modellseite.

GPT-3.5 Turbo-Kontingentkonsolidierung

Um die Migration zwischen verschiedenen Versionen der GPT-3.5-Turbo-Modelle (einschließlich 16k) zu vereinfachen, konsolidieren wir alle GPT-3.5-Turbo-Kontingente in einem einzigen Kontingentwert.

  • Alle Kunden, die das genehmigte Kontingent erhöht haben, verfügen über ein kombiniertes Gesamtkontingent, das die vorherigen Erhöhungen widerspiegelt.

  • Jeder Kunde, dessen aktuelle Gesamtnutzung in Modellversionen kleiner ist als der Standardwert, erhält standardmäßig ein neues kombiniertes Gesamtkontingent.

GPT-4-0125-preview-Modell verfügbar

Das gpt-4-Modell Version 0125-preview ist jetzt in Azure OpenAI Service in den Regionen USA, Osten, USA, Norden-Mitte und USA, Süden-Mitte verfügbar. Bereitstellungen von gpt-4 Version 1106-preview werden in den kommenden Wochen automatisch auf 0125-preview aktualisiert.

Informationen zur regionalen Modellverfügbarkeit finden Sie auf der Modellseite.

Öffentliche Vorschau der Assistants-API

Azure OpenAI unterstützt jetzt die API, die die GPTs von OpenAI unterstützt. Mit Azure OpenAI Assistants (Vorschau) können Sie KI-Assistenten erstellen, die dank benutzerdefinierte Anweisungen auf Ihre Anforderungen zugeschnitten sind und durch erweiterte Tools wie Codeinterpreter und benutzerdefinierte Funktionen ergänzt werden. Weitere Informationen finden Sie unter:

Öffentliche Vorschau der OpenAI-Stimmen für die Sprachsynthese

Der Azure OpenAI Service unterstützt jetzt Sprachsynthese-APIs mit OpenAI-Stimmen. Rufen Sie KI-generierte Sprache aus dem von Ihnen bereitgestellten Text ab. Weitere Informationen finden Sie in der Übersichtsanleitung. Schauen Sie auch in den Schnellstart rein.

Hinweis

Azure KI Speech unterstützt auch OpenAI-Stimmen für die Sprachsynthese. Weitere Informationen finden Sie im Leitfaden OpenAI-Stimmen für die Sprachsynthese über Azure OpenAI Service oder über Azure KI Speech.

Neue Optimierungsfunktionen und Modellunterstützung

Neue regionale Unterstützung für Azure OpenAI auf Ihren Daten

Sie können Azure OpenAI jetzt auf Ihren Daten in der folgenden Azure-Region verwenden:

  • Südafrika, Norden

Allgemeine Verfügbarkeit von Azure OpenAI auf Ihren Daten

Dezember 2023

Azure OpenAI Service auf Ihren Daten

  • Vollständige Unterstützung für VPN und private Endpunkte für Azure OpenAI für Ihre Daten, einschließlich Sicherheitsunterstützung für Speicherkonten, Azure OpenAI-Ressourcen und Ressourcen des Azure KI-Suchdiensts.
  • Neuer Artikel für die sichere Verwendung von Azure OpenAI auf Ihren Daten, indem Sie Daten mit virtuellen Netzwerken und privaten Endpunkten schützen.

GPT-4 Turbo mit Vision jetzt verfügbar

GPT-4 Turbo mit Vision on Azure OpenAI-Dienst befindet sich jetzt in der öffentlichen Vorschau. GPT-4 Turbo mit Vision ist ein großes multimodales Modell (LMM), das von OpenAI entwickelt wurde, das Bilder analysieren und Textantworten auf Fragen zu ihnen liefern kann. Es umfasst sowohl die Verarbeitung natürlicher Sprache als auch das visuelle Verständnis. Mit dem erweiterten Modus können Sie die Azure AI Vision-Features verwenden, um zusätzliche Einblicke aus den Bildern zu generieren.

  • Erkunden Sie die Funktionen von GPT-4 Turbo mit Vision in einer codefreien Erfahrung mit dem Azure Open AI Playground. Weitere Informationen finden Sie in der Schnellstartanleitung.
  • Vision-Erweiterungen mit GPT-4 Turbo mit Vision sind jetzt im Azure Open AI Playground verfügbar und umfassen Unterstützung für optische Zeichenerkennung, Objekterdung, Bildunterstützung für „Hinzufügen eigener Daten“ und Unterstützung für Video-Prompt.
  • Tätigen Sie Aufrufe an die Chat-API direkt mithilfe der REST-API.
  • Die Verfügbarkeit von Regionen ist derzeit auf SwitzerlandNorth, SwedenCentral, WestUSund AustraliaEast
  • Erfahren Sie mehr über die bekannten Einschränkungen von GPT-4 Turbo mit Vision und anderen häufig gestellten Fragen.

November 2023

Unterstützung neuer Datenquellen in Azure OpenAI auf Ihren Daten

  • Sie können jetzt Azure Cosmos DB for MongoDB vCore sowie URLs/Webadressen als Datenquellen verwenden, um Ihre Daten zu erfassen und mit einem unterstützten Azure OpenAI-Modell zu chatten.

GPT-4 Turbo Preview und GPT-3.5-Turbo-1106 veröffentlicht

Beide Modelle sind der neueste Release von OpenAI mit verbesserter Anweisung, JSON-Modus, reproduzierbare Ausgabe und parallele Funktionsaufrufe.

  • GPT-4 Turbo Preview verfügt über ein max. Kontextfenster von 128.000 Token und kann 4.096 Ausgabetoken generieren. Es verfügt über die neuesten Schulungsdaten mit Wissen bis April 2023. Dieses Modell befindet sich in der Vorschau und wird für die Produktionsumgebung nicht empfohlen. Alle Bereitstellungen dieses Vorschaumodells werden automatisch aktualisiert, sobald die stabile Version verfügbar ist.

  • GPT-3.5-Turbo-1106 hat ein maximales Kontextfenster von 16.385 Token und kann 4.096 Ausgabe-Token erzeugen.

Informationen zur regionalen Modellverfügbarkeit finden Sie auf der Modellseite.

Die Modelle weisen ihre eigenen eindeutigen Kontingentzuweisungen pro Region auf.

DALL-E 3 öffentliche Vorschau

DALL-E 3 ist das neueste Bildgenerierungsmodell von OpenAI. Es verfügt über verbesserte Bildqualität, komplexere Szenen und verbesserte Leistung beim Rendern von Text in Bildern. Es verfügt auch über mehr Seitenverhältnisoptionen. DALL-E 3 ist über OpenAI Studio und über die REST-API verfügbar. Ihre OpenAI-Ressource muss sich in der SwedenCentral Azure-Region befinden.

DALL-E 3 verfügt über eine integrierte Prompt-Rewriting-Funktion zur Verbesserung der Bilder, zur Reduzierung von Verzerrungen und zur Erhöhung der natürlichen Variation.

Probieren Sie DALL-E 3 aus, indem Sie einen Schnellstart ausführen.

Verantwortungsvolle KI

  • Erweiterte Kundenkonfigurierbarkeit: Alle Azure OpenAI-Kunden können jetzt alle Schweregrade (Niedrig, Mittel, Hoch) für die Kategorien Hass, Gewalt, Sexualität und Selbstverletzung konfigurieren. U  a. kann nur nach Inhalten mit dem Schweregrad „Hoch“ gefiltert werden. Konfigurieren von Inhaltsfiltern

  • Inhaltsnachweise in allen DALL-E-Modellen: KI-generierten Bilder aus allen DALL-E-Modellen enthalten jetzt einen digitalen Nachweis, der den Inhalt als KI-generiert offenlegt. Anwendungen, die Bildressourcen anzeigen, können das Content Authenticity Initiative SDK (Open Source) nutzen, um Nachweise in den KI-generierten Bildern anzuzeigen. Inhaltsnachweise in Azure OpenAI

  • Neue RAI-Modelle

    • Jailbreak-Risikoerkennung: Jailbreak-Angriffe sind Benutzer-Prompts, die darauf abzielen, ein Verhalten des generativen KI-Modells zu provozieren, für dessen Vermeidung es trainiert wurde, oder gegen die in der Systemnachricht festgelegten Regeln zu verstoßen. Das Jailbreak-Risikoerkennungsmodell ist optional (standardmäßig deaktiviert) und im Kommentar- und Filtermodell verfügbar. Es wird bei Benutzer-Prompts ausgeführt.
    • Geschützter Materialtext: Geschützter Materialtext beschreibt bekannte Textinhalte (z. B. Liedtexte, Artikel, Rezepte und ausgewählte Webinhalte), die von großen Sprachmodellen ausgegeben werden können. Das Modell für geschützten Materialtext ist optional (standardmäßig deaktiviert) und steht im Kommentar- und Filtermodell zur Verfügung. Es wird bei LLM-Vervollständigungen ausgeführt.
    • Geschützter Materialcode: Geschützter Materialcode beschreibt Quellcode, der Quellcode aus öffentlichen Repositorys entspricht, die von großen Sprachmodellen ohne ordnungsgemäße Nennung von Quellrepositorys ausgegeben werden können. Das Modell für geschützten Materialcode ist optional (standardmäßig deaktiviert) und im Kommentar- und Filtermodell verfügbar. Es wird bei LLM-Vervollständigungen ausgeführt.

    Konfigurieren von Inhaltsfiltern

  • Blocklisten: Kunden können jetzt schnell das Verhalten des Inhaltsfilters für Prompts und Vervollständigungen weiter anpassen, indem sie eine benutzerdefinierte Blockliste in ihren Filtern erstellen. Mit der benutzerdefinierten Blockliste kann der Filter Aktionen für eine benutzerdefinierte Liste von Mustern ausführen, z. B. für bestimmte Begriffe oder RegEx-Muster. Zusätzlich zu benutzerdefinierten Blocklisten stellen wir eine Microsoft-Profanitätsblockliste (Englisch) bereit. Verwenden von Blocklisten

Oktober 2023

Neues Feinabstimmen der Modelle (Vorschau)

Azure OpenAI Service auf Ihren Daten

  • Neue benutzerdefinierte Parameter zum Bestimmen der Anzahl der abgerufenen Dokumente und der Genauigkeit
    • Die Genauigkeitseinstellung legt den Schwellenwert fest, um Dokumente als relevant für Ihre Abfragen zu kategorisieren.
    • Die Einstellung für abgerufene Dokumente gibt die Anzahl der Topbewertungsdokumente aus Ihrem Datenindex an, die zum Generieren von Antworten verwendet werden.
  • Sie können den Datenerfassungs-/Uploadstatus im Azure OpenAI Studio anzeigen.
  • Unterstützung für private Endpunkte und VPNs für Blobcontainer.

September 2023

GPT-4

GPT-4 und GPT-4-32k sind jetzt für alle Azure OpenAI Service-Kunden verfügbar. Kunden müssen sich nicht mehr für die Warteliste bewerben, um GPT-4 und GPT-4-32k zu verwenden (die Registrierungsanforderungen für eingeschränkten Zugriff gelten weiterhin für alle Azure OpenAI-Modelle). Die Verfügbarkeit kann je nach Region variieren. Auf der Seite Modelle finden Sie die neuesten Informationen zur Modellverfügbarkeit in jeder Region.

GPT-3.5 Turbo Instruct

Azure OpenAI Service unterstützt jetzt das GPT-3.5 Turbo Instruct-Modell. Dieses Modell weist eine mit text-davinci-003 vergleichbare Leistung auf und ist für die Verwendung mit der Vervollständigungs-API verfügbar. Auf der Seite Modelle finden Sie die neuesten Informationen zur Modellverfügbarkeit in jeder Region.

Whisper in der Public Preview

Azure OpenAI Service unterstützt ab sofort Spracherkennungs-APIs, die auf dem Whisper-Modell von OpenAI basieren. Erhalten Sie KI-generierten Text auf Grundlage der von Ihnen bereitgestellten Sprachaufnahmen. Weitere Informationen finden Sie unter Schnellstart.

Hinweis

Azure KI Speech unterstützt über die Batchtranskriptions-API ebenfalls das Whisper-Modell von OpenAI. Weitere Informationen finden Sie im Leitfaden Erstellen einer Batchtranskription. Im Artikel Was ist das Whisper-Modell? erfahren Sie mehr darüber, wann Azure KI Speech bzw. wann Azure OpenAI Service verwendet werden sollte.

Neue Regionen

  • Azure OpenAI ist jetzt auch in den Regionen Schweden, Mitte und Schweiz, Norden verfügbar. Auf der Seite Modelle finden Sie die neuesten Informationen zur Modellverfügbarkeit in jeder Region.

Erhöhung der regionalen Kontingentgrenzen

  • Wird auf die maximalen Standardkontingentgrenzwerte für bestimmte Modelle und Regionen erhöht. Durch die Migration von Workloads zu diesen Modellen und Regionen können Sie höhere Token pro Minute (TPM) nutzen.

August 2023

Updates zu Azure OpenAI für Ihre eigenen Daten (Vorschau)

Juli 2023

Unterstützung für Funktionsaufrufe

Erhöhung des Einbettens von Eingabearrays

Neue Regionen

  • Azure OpenAI ist jetzt auch in den Regionen „Kanada, Osten“, „USA, Osten 2“, „Japan, Osten“ und „USA, Norden-Mitte“ verfügbar. Auf der Seite Modelle finden Sie die neuesten Informationen zur Modellverfügbarkeit in jeder Region.

Juni 2023

Verwenden von Azure OpenAI für Ihre eigenen Daten (Vorschau)

  • Azure OpenAI auf Ihren Daten ist jetzt in der Vorschau verfügbar und ermöglicht es Ihnen, mit OpenAI-Modellen wie GPT-35-Turbo und GPT-4 zu chatten und Antworten auf der Grundlage Ihrer Daten zu erhalten.

Neue Versionen der Modelle gpt-35-turbo und gpt-4

  • gpt-35-turbo (Version 0613)
  • gpt-35-turbo-16k (Version 0613)
  • gpt-4 (Version 0613)
  • gpt-4-32k (Version 0613)

UK, Süden

  • Azure OpenAI ist jetzt in der Region „Vereinigtes Königreich, Süden“ verfügbar. Auf der Seite Modelle finden Sie die neuesten Informationen zur Modellverfügbarkeit in jeder Region.

Inhaltsfilter und Anmerkungen (Vorschau)

Kontingent

Mai 2023

Java- und JavaScript-SDK-Unterstützung

  • NEUE Azure OpenAI-Vorschau-SDKs bieten Unterstützung für JavaScript und Java.

Allgemeine Verfügbarkeit (GA) der Azure OpenAI Chat Completion

  • Allgemeine Verfügbarkeit der Unterstützung für:
    • Chat Completion-API, Version 2023-05-15.
    • GPT-35-Turbo-Modelle.
    • GPT-4-Modellreihe.

Wenn Sie derzeit die 2023-03-15-preview-API verwenden, empfiehlt es sich, zur GA der 2023-05-15-API zu migrieren. Wenn Sie derzeit die API-Version 2022-12-01 verwenden, bleibt diese API allgemein verfügbar, umfasst jedoch nicht die neuesten Chat Completion-Funktionen.

Wichtig

Die Verwendung der aktuellen Versionen der GPT-35-Turbo-Modelle mit dem Vervollständigungsendpunkt bleibt weiterhin in der Vorschauphase.

Frankreich, Mitte

  • Azure OpenAI ist jetzt in der Region „Frankreich, Mitte“ verfügbar. Auf der Seite Modelle finden Sie die neuesten Informationen zur Modellverfügbarkeit in jeder Region.

April 2023

  • DALL-E 2 öffentliche Vorschau. Der Azure OpenAI Service unterstützt jetzt APIs zur Imagegenerierung, die auf dem DALL-E2-Modell von OpenAI basieren. Rufen Sie KI-generierte Bilder basierend auf dem von Ihnen bereitgestellten beschreibenden Text ab. Weitere Informationen finden Sie unter Schnellstart. Azure OpenAI-Bestandskund*innen können Zugriff durch Ausfüllen dieses Formulars anfordern.

  • Inaktive Bereitstellungen angepasster Modelle werden nun nach 15 Tagen gelöscht. Die Modelle bleiben für die erneute Bereitstellung verfügbar. Wenn ein angepasstes (optimiertes) Modell für mehr als fünfzehn (15) Tage bereitgestellt wird, während denen keine Vervollständigungen oder Chatvervollständigungen aufgerufen wurden, wird die Bereitstellung automatisch gelöscht (und für diese Bereitstellung fallen keine weiteren Hostinggebühren an). Das zugrunde liegende angepasste Modell bleibt verfügbar und kann jederzeit erneut bereitgestellt werden. Weitere Informationen finden Sie in der Schrittanleitung.

März 2023

  • Modelle der GPT-4-Serie sind jetzt als Vorschau in Azure OpenAI verfügbar. Azure OpenAI-Bestandskund*innen können Zugriff durch Ausfüllen dieses Formulars anfordern. Diese Modelle sind derzeit in den Regionen „USA, Osten“ und „USA, Süden-Mitte“ verfügbar.

  • Am 21.3. wurde die neue Chatvervollständigungs-API für GPT-35-Turbo- und GPT-4-Modelle als Vorschauversion veröffentlicht. Weitere Informationen finden Sie in den aktualisierten Schnellstartanleitungen und im Anleitungsartikel.

  • Vorschauversion von GPT-35-Turbo. Weitere Informationen finden Sie im Anleitungsartikel.

  • Erhöhte Trainingslimits für die Feinabstimmung: Die maximale Trainingsauftragsgröße (Token in der Trainingsdatei) x (Anzahl der Epochen) beträgt 2 Milliarden Token für alle Modelle. Außerdem haben wir die maximale Länge eines Trainingsauftrags von 120 auf 720 Stunden erhöht.

  • Hinzufügen zusätzlicher Anwendungsfälle zu Ihrem vorhandenen Zugriff.  Bisher mussten sich Kunden für das Hinzufügen neuer Anwendungsfälle erneut für den Dienst anmelden. Jetzt veröffentlichen wir einen neuen Prozess, mit dem Sie schnell neue Anwendungsfälle für die Nutzung des Diensts hinzufügen können. Dieser Prozess folgt dem etablierten Prozess für eingeschränkten Zugriff in Azure KI Services. Bestandskunden können hier alle neuen Anwendungsfälle überprüfen. Bitte beachten Sie, dass dies immer dann erforderlich ist, wenn Sie den Dienst für einen neuen Anwendungsfall nutzen möchten, den Sie ursprünglich nicht beantragt haben.

Februar 2023

Neue Funktionen

  • .NET SDK (Rückschluss) Vorschauversion | Beispiele
  • Terraform SDK-Update zur Unterstützung von Azure OpenAI-Verwaltungsvorgängen.
  • Das Einfügen von Text am Ende einer Vervollständigung wird jetzt mit dem Parameter suffix unterstützt.

Aktualisierungen

  • Inhaltsfilterung ist standardmäßig aktiviert.

Neue Artikel zu:

Neuer Schulungskurs:

Januar 2023

Neue Funktionen

  • Allgemeine Verfügbarkeit des Diensts. Azure OpenAI Service ist jetzt allgemein verfügbar.​

  • Neue Modelle: Das neueste Textmodell text-davinci-003 (USA, Osten; Europa, Westen), text-ada-embeddings-002 (USA, Osten; USA, Süden-Mitte; Europa, Westen) wurde hinzugefügt.

Dezember 2022

Neue Funktionen

  • Die neuesten Modelle von OpenAI. Azure OpenAI bietet Zugriff auf alle neuen Modelle, einschließlich der GPT-3.5-Serie.

  • Neue API-Version (2022-12-01). Dieses Update enthält mehrere angefragte Verbesserungen, einschließlich Informationen zur Tokenverwendung in der API-Antwort, verbesserte Fehlermeldungen für Dateien, Anpassungen an OpenAI zur Feinabstimmung der Erstellung von Datenstrukturen und Unterstützung für den suffix-Parameter, um benutzerdefinierte Benennungen von optimierten Aufträgen zu ermöglichen. ​

  • Höhere Grenzwerte für Anforderungen pro Sekunde. 50 für Nicht-Davinci-Modelle. 20 für Davinci-Modelle.

  • Schnellere Optimierung von Bereitstellungen. Stellen Sie ein optimiertes Ada- und Curie-Modell in weniger als 10 Minuten bereit.

  • Höhere Trainingsgrenzwerte: 40 Mio. Trainingstoken für Ada, Babbage und Curie. 10 Mio. für Davinci.

  • Prozess zum Anfordern von Änderungen bei Missbrauch, Protokollierung falsch verwendeter Daten und menschlicher Überprüfung. Aktuell protokolliert der Dienst Anforderungs-/Antwortdaten zur Erkennung von Missbrauch und falscher Verwendung, um sicherzustellen, dass diese leistungsstarken Modelle nicht missbraucht werden. Viele Kund*innen haben jedoch strenge Datenschutz- und Sicherheitsanforderungen, die eine größere Kontrolle über die eigenen Daten erfordern. Um diese Anwendungsfälle zu unterstützen, wurde ein neuer Prozess für Kund*innen veröffentlicht, um Richtlinien für die Inhaltsfilterung zu ändern oder die Missbrauchsprotokollierung für Anwendungsfälle mit geringem Risiko zu deaktivieren. Dieser Prozess folgt dem etablierten Prozess für eingeschränkten Zugriff in Azure KI Services. OpenAI-Bestandskund*innen können sich hier bewerben.

  • Verschlüsselung mit kundenseitig verwalteten Schlüsseln (Customer-Managed Key, CMK) CMK bietet Kunden eine bessere Kontrolle über die Verwaltung ihrer Daten in Azure OpenAI, indem sie ihre eigenen Verschlüsselungsschlüssel bereitstellen, die für die Speicherung von Trainingsdaten und angepassten Modellen verwendet werden. Kundenseitig verwaltete Schlüssel (Customer-Managed Keys, CMK) werden auch als Bring Your Own Key (BYOK) bezeichnet und bieten eine größere Flexibilität beim Erstellen, Rotieren, Deaktivieren und Widerrufen von Zugriffssteuerungen. Außerdem können Sie die zum Schutz Ihrer Daten verwendeten Verschlüsselungsschlüssel überwachen. Weitere Informationen finden Sie in unserer Dokumentation zur Verschlüsselung ruhender Daten.

  • Lockboxunterstützung

  • Konformität mit SOC-2

  • Protokollierung und Diagnose über Azure Resource Health, Kostenanalyse und die Metrik- und Diagnoseeinstellungen.

  • Verbesserungen bei Studio. Zahlreiche Verbesserungen der Benutzerfreundlichkeit beim Studio-Workflow, einschließlich der Unterstützung für Azure AD-Rollen, um zu steuern, wer im Team Zugriff auf die Erstellung von optimierten Modellen und die Bereitstellung hat.

Änderungen (Breaking Changes)

Die Optimierung bei der Erstellung von API-Anforderungen wurde aktualisiert, um sie dem Schema von OpenAI anzugleichen.

API-Vorschauversionen:

{​
    "training_file": "file-XGinujblHPwGLSztz8cPS8XY",​
    "hyperparams": { ​
        "batch_size": 4,​
        "learning_rate_multiplier": 0.1,​
        "n_epochs": 4,​
        "prompt_loss_weight": 0.1,​
    }​
}

API-Version 2022-12-01:

{​
    "training_file": "file-XGinujblHPwGLSztz8cPS8XY",​
    "batch_size": 4,​
    "learning_rate_multiplier": 0.1,​
    "n_epochs": 4,​
    "prompt_loss_weight": 0.1,​
}

Die Inhaltsfilterung wurde standardmäßig vorübergehend deaktiviert. Die Inhaltsmoderation von Azure funktioniert anders als bei Azure OpenAI. Azure OpenAI führt während des Generierungsaufrufs Inhaltsfilter aus, um schädliche oder missbräuchliche Inhalte zu erkennen und aus der Antwort herauszufiltern. Weitere Informationen​

Diese Modelle werden im 1. Quartal 2023 wieder aktiviert und bleiben dann standardmäßig aktiviert. ​

Kundenaktionen

Nächste Schritte

Erfahren Sie mehr über die zugrunde liegenden Modelle, auf denen Azure OpenAI basiert.