Bearbeiten

Freigeben über


Häufig gestellte Fragen zu Azure OpenAI Service

Wenn Sie in diesem Dokument keine Antworten auf Ihre Fragen finden können und weiterhin Hilfe benötigen, lesen Sie den Leitfaden für Azure KI Services-Supportoptionen. Azure OpenAI ist Teil von Azure KI Services.

Daten und Datenschutz

Verwenden Sie meine Unternehmensdaten, um eines der Modelle zu trainieren?

Azure OpenAI verwendet keine Kundendaten für das erneute Training von Modellen. Weitere Informationen finden Sie im Azure OpenAI-Leitfaden zu Daten, Datenschutz und Sicherheit.

Allgemein

Unterstützt Azure OpenAI benutzerdefinierte API-Header? Wir fügen zusätzliche benutzerdefinierte Header an unsere API-Anforderungen an und sehen, dass HTTP 431-Fehler auftreten.

Unsere aktuellen APIs ermöglichen bis zu 10 benutzerdefinierte Header, die über die Pipeline übergeben und zurückgegeben werden. Wir haben festgestellt, dass einige Kunden diese Headeranzahl jetzt überschreiten, was zu HTTP 431-Fehlern führt. Für diese Fehler gibt es keine Lösung, außer das Kopfzeilenvolumen zu reduzieren. In zukünftigen API-Versionen werden keine benutzerdefinierten Header mehr übergeben. Es wird empfohlen, dass Kunden in zukünftigen Systemarchitekturen nicht von benutzerdefinierten Headern abhängen.

Ist Azure OpenAI mit der neuesten Python-Bibliothek kompatibel, die von OpenAI (Version 1.0 und höher) veröffentlicht wurde?

Azure OpenAI wird vom neuesten Release der OpenAI Python-Bibliothek (Version >= 1.0) unterstützt. Beachten Sie jedoch, dass die Migration Ihrer Codebasis mit openai migrate nicht unterstützt wird und mit Code, der auf Azure OpenAI ausgerichtet ist, nicht funktioniert.

Ich kann GPT-4 Turbo Preview nicht finden, wo ist es?

GPT-4 Turbo-Vorschau ist das Modell gpt-4 (1106-Vorschau). Um dieses Modell bereitzustellen, wählen Sie unter Bereitstellungen das Modell gpt-4 aus. Für die Modellversion wählen Sie 1106-Vorschau. Informationen dazu, für welche Regionen dieses Modells verfügbar ist, finden Sie auf der Seite Modelle.

Wird GPT-4 von Azure OpenAI unterstützt?

Azure OpenAI unterstützt die neuesten GPT-4-Modelle. Unterstützt werden sowohl GPT-4 als auch GPT-4-32K.

Welches sind die Funktionen von Azure OpenAI im Vergleich zu OpenAI?

Azure OpenAI Service bietet Kunden erweiterte Sprach-KI mit OpenAI GPT-3-, Codex- und DALL-E-Modellen mit der Zusicherung von Azure für Sicherheit und Eignung für Unternehmen. Azure OpenAI entwickelt die APIs gemeinsam mit OpenAI, um Kompatibilität und einen reibungslosen Übergang zwischen den Diensten zu gewährleisten.

Mit Azure OpenAI erhalten Kunden die Sicherheitsfunktionen von Microsoft Azure, wobei sie die gleichen Modelle wie OpenAI ausführen.

Unterstützt Azure OpenAI VNets und private Endpunkte?

Ja, als Teil von Azure KI Services unterstützt Azure OpenAI VNets und private Endpunkte. Weitere Informationen finden Sie im Leitfaden für virtuelle Azure KI Services-Netzwerke.

Unterstützen die GPT-4-Vorschaumodelle derzeit Bildeingaben?

Nein. GPT-4 wurde von OpenAI zwar als multimodale Komponente konzipiert, derzeit werden aber nur Texteingaben und -ausgaben unterstützt.

Wie kann ich mich für neue Anwendungsfälle bewerben?

Bisher mussten sich Kunden für das Hinzufügen neuer Anwendungsfälle erneut für den Dienst anmelden. Jetzt veröffentlichen wir einen neuen Prozess, mit dem Sie schnell neue Anwendungsfälle für die Nutzung des Diensts hinzufügen können. Dieser Prozess folgt dem etablierten Prozess für eingeschränkten Zugriff in Azure KI Services. Bestandskunden können hier alle neuen Anwendungsfälle überprüfen. Beachten Sie, dass dies immer dann erforderlich ist, wenn Sie den Dienst für einen neuen Anwendungsfall nutzen möchten, den Sie ursprünglich nicht beantragt haben.

Ich versuche, Einbettungen zu verwenden, und erhalte die Fehlermeldung „InvalidRequestError: Zu viele Eingaben. Die maximale Anzahl von Eingaben beträgt 16." Wie kann ich dies korrigieren?

Dieser Fehler tritt in der Regel auf, wenn Sie versuchen, einen Batch mit Text zum Einbetten in eine einzelne API-Anforderung als Array zu senden. Derzeit unterstützt Azure OpenAI nur Arrays von Einbettungen mit mehreren Eingaben für das text-embedding-ada-002-Modell (Version 2). Diese Modellversion unterstützt ein Array, das aus bis zu 16 Eingaben pro API-Anforderung besteht. Das Array kann bis zu 8,191 Tokens lang sein, wenn Sie das Modell „text-embedding-ada-002“ (Version 2) verwenden.

Wo kann ich bessere Möglichkeiten zur Verwendung von Azure OpenAI lesen, um die gewünschten Antworten vom Dienst zu erhalten?

Sehen Sie sich unsere Einführung ins Prompt Engineering an. Während diese Modelle leistungsfähig sind, richtet sich ihr Verhalten auch stark nach den Prompts, die sie von Benutzer*innen erhalten. Dies macht das Erstellen von Prompts zu einer wichtigen Fähigkeit, die es zu entwickeln gilt. Nachdem Sie die Einführung abgeschlossen haben, lesen Sie unseren Artikel zu Systemmeldungen.

Mein Gastkonto hat Zugriff auf eine Azure OpenAI-Ressource erhalten, aber ich kann im Azure KI Studio nicht auf diese Ressource zugreifen. Wie aktiviere ich den Zugriff?

Dieses Verhalten wird erwartet, wenn die Standardanmeldung für Azure KI Studio verwendet wird.

Gehen Sie wie folgt vor, um über ein Gastkonto, dem der Zugriff auf eine Azure OpenAI-Ressource gewährt wurde, auf Azure KI Studio zuzugreifen:

  1. Öffnen Sie eine private Browsersitzung, und navigieren Sie dann zu https://ai.azure.com.
  2. Anstatt die Anmeldeinformationen des Gastkontos sofort einzugeben, wählen Sie stattdessen Sign-in options aus
  3. Klicken Sie jetzt auf Bei einer Organisation anmelden.
  4. Geben Sie den Domänennamen der Organisation ein, der Ihrem Gastkonto Zugriff auf die Azure OpenAI-Ressource gewährt hat.
  5. Melden Sie sich nun mit den Anmeldeinformationen des Gastkontos an.

Sie sollten jetzt über Azure KI Studio auf die Ressource zugreifen können.

Wenn Sie beim Azure-Portal angemeldet sind, können Sie alternativ im Bereich „Übersicht“ der Azure OpenAI-Ressource Zu Azure KI Studio wechseln auswählen, um sich automatisch im entsprechenden Organisationskontext anzumelden.

Wenn ich GPT-4 frage, welches Modell ausgeführt wird, erhalte ich die Antwort, dass GPT-3 ausgeführt wird. Was ist dafür die Ursache?

Dass Azure OpenAI-Modelle (einschließlich GPT-4) nicht korrekt identifizieren können, welches Modell ausgeführt wird, ist das erwartete Verhalten.

Warum geschieht dies?

Letztendlich führt das Modell als Antwort auf Ihre Frage die nächste Token-Vorhersage durch. Das Modell verfügt nicht über eine native Möglichkeit, abzufragen, welche Modellversion derzeit ausgeführt wird, um Ihre Frage zu beantworten. Um diese Frage zu beantworten, können Sie jederzeit zu Azure KI Studio>Verwaltung>Bereitstellungen> wechseln und die Spalte „Modellname“ lesen, um zu bestätigen, welches Modell derzeit einem bestimmten Bereitstellungsnamen zugeordnet ist.

Die Fragen „Welches Modell verwenden Sie?“ oder „Was ist das neueste Modell von OpenAI?“ führen zu ähnlichen guten Ergebnissen wie die Frage, welches Wetter heute sein wird. Es kann das richtige Ergebnis zurückgeben werden, aber nur durch Zufall. Für sich allein verfügt das Modell über keine realen Informationen außer dem, was Teil seines Trainings/seiner Trainingsdaten war. Im Fall von GPT-4 reichen die zugrunde liegenden Trainingsdaten per August 2023 nur bis zum September 2021. GPT-4 wurde erst im März 2023 veröffentlicht. Sofern OpenAI also keine neue Version mit aktualisierten Trainingsdaten veröffentlicht oder eine neue Version, die für die Beantwortung dieser spezifischen Fragen optimiert ist, entspricht die Antwort, dass GPT-3 die neueste Modellversion von OpenAI ist, dem erwarteten Verhalten von GPT-4.

Wenn Sie einem GPT-basierten Modell helfen möchten, die Frage „Welches Modell wird ausgeführt?“ genau zu beantworten, müssten Sie diese Informationen für das Modell bereitstellen, indem Sie Techniken wie Engineering der Äußerung der Systemantwort des Modells, Retrieval Augmented Generation (RAG) (hierbei handelt es sich um die von Azure OpenAI für Ihre Daten verwendete Technik, bei der aktuelle Informationen zur Abfragezeit in die Systemnachricht eingespeist werden) oder die Optimierung verwenden, bei der Sie bestimmte Versionen des Modells optimieren können, um diese Frage basierend auf der Modellversion auf eine bestimmte Weise zu beantworten.

Um mehr darüber zu erfahren, wie GPT-Modelle trainiert werden und funktionieren, empfehlen wir Ihnen, den Vortrag von Andrej Karpathy anlässlich der Build 2023 über den Zustand von GPT anzusehen.

Ich habe das Modell gefragt, wann seine Wissensgrenze erreicht ist, und seine Antwort weicht von der auf der Seite des Azure OpenAI-Modells ab. Was ist dafür die Ursache?

Dieses Verhalten wird erwartet. Die Modelle können keine Fragen zu sich selbst beantworten. Wenn Sie wissen möchten, wann der Wissensgrenzwert für die Trainingsdaten des Modells erreicht ist, sehen Sie auf der Seite Modelle nach.

Ich habe dem Modell eine Frage zu einem Ereignis gestellt, das sich kurz vor dem Wissensgrenzwert ereignet hat, und es hat die falsche Antwort gegeben. Was ist dafür die Ursache?

Dieses Verhalten wird erwartet. Zunächst gibt es keine Garantie dafür, dass jedes aktuelle Ereignis Teil der Trainingsdaten des Modells war. Und selbst wenn die Informationen Teil der Trainingsdaten waren, besteht ohne den Einsatz zusätzlicher Techniken wie Retrieval Augmented Generation (RAG), um die Antworten des Modells zu fundieren, immer die Möglichkeit, dass es zu nicht fundierten Antworten kommt. Sowohl die Azure OpenAI-Funktion zur Nutzung Ihrer Daten als auch der Bing-Chat verwenden Azure OpenAI-Modelle in Kombination mit Retrieval Augmented Generation, um die Antworten des Modells zu verfeinern.

Auch die Häufigkeit, mit der eine bestimmte Information in den Trainingsdaten auftaucht, kann sich auf die Wahrscheinlichkeit auswirken, dass das Modell auf eine bestimmte Weise reagiert.

Fragt man das neueste GPT-4 Turbo-Vorschaumodell nach etwas, das sich in jüngerer Zeit geändert hat, wie z. B. „Wer ist der Premierminister von Neuseeland?“, erhält man wahrscheinlich die erfundene Antwort Jacinda Ardern. Aber die Frage „Wann ist Jacinda Ardern als Premierminister zurückgetreten?“ an das Modell ergibt in der Regel eine genaue Antwort, die zeigt, dass das Wissen über die Trainingsdaten mindestens bis Januar 2023 reicht.

Obwohl es also möglich ist, das Modell mit Fragen zu testen, um den Wissensgrenzwert der Trainingsdaten zu bestimmen, ist die Seite des Modells der beste Ort, um den Wissensgrenzwert des Modells zu überprüfen.

Wo finde ich Preisinformationen zu älteren Modellen, die für neue Bereitstellungen nicht mehr verfügbar sind?

Die alten Preisinformationen können Sie in einer PDF-Datei herunterladen. Alle anderen Modelle finden Sie auf der offiziellen Preisseite.

Wie behebe ich InternalServerError – 500 – Fehler beim Erstellen des Abschlusses, da das Modell eine ungültige Unicode-Ausgabe generiert hat?

Sie können das Auftreten dieser Fehler minimieren, indem Sie die Temperatur Ihrer Eingabeaufforderungen auf weniger als 1 reduzieren und sicherstellen, dass Sie einen Client mit Wiederholungslogik verwenden. Die erneute Aktualisierung der Anforderung führt häufig zu einer erfolgreichen Antwort.

Es wurden Gebühren im Zusammenhang mit API-Aufrufen festgestellt, die mit dem Statuscode 400 nicht abgeschlossen wurden. Warum generieren fehlgeschlagene API-Aufrufe eine Gebühr?

Wenn der Dienst die Verarbeitung durchführt, werden Ihnen auch dann Kosten entstehen, wenn der Statuscode nicht erfolgreich (nicht 200) ist. Häufige Beispiele sind ein 400-Fehler aufgrund eines Inhaltsfilters oder Eingabegrenzwerts oder ein 408-Fehler aufgrund eines Timeouts. Gebühren fallen auch an, wenn status 200 mit einer finish_reason von content_filter empfangen wird. In diesem Fall treten beim Prompt keine Probleme auf, aber es wurde festgestellt, dass die vom Modell generierte Vervollständigung gegen die Inhaltsfilterregeln verstößt, was dazu führt, dass die Vervollständigung gefiltert wird. Wenn der Dienst keine Verarbeitung durchführt, entstehen Ihnen keine Kosten. Beispielsweise ein 401-Fehler aufgrund der Authentifizierung oder ein 429-Fehler aufgrund einer Überschreitung des Übertragungsratenlimits.

Erhalten des Zugriffs auf Azure OpenAI Service

Wie erhalte ich Zugriff auf Azure OpenAI?

Für den Zugriff auf die meisten Azure OpenAI-Modelle ist kein Limited Access-Registrierungsformular erforderlich. Weitere Informationen finden Sie auf der Seite für Azure OpenAI Limited Access.

Weitere Informationen und Möglichkeiten zum Stellen von Fragen

Wo kann ich mehr über die neuesten Updates für Azure OpenAI erfahren?

Monatliche Updates finden Sie auf der Seite Neuigkeiten.

Wo kann ich Schulungen zum Einstieg in Azure OpenAI und zum Ausbau meiner Fertigkeiten finden?

Wo kann ich Fragen stellen und Antworten auf andere häufig gestellte Fragen sehen?

Wo erhalte ich Kundensupport zu Azure OpenAI?

Azure OpenAI ist Teil von Azure KI Services. Informationen zu allen Supportoptionen für Azure KI Services finden Sie im Leitfaden zu Support- und Hilfeoptionen.

Modelle und Optimierung

Welche Modelle sind verfügbar?

Schlagen Sie im Leitfaden zur Modellverfügbarkeit für Azure OpenAI nach.

Wie finde ich heraus, in welcher Region ein Modell verfügbar ist?

Informationen zur regionalen Verfügbarkeit finden Sie im Leitfaden zur Modellverfügbarkeit für Azure OpenAI.

Wie aktiviere ich die Feinabstimmung? Ein benutzerdefiniertes Modell erstellen ist in Azure KI Studio ausgegraut.

Um erfolgreich auf die Optimierung zuzugreifen, muss Ihnen die Rolle „Mitwirkender für Cognitive Services OpenAI“ zugewiesen sein. Selbst für Personen mit den hohen Berechtigungen der Rolle „Dienstadministrator“ muss dieses Konto explizit festgelegt werden, um auf die Optimierung zugreifen zu können. Weitere Informationen finden Sie im Leitfaden zur rollenbasierten Zugriffssteuerung.

Was ist der Unterschied zwischen einem Basismodell und einem optimierten Modell?

Ein Basismodell ist ein Modell, das nicht für einen bestimmten Anwendungsfall angepasst oder optimiert wurde. Bei optimierten Modellen handelt es sich um angepasste Versionen von Basismodellen, bei denen die Gewichtungen eines Modells anhand einer eindeutigen Reihe von Äußerungen trainiert werden. Mit optimierten Modellen können Sie bessere Ergebnisse bei einer größeren Anzahl von Aufgaben erzielen, ohne detaillierte Beispiele für kontextbezogenes Lernen im Rahmen Ihrer Abschlussäußerung angeben zu müssen. Weitere Informationen finden Sie in unserem Leitfaden zur Optimierung.

Was ist die maximale Anzahl optimierter Modelle, die erstellt werden können?

100

Was sind die SLAs für API-Antworten in Azure OpenAI?

Wir verfügen derzeit nicht über eine definierte Vereinbarung zum Servicelevel (Service Level Agreement, SLA) für die API-Antwortzeit. Weitere Informationen zur SLA für Azure OpenAI Service finden Sie auf der Seite Vereinbarung zum Servicelevel (SLA) für Onlinedienste.

Warum wurde meine fein abgestimmte Modellimplementierung gelöscht?

Wenn ein angepasstes (optimiertes) Modell länger als 15 Tage bereitgestellt ist und in diesem Zeitraum keine Vervollständigungen oder Chatvervollständigungen aufgerufen werden, dann wird die Bereitstellung automatisch gelöscht, und für diese Bereitstellung fallen keine weiteren Hostinggebühren mehr an. Das zugrunde liegende angepasste Modell bleibt verfügbar und kann jederzeit erneut bereitgestellt werden. Weitere Informationen finden Sie in der Schrittanleitung.

Gewusst wie ein Modell mit der REST-API implementiert wird?

Derzeit gibt es zwei unterschiedliche REST-APIs, die die Modellimplementierung ermöglichen. Die neuesten Features für die Modellimplementierung (z. B. die Möglichkeit, während der Bereitstellung eine Modellversion für Modelle wie „text-embedding-ada-002“ (Version 2) anzugeben) erhalten Sie über den REST-API-Aufruf zum Erstellen oder Aktualisieren von Bereitstellungen.

Kann ich das Kontingent verwenden, um die maximale Tokengrenze eines Modells zu erhöhen?

Nein, die TPM-Kontingentzuweisung (Token pro Minute) steht nicht im Zusammenhang mit dem maximalen Grenzwert für Eingabetoken eines Modells. Die Grenzwerte für Modelleingabetoken werden in der Modelltabelle definiert und sind von TPM-Änderungen nicht betroffen.

GPT-4 Turbo with Vision

Kann ich die Bildfunktionen in GPT-4 optimieren?

Nein, wir unterstützen derzeit keine Optimierung der Bildfunktionen von GPT-4.

Kann ich GPT-4 zum Generieren von Bildern verwenden?

Nein, Sie können dall-e-3 verwenden, um Bilder zu generieren und gpt-4-vision-preview, um Bilder zu verstehen.

Welche Dateitypen kann ich hochladen?

Wir unterstützen derzeit PNG (.png), JPEG (.jpeg und .jpg), WEBP (.webp) und nicht animierte GIFs (.gif).

Gibt es beim Upload eine Beschränkung für die Bildgröße?

Ja, wir beschränken Bilduploads auf 20 MB pro Bild.

Kann ich ein hochgeladenes Bild löschen?

Nein, das Bild wird automatisch gelöscht, nachdem es vom Modell verarbeitet wurde.

Wie funktionieren die Ratenbegrenzungen für GPT-4 Turbo with Vision?

Wir verarbeiten Bilder auf Tokenebene, sodass jedes Bild, das wir verarbeiten, auf Ihren TPM-Grenzwert (Token per Minute, Token pro Minute) angerechnet wird. Details zur Formel, die zum Ermitteln der Tokenanzahl pro Bild verwendet wird, finden Sie im Abschnitt Bildtoken der Übersicht.

Kann GPT-4 Turbo with Vision Bildmetadaten verstehen?

Nein, das Modell empfängt keine Bildmetadaten.

Was geschieht, wenn mein Bild unklar ist?

Wenn ein Bild mehrdeutig oder unklar ist, wird das Modell es nach bestem Ermessen interpretieren. Die Ergebnisse sind jedoch möglicherweise weniger genau. Eine gute Faustregel ist: Wenn ein durchschnittlicher Mensch die Informationen auf dem Bild mit niedriger oder hoher Auflösung nicht erkennen kann, kann es das Modell auch nicht.

Welche bekannten Einschränkungen gibt es zu GPT-4 Turbo with Vision?

Lesen Sie den Abschnitt Einschränkungen im Konzeptleitfaden zu GPT-4 Turbo mit Vision.

Ich erhalte immer wieder abgeschnittene Antworten, wenn ich GPT-4 Turbo Vision-Modelle verwende. Warum geschieht dies?

Standardmäßig weisen GPT-4 vision-preview und GPT-4 turbo-2024-04-09 einen max_tokens-Wert von 16 auf. Je nach Ihrer Anforderung ist dieser Wert häufig zu niedrig und kann zu abgeschnittenen Antworten führen. Um dieses Problem zu beheben, übergeben Sie einen größeren max_tokens-Wert als Teil Ihrer Chatabschluss-API-Anforderungen. GPT-4o ist standardmäßig auf 4096 max_tokens festgelegt.

Assistenten

Speichern Sie Daten, die in der Assistants-API verwendet werden?

Ja. Im Gegensatz zur API für die Chatvervollständigung ist Azure OpenAI Assistants eine zustandsbehaftete API, d. h. sie speichert Daten. Es gibt zwei Arten von Daten, die in der Assistants-API gespeichert werden:

  • Zustandsbehaftete Entitäten: Unterhaltungen, Nachrichten und Ausführungen, die während der Assistants-Verwendung erstellt werden.
  • Dateien: Werden bei der Assistants-Einrichtung oder als Teil einer Nachricht hochgeladen.

Wo werden diese Daten gespeichert?

Daten werden in einem sicheren, von Microsoft verwalteten Speicherkonto gespeichert, das logisch getrennt ist.

Wie lange werden diese Daten gespeichert?

Alle verwendeten Daten bleiben in diesem System erhalten, es sei denn, Sie löschen diese Daten explizit. Verwenden Sie die Löschfunktion mit der ID der Unterhaltung, die Sie löschen möchten. Wenn Sie die Ausführung im Assistants-Playground löschen, werden Unterhaltungen nicht gelöscht. Wenn Sie sie jedoch mit der Löschfunktion löschen, werden sie nicht auf der Unterhaltungsseite aufgeführt.

Kann ich meinen eigenen Datenspeicher mit der Assistants-Funktion verwenden?

Nein Derzeit unterstützt die Assistants-Funktion nur lokale Dateien, die in den von Assistants verwalteten Speicher hochgeladen wurden. Sie können Ihr privates Speicherkonto nicht mit der Assistants-Funktion verwenden.

Unterstützt Assistenten die Verschlüsselung mit kundenseitig verwaltetem Schlüssel (Customer-Managed Key, CMK)?

Heute unterstützen wir CMK für Threads und Dateien in Assistenten. Weitere Informationen zu den verfügbaren Regionen für dieses Feature finden Sie auf der Seite „Neuigkeiten“.

Werden meine Daten von Microsoft für Trainingsmodelle verwendet?

Nein Daten werden von Microsoft nicht für Trainingsmodelle verwendet. Weitere Informationen finden Sie in der Dokumentation zur verantwortungsvollen KI.

Wo werden Daten geografisch gespeichert?

Azure OpenAI Assistants-Endpunkte sind regional, und Daten werden in derselben Region wie der Endpunkt gespeichert. Weitere Informationen finden Sie in der Dokumentation zur Azure-Datenresidenz.

Wie wird die Assistants-Funktion in Rechnung gestellt?

  • Kosten für Rückschlüsse (Eingabe und Ausgabe) des Basismodells, das Sie für jeden Assistenten verwenden (z. B. gpt-4-0125). Wenn Sie mehrere Assistenten erstellt haben, wird Ihnen das Basismodell berechnet, das jedem Assistenten zugeordnet ist.
  • Wenn Sie den Codeinterpreter aktiviert haben. Beispiel: Wenn Ihr Assistent den Codeinterpreter gleichzeitig in zwei verschiedenen Unterhaltungen aufruft, entstehen zwei Codeinterpretersitzungen, die Ihnen beide in Rechnung gestellt werden. Jede Sitzung ist standardmäßig eine Stunde lang aktiv. Dies bedeutet, dass Sie diese Gebühr nur einmal bezahlen, wenn Ihr Benutzer dem Codeinterpreter in derselben Unterhaltung für bis zu eine Stunde weiterhin Anweisungen erteilt.
  • Die Dateisuche wird basierend auf dem verwendeten Vektorspeicher abgerechnet.

Weitere Informationen hierzu finden Sie in der Preisübersicht.

Gibt es zusätzliche Preise oder Kontingente für die Verwendung der Assistants-Funktion?

Nein Alle Kontingente gelten für die Verwendung von Modellen mit der Assistants-Funktion.

Unterstützt die Assistants-API andere Modelle als Azure OpenAI-Modelle?

Die Assistants-API unterstützt nur Azure OpenAI-Modelle.

Ist die Assistants-API allgemein verfügbar?

Die Assistants-API befindet sich derzeit in der öffentlichen Vorschau. Informieren Sie sich über unsere neuesten Produktupdates, indem Sie regelmäßig unsere Seite Neuerungen besuchen.

Welche Beispiele oder andere Ressourcen kann ich verwenden, um Informationen zur Assistants-Funktion zu erhalten?

Informationen zu den ersten Schritten und der Verwendung der Assistants-Funktion finden Sie in den Artikeln zum Konzept, zum Schnellstart und mit Anleitungen. Sie können sich auch die Codebeispiele für Azure OpenAI Assistants in GitHub ansehen.

Web-App

Wie kann ich meine veröffentlichte Web-App anpassen?

Sie können Ihre veröffentlichte Web-App im Azure-Portal anpassen. Der Quellcode für die veröffentlichte Web-App ist auf GitHub verfügbar, wo Sie Informationen zum Ändern des App-Front-Ends wie auch Anweisungen zum Erstellen und Bereitstellen der App finden können.

Wird meine Web-App überschrieben, wenn ich die App erneut über Azure KI-Studio bereit stelle?

Ihr App-Code wird nicht überschrieben, wenn Sie Ihre App aktualisieren. Die App wird aktualisiert, um die Azure OpenAI-Ressource, Azure KI Search-Index (wenn Sie Azure OpenAI für Ihre Daten verwenden) und Modelleinstellungen zu verwenden, die in Azure AI-Studio ausgewählt wurden, ohne dass sich die Darstellung oder Funktionalität ändert.

Verwenden Ihrer Daten

Was ist Azure OpenAI für Ihre Daten?

Azure OpenAI für Ihre Daten ist ein Feature von Azure OpenAI Services, das Organisationen dabei unterstützt, angepasste Erkenntnisse, Inhalte und Suchvorgänge unter Verwendung der von ihnen angegebenen Datenquellen zu generieren. Es arbeitet mit den Funktionen der OpenAI-Modelle in Azure OpenAI, um präzisere und relevante Antworten auf Benutzerabfragen in natürlicher Sprache bereitzustellen. Azure OpenAI für Ihre Daten kann in die vorhandenen Anwendungen und Workflows des Kunden integriert werden, bietet Einblicke in KPIs und kann nahtlos mit Benutzern interagieren.

Wie kann ich auf Azure OpenAI für Ihre Daten zugreifen?

Alle Azure OpenAI-Kunden können Azure OpenAI für Ihre Daten über das Azure KI-Studio und die Rest-API verwenden.

Welche Datenquellen unterstützt Azure OpenAI für Ihre Daten?

Azure OpenAI für Ihre Daten unterstützt die Erfassung aus Azure KI Search, Azure Blob Storage und das Hochladen lokaler Dateien. Weitere Informationen zu Azure OpenAI für Ihre Daten finden Sie im konzeptionellen Artikel und im Schnellstart.

Wie viel kostet die Verwendung von Azure OpenAI für Ihre Daten?

Wenn Sie Azure OpenAI für Ihre Daten verwenden, fallen Kosten an, wenn Sie Azure KI Search, Azure Blob Storage, Azure Web App Service, die semantische Suche und OpenAI-Modelle verwenden. Es fallen keine zusätzlichen Kosten für die Verwendung des Features „Ihre Daten“ in Azure KI Studio an.

Wie kann ich den Indexerstellungsprozess anpassen oder automatisieren?

Sie können den Index mithilfe eines von GitHub bereitgestellten Skripts selbst vorbereiten. Mithilfe dieses Skripts wird ein Azure KI Suche-Index mit allen Informationen erstellt, die für eine bessere Nutzung Ihrer Daten erforderlich sind, wobei Ihre Dokumente in verwaltbare Blöcke unterteilt werden. Lesen Sie die README-Datei mit dem Datenaufbereitungscode, um Informationen zur Ausführung zu erhalten.

Wie kann ich meinen Index aktualisieren?

Sie können eine automatische Indexaktualisierung planen oder zusätzliche Daten in Ihren Azure Blob Container hochladen und als Datenquelle verwenden, wenn Sie einen neuen Index erstellen. Der neue Index wird alle Daten in Ihrem Container enthalten.

Welche Dateitypen unterstützt Azure OpenAI für Ihre Daten?

Lesen Sie Verwenden Ihrer Daten, um weitere Informationen über unterstützte Dateitypen zu erhalten.

Wird verantwortungsvolle KI von Azure OpenAI für Ihre Daten unterstützt?

Ja, Azure OpenAI für Ihre Daten ist Teil des Azure OpenAI Service und arbeitet mit den in Azure OpenAI verfügbaren Modellen. Die Features zur Inhaltsfilterung und Missbrauchsüberwachung von Azure OpenAI gelten weiterhin. Weitere Informationen zur verantwortungsvollen Nutzung von Azure OpenAI für Ihre Daten finden Sie in der Übersicht über Methoden für verantwortungsvolle KI für Azure OpenAI-Modelle und im Transparenzhinweis für Azure OpenAI.

Gibt es ein Tokenlimit für die Systemnachricht?

Ja, das Tokenlimit für die Systemnachricht beträgt 400. Wenn die Systemnachricht mehr als 400 Token enthält, werden die restlichen Token über die ersten 400 hinaus ignoriert. Diese Einschränkung gilt nur für Azure OpenAI und das Feature „Ihre Daten“.

Unterstützt Azure OpenAI in Ihren Daten Funktionsaufrufe?

Azure OpenAI für Ihre Daten unterstützt derzeit keine Funktionsaufrufe.

Müssen die Abfragesprache und die Datenquellensprache identisch sein?

Sie müssen Abfragen in derselben Sprache wie Ihre Daten senden. Ihre Daten können in jeder der von Azure KI Search unterstützten Sprachen vorliegen.

Wenn die semantische Suche für meine Azure KI Search-Ressource aktiviert ist, wird sie dann automatisch in Azure OpenAI auf Ihre Daten im Azure KI Studio angewendet?

Wenn Sie „Azure KI Search“ als Datenquelle auswählen, können Sie die semantische Suche anwenden. Wenn Sie „Azure-Blobcontainer“ oder „Dateien hochladen“ als Datenquelle auswählen, können Sie den Index wie gewohnt erstellen. Anschließend würden Sie die Daten mithilfe der Option „Azure KI Suche“ erneut eingeben, um denselben Index auszuwählen und die semantische Suche anzuwenden. Danach sind Sie bereit, hinsichtlich Ihrer Daten zu chatten, wobei die semantische Suche angewendet wird.

Wie kann ich beim Indizieren meiner Daten Vektoreinbettungen hinzufügen?

Wenn Sie „Azure Blob Container“, „Azure KI Search“ oder „Dateien hochladen“ als Datenquelle auswählen, können Sie auch eine Ada-Einbettungsmodellimplementierung auswählen, die beim Erfassen Ihrer Daten verwendet werden soll. Dadurch wird ein Azure KI Search-Index mit Vektoreinbettungen erstellt.

Warum schlägt die Indexerstellung fehl, nachdem ich ein Einbettungsmodell hinzugefügt habe?

Die Indexerstellung verursacht beim Hinzufügen von Einbettungen in Ihrem Index möglicherweise Fehler, wenn die Ratenbegrenzung für Ihre Ada-Einbettungsmodellimplementierung zu niedrig ist oder wenn Sie über eine sehr große Menge von Dokumenten verfügen. Sie können dieses auf GitHub bereitgestellte Skript verwenden, um den Index manuell mit Einbettungen zu erstellen.

Verpflichtung des Kunden zum Urheberrecht

Wie erhalte ich eine Abdeckung im Rahmen der Verpflichtung zum Urheberrecht des Kunden?

Die Verpflichtung zum Urheberrecht des Kunden ist eine Bestimmung, die in die Microsoft-Produktbedingungen vom 1. Dezember 2023 aufgenommen werden soll, die die Verpflichtung von Microsoft beschreibt, Kunden gegen bestimmte Ansprüche dritter geistiges Eigentum im Zusammenhang mit Ausgabeinhalten zu verteidigen. Wenn der Betreff des Anspruchs Ausgabeinhalte sind, die aus dem Azure OpenAI Service (oder einem anderen abgedeckten Produkt, das Kund*innen die Konfiguration der Sicherheitssysteme ermöglicht), müssen Kund*innen alle Gegenmaßnahmen implementiert haben, die in der Azure OpenAI-Dienstdokumentation in dem Angebot angefordert wurden, das den Ausgabeinhalt bereitgestellt hat. Die erforderlichen Entschärfungen werden hier dokumentiert und fortlaufend aktualisiert. Für neue Dienste, Features, Modelle oder Anwendungsfälle werden neue CCC-Anforderungen veröffentlicht und wirksam bei oder nach dem Start eines solchen Diensts, Features, Modells oder Anwendungsfalles. Andernfalls haben Kunden sechs Monate ab dem Zeitpunkt der Veröffentlichung, um neue Entschärfungen zu implementieren, um die Abdeckung unter dem CCC aufrechtzuerhalten. Wenn ein Kunde einen Anspruch angibt, ist der Kunde verpflichtet, die Einhaltung der relevanten Anforderungen nachzuweisen. Diese Entschärfungen sind für abgedeckte Produkte erforderlich, mit denen Kund*innen die Sicherheitssysteme konfigurieren können, einschließlich Azure OpenAI Service. Sie wirken sich nicht auf die Abdeckung von Kund*innen aus, die andere abgedeckte Produkte verwenden.