Daten und Datenschutz
Verwenden Sie meine Unternehmensdaten, um eines der Modelle zu trainieren?
Azure OpenAI verwendet keine Kundendaten, um Modelle neu zu trainieren. Weitere Informationen finden Sie im Azure OpenAI-Leitfaden zu Daten, Datenschutz und Sicherheit.
Allgemein
Unterstützt Azure OpenAI benutzerdefinierte API-Header? Wir fügen zusätzliche benutzerdefinierte Header an unsere API-Anforderungen an und sehen HTTP 431-Fehlerfehler.
Unsere aktuellen APIs ermöglichen bis zu 10 benutzerdefinierte Header, die über die Pipeline übergeben und zurückgegeben werden. Wir haben festgestellt, dass einige Kunden diese Headeranzahl jetzt überschreiten, was zu HTTP 431-Fehlern führt. Für diesen Fehler gibt es keine Lösung, außer um die Kopfzeilenlautstärke zu reduzieren. In zukünftigen API-Versionen werden keine benutzerdefinierten Header mehr übergeben. Es wird empfohlen, dass Kunden nicht von benutzerdefinierten Headern in zukünftigen Systemarchitekturen abhängen.
Funktioniert Azure OpenAI mit der neuesten Python Bibliothek, die von OpenAI veröffentlicht wurde (version>=1.0)?
Azure OpenAI wird von der neuesten Version der OpenAI Python Library (version>=1.0) unterstützt. Es ist jedoch wichtig zu beachten, dass die Migration Ihrer Codebasis mithilfe von openai migrate nicht unterstützt wird und nicht mit Code funktioniert, der auf Azure OpenAI abzielt.
Wie vergleichen sich die Funktionen von Azure OpenAI mit OpenAI?
Azure OpenAI bietet Kunden fortgeschrittene Sprach-KI mit den neuesten OpenAI-Modellen mit dem Sicherheits- und Unternehmensversprechen von Azure. Azure OpenAI entwickelt die APIs gemeinsam mit OpenAI weiter, um die Kompatibilität und einen reibungslosen Übergang von einer zur anderen sicherzustellen.
Mit Azure OpenAI erhalten Kunden die Sicherheitsfunktionen von Microsoft Azure, während sie dieselben Modelle wie OpenAI ausführen.
Unterstützt Azure OpenAI VNETs und private Endpunkte?
Ja, Azure OpenAI unterstützt VNETs und private Endpunkte. Weitere Informationen finden Sie in den Richtlinien für virtuelle Netzwerke.
Wie kann ich neue Anwendungsfälle beantragen?
Zuvor mussten die Kunden den Prozess zum Hinzufügen neuer Anwendungsfälle erneut beim Dienst beantragen. Jetzt veröffentlichen wir einen neuen Prozess, mit dem Sie schnell neue Anwendungsfälle zur Verwendung des Diensts hinzufügen können. Dieser Prozess folgt dem etablierten Limited Access-Prozess innerhalb Azure OpenAI. Vorhandene Kunden können hier alle neuen Anwendungsfälle nachweisen. Beachten Sie, dass dies jederzeit erforderlich ist, wenn Sie den Dienst für einen neuen Anwendungsfall verwenden möchten, den Sie ursprünglich nicht beantragt haben.
Ich versuche, Einbettungen zu verwenden und erhielt die Fehlermeldung "InvalidRequestError: Zu viele Eingaben. Die maximale Anzahl von Eingaben beträgt 16." Wie kann ich dieses Problem beheben?
Dieser Fehler tritt in der Regel auf, wenn Sie versuchen, eine Reihe von Text zu senden, um in eine einzelne API-Anforderung als Array einzubetten. Derzeit unterstützt Azure OpenAI nur Arrays von Einbettungen mit mehreren Eingaben für Modell Version 2 text-embedding-ada-002. Diese Modellversion unterstützt ein Array, das aus bis zu 16 Eingaben pro API-Anforderung besteht. Das Array kann bis zu 8.191 Token lang sein, wenn das Text-Embedding-ada-002 (Version 2)-Modell verwendet wird.
Wenn ich frage, welches Modell ausgeführt wird, teilt es mir mit, dass es eine andere Version ausführt. Warum geschieht dies?
Azure-OpenAI-Modelle, die nicht korrekt identifizieren können, welches Modell ausgeführt wird, sind das erwartete Verhalten.
Warum geschieht dies?
Letztendlich führt das Modell als Reaktion auf Ihre Frage die nächste Tokenvorhersage durch. Das Modell verfügt nicht über eine systemeigene Möglichkeit, abzufragen, welche Modellversion zurzeit ausgeführt wird, um Ihre Frage zu beantworten. Um diese Frage zu beantworten, Sie können jederzeit zu Microsoft Foundry>Deployments oder Models + endpoints> wechseln und die Modellnamenspalte konsultieren, um zu bestätigen, welches Modell derzeit einem bestimmten Bereitstellungsnamen zugeordnet ist.
Die Fragen "Welches Modell verwenden Sie?" oder "Was ist das neueste Modell von OpenAI?" liefern ähnliche Ergebnisse in Bezug auf die Qualität wie die Frage an das Modell nach dem heutigen Wetter. Es kann das richtige Ergebnis zurückgeben, aber rein zufällig. Das Modell hat keine realen Informationen außerhalb von dem, was Teil seiner Trainings-/Trainingsdaten war. Im Falle von GPT-4 liegen die zugrunde liegenden Schulungsdaten ab August 2023 nur bis September 2021 vor. GPT-4 wurde erst im März 2023 veröffentlicht, es sei denn, OpenAI veröffentlicht eine neue Version mit aktualisierten Trainingsdaten oder eine neue Version, die fein abgestimmt ist, um diese spezifischen Fragen zu beantworten, wird erwartet, dass GPT-4 darauf reagiert, dass GPT-3 das neueste Modell von OpenAI ist.
Wenn Sie einem GPT-basierten Modell helfen möchten, auf die Frage "Welches Modell wird ausgeführt?" genau zu antworten, müssen Sie diese Informationen dem Modell mithilfe von Techniken wie Anpassen der Eingabebefehle der Systemmeldung des Modells, Retrieval Augmented Generation (RAG), was von Azure OpenAI auf Ihren Daten verwendet wird, bereitstellen, wo aktuelle Informationen zum Zeitpunkt der Abfrage in die Systemnachricht eingefügt werden, oder über Feinabstimmung, wo Sie bestimmte Versionen des Modells optimieren könnten, um diese Frage auf eine bestimmte Weise basierend auf der Modellversion zu beantworten.
Um mehr darüber zu erfahren, wie GPT-Modelle trainiert werden und arbeiten, empfehlen wir, Andrej Apathy's Vortrag von Build 2023 über den Stand von GPT anzusehen.
Wie kann ich das Modell in einer bestimmten Sprache beantworten?
Stellen Sie sicher, dass Ihre Eingabeaufforderung klar und spezifisch für die Sprachanforderung ist. Wenn das Problem weiterhin besteht, sollten Sie einen weiteren Kontext hinzufügen oder die Aufforderung neu erstellen, um die Sprachanweisungen zu verstärken.
Beispielaufforderungen:
- "Bitte antworten Sie auf Englisch und nur auf Englisch."
- "Beantworten Sie die folgende Frage in Englisch: Wie ist das Wetter in Fresno?"
Ich fragte das Modell, wann seine Wissensgrenze ist, und es gab mir eine andere Antwort als die auf der Seite des Azure OpenAI Modells. Warum geschieht dies?
Dies ist ein erwartetes Verhalten. Die Modelle können keine Fragen zu sich selbst beantworten. Wenn Sie wissen möchten, wann der Wissensstichtag für die Schulungsdaten des Modells liegt, lesen Sie die Seite "Modelle".
Ich habe dem Modell eine Frage zu etwas gestellt, das kürzlich vor der Wissensgrenze passiert ist, und es gab die falsche Antwort. Warum geschieht dies?
Dies ist ein erwartetes Verhalten. Zunächst gibt es keine Garantie dafür, dass jedes letzte Ereignis Teil der Schulungsdaten des Modells war. Und selbst wenn Informationen Teil der Schulungsdaten waren, besteht ohne den Einsatz zusätzlicher Techniken wie der Retrieval Augmented Generation (RAG), um die Antworten des Modells zu untermauern, immer die Möglichkeit, dass Antworten ohne Grundlage auftreten. Sowohl die Azure OpenAI 'Verwenden Sie Ihr Daten-Feature' als auch Bing Chat verwenden Azure OpenAI-Modelle, die mit Retrieval Augmented Generation kombiniert werden, um die Modellantworten weiter zu untermauern.
Die Häufigkeit, mit der ein bestimmtes Informationsstück in den Schulungsdaten angezeigt wurde, kann sich auch auf die Wahrscheinlichkeit auswirken, dass das Modell auf eine bestimmte Weise reagiert.
Die Frage nach etwas, das sich in jüngster Zeit geändert hat, wie "Wer ist der Premierminister Neuseelands?", wird wahrscheinlich zu einer erdachten Antwort Jacinda Ardern führen. Fragen Sie jedoch das Modell "Wann ist Jacinda Ardern als Premierminister zurückgetreten?" Neigt dazu, eine genaue Antwort zu liefern, was Kenntnisse der Trainingsdaten mindestens bis Januar 2023 demonstriert.
Während es möglich ist, das Modell mit Fragen zu untersuchen, um seine Wissensgrenze der Trainingsdaten zu erraten, ist die Seite des Modells der beste Ort, um die Wissensgrenze eines Modells zu prüfen.
Wo kann ich auf Preisinformationen für Ältere Modelle zugreifen, die für neue Bereitstellungen nicht mehr verfügbar sind?
Veraltete Preisinformationen sind über eine downloadfähige PDF-Datei verfügbar. Weitere Modelle finden Sie auf der offiziellen Preisseite.
Wie behebe ich InternalServerError - 500 – Fehler beim Erstellen der Vervollständigung, weil das Modell ungültige Unicode-Ausgabe generiert hat?
Sie können das Auftreten dieser Fehler minimieren, indem Sie die Temperatur Ihrer Eingabeaufforderungen auf weniger als 1 reduzieren und sicherstellen, dass Sie einen Client mit Wiederholungslogik verwenden. Die erneute Ausführung der Anforderung führt häufig zu einer erfolgreichen Antwort.
Wie behebe ich den Serverfehler (500): Unerwartetes spezielles Token
Dies ist ein bekanntes Problem. Sie können das Auftreten dieser Fehler minimieren, indem Sie die Temperatur Ihrer Eingabeaufforderungen auf weniger als 1 reduzieren und sicherstellen, dass Sie einen Client mit Wiederholungslogik verwenden. Die erneute Ausführung der Anforderung führt häufig zu einer erfolgreichen Antwort.
Wenn das Verringern der Temperatur auf weniger als 1 die Häufigkeit dieses Fehlers nicht reduziert, kann die alternative Problemumgehung darin bestehen, Anwesenheits- und Häufigkeitsstrafen sowie Logit-Verzerrungen auf ihre Standardwerte zurückzusetzen. In einigen Fällen kann es hilfreich sein, top_p auf einen nicht standardmäßigen, niedrigeren Wert festzulegen, damit das Modell Tokens mit niedrigerer Wahrscheinlichkeit vermeidet.
Es wurden Gebühren im Zusammenhang mit API-Aufrufen festgestellt, die mit dem Statuscode 400 nicht abgeschlossen wurden. Warum verursachen fehlgeschlagene API-Anfragen Kosten?
Wenn der Dienst die Verarbeitung durchführt, werden Sie belastet, auch wenn der Statuscode nicht erfolgreich ist (nicht 200). Häufige Beispiele hierfür sind ein HTTP-400-Fehler aufgrund eines Inhaltsfilters oder ein HTTP-408-Fehler aufgrund eines Zeitlimits. Gebühren treten auch auf, wenn ein status 200 mit einem finish_reason von content_filter empfangen wird. In diesem Fall gab es keine Probleme bei der Eingabeaufforderung, aber das vom Modell generierte Ergebnis wurde als Verstoß gegen die Inhaltsfilterregeln erkannt, was zur Folge hat, dass das Ergebnis gefiltert wird.
Wenn der Dienst keine Verarbeitung durchführt, werden Sie nicht belastet. Beispielsweise ein 401-Fehler aufgrund der Authentifizierung oder eines 429-Fehlers aufgrund einer Überschreitung des Zinsgrenzwerts.
Unterstützen alle Azure OpenAI-Modelle "max_completion_tokens" mit der Chatabschluss-API?
Nein, alle Azure OpenAI-Modelle unterstützen max_completion_tokens nicht. Dieser Parameter wird bei älteren Modellen wie gpt-4 (Turbo-2024-04-09) nicht unterstützt.
Zugriff auf Azure OpenAI Service
Wie erhalte ich Zugriff auf Azure OpenAI?
Ein Registrierungsformular für beschränkten Zugriff ist nicht erforderlich, um auf die meisten Azure OpenAI-Modelle zuzugreifen. Weitere Informationen finden Sie auf der Seite Azure OpenAI Limited Access.
Mein Gastkonto erhielt Zugriff auf eine Azure OpenAI-Ressource, aber ich kann über das [Microsoft Foundry-Portal](https://ai.azure.com/?cid=learnDocs). nicht auf diese Ressource zugreifen. Wie kann ich den Zugriff aktivieren?
Dies ist das erwartete Verhalten, wenn die Standardanmeldung für die Microsoft Foundry verwendet wird.
So greifen Sie von einem Gastkonto aus auf Microsoft Foundry zu, dem der Zugriff auf eine Azure OpenAI-Ressource gewährt wurde:
- Öffnen Sie eine private Browsersitzung, und navigieren Sie dann zu https://ai.azure.com.
- Anstatt stattdessen die Anmeldeinformationen für Ihr Gastkonto sofort einzugeben, wählen Sie
Sign-in options - Wählen Sie jetzt " Bei einer Organisation anmelden" aus.
- Geben Sie den Domänennamen der Organisation ein, der Ihrem Gastkonto Zugriff auf die Azure OpenAI-Ressource gewährt hat.
- Melden Sie sich jetzt mit Ihren Gastkontoanmeldeinformationen an.
Sie sollten jetzt über das Microsoft Foundry-Portal auf die Ressource zugreifen können.
Alternativ können Sie sich im Azure-Portal über den Übersichtsbereich der Azure OpenAI-Ressource anmelden und "Zu Microsoft Foundry" auswählen, um sich automatisch mit dem passenden Organisationskontext anzumelden.
Erfahren Sie mehr und wo Sie Fragen stellen können
Wo kann ich über die neuesten Updates für Azure OpenAI lesen?
Monatliche Updates finden Sie auf unserer neuen Seite.
Wo erhalte ich Schulungen, um mit dem Lernen zu beginnen und meine Fähigkeiten rund um Azure OpenAI aufzubauen?
Sehen Sie sich unsere introduction to Azure OpenAI training course an.
Wo kann ich Fragen posten und Antworten auf andere häufig gestellte Fragen anzeigen?
- Wir empfehlen, Fragen auf
Microsoft Q&A zu veröffentlichen. - Alternativ können Sie Fragen auf Stack Overflow posten.
Wo finde ich Azure OpenAI-Kundensupport?
Sie erfahren mehr über alle Supportoptionen für Azure OpenAI im Support- und Hilfeoptionenhandbuch.
Modelle und Feintuning
Welche Modelle sind verfügbar?
Weitere Informationen finden Sie im Azure OpenAI Modellverfügbarkeitshandbuch.
Wo finde ich heraus, in welcher Region ein Modell verfügbar ist?
Weitere Informationen zur Verfügbarkeit der Region finden Sie im Azure OpenAI modellverfügbarkeitshandbuch.
Was sind die SLAs (Service Level Agreements) in Azure OpenAI?
Wir bieten ein Verfügbarkeits-SLA für alle Ressourcen und ein Latenz-SLA für Provisioned-Managed-Bereitstellungen an. Weitere Informationen zum SLA für Azure OpenAI Service finden Sie auf der Seite Service Level Agreements (SLA) für Onlinedienste.
Wie aktiviere ich die Feinabstimmung? In [Microsoft Foundry portal](https://ai.azure.com/?cid=learnDocs).) ist das Erstellen eines benutzerdefinierten Modells ausgegraut.
Um erfolgreich auf die Feinabstimmung zugreifen zu können, benötigen Sie die Zuweisung der Azure KI-Benutzerrolle. Selbst jemand mit hochrangigen Dienstadministratorberechtigungen müsste dieses Konto ausdrücklich einrichten, um auf Feinabstimmungen zuzugreifen. Weitere Informationen finden Sie in den Richtlinien zur rollenbasierten Zugriffssteuerung.
Was ist der Unterschied zwischen einem Basismodell und einem fein abgestimmten Modell?
Ein Basismodell ist ein Modell, das für einen bestimmten Anwendungsfall nicht angepasst oder optimiert wurde. Feinabstimmungsmodelle sind angepasste Versionen von Basismodellen, bei denen die Gewichte eines Modells auf einer einzigartigen Reihe von Eingabeaufforderungen trainiert werden. Mit fein abgestimmten Modellen können Sie bessere Ergebnisse für eine breitere Anzahl von Aufgaben erzielen, ohne detaillierte Beispiele für das kontextbezogene Lernen im Rahmen ihrer Abschlussaufforderung bereitzustellen. Weitere Informationen finden Sie in unserem Feinabstimmungshandbuch.
Was ist die maximale Anzahl fein abgestimmter Modelle, die ich erstellen kann?
100
Warum wurde meine fein abgestimmte Modellbereitstellung gelöscht?
Wenn ein angepasstes (fein abgestimmtes) Modell für mehr als 15 Tage bereitgestellt wird, während der keine Fertigstellungen oder Chat-Abschlussanrufe getätigt werden, wird die Bereitstellung automatisch gelöscht (und es entstehen keine weiteren Hostinggebühren für diese Bereitstellung). Das zugrunde liegende angepasste Modell bleibt verfügbar und kann jederzeit erneut bereitgestellt werden. Weitere Informationen finden Sie im Artikel " Anleitungen".
Wie kann ich ein Modell mit der REST-API bereitstellen?
Es gibt derzeit zwei verschiedene REST-APIs, die die Modellbereitstellung zulassen. Verwenden Sie für die neuesten Funktionen zur Modellbereitstellung, wie die Möglichkeit, bei der Bereitstellung eine Modellversion für Modelle wie text-embedding-ada-002 Version 2 anzugeben, den API-Aufruf Deployments - Create Or Update REST.
Kann ich das Kontingent verwenden, um die maximale Tokengrenze eines Modells zu erhöhen?
Nein, Kontingenttoken–Per-Minute (TPM)-Zuordnung ist nicht mit dem maximalen Eingabetokengrenzwert eines Modells verknüpft. Die Grenzwerte für Modelleingabetoken sind in der Modelltabelle definiert und wirken sich nicht auf Änderungen aus, die an TPM vorgenommen wurden.
GPT-4 Turbo mit Vision
Welche Art von Dateien kann ich hochladen?
Wir unterstützen derzeit PNG (.png), JPEG (.jpeg und .jpg), WEBP (WEBP) und nichtanimierte GIF (.gif).
Gibt es eine Beschränkung auf die Größe des Bilds, das ich hochladen kann?
Ja, wir beschränken Bilduploads auf 50 MB pro Bild.
Kann ich ein hochgeladenes Bild löschen?
Nein, das Bild wird automatisch gelöscht, nachdem es vom Modell verarbeitet wurde.
Wie funktionieren die Ratenlimits für GPT-4 Turbo mit Vision?
Wir verarbeiten Bilder auf Tokenebene, sodass jedes Bild, das wir verarbeiten, auf Ihre Token pro Minute (TPM)-Grenzwert angerechnet wird. Ausführliche Informationen zur Formel, die zum Ermitteln der Tokenanzahl pro Bild verwendet wird, finden Sie im Abschnitt "Bildtoken" der Übersicht.
Kann GPT-4 Turbo mit Vision Bildmetadaten verstehen?
Nein, das Modell empfängt keine Bildmetadaten.
Was geschieht, wenn mein Bild unklar ist?
Wenn ein Bild mehrdeutig oder unklar ist, wird das Modell es am besten interpretieren. Die Ergebnisse sind jedoch möglicherweise weniger genau. Eine gute Faustregel ist, dass das Modell die Informationen auch nicht erkennen kann, wenn ein durchschnittlicher Mensch die Informationen in einem Bild bei den Auflösungen, die im Niedrig-/Hochauflösungsmodus verwendet werden, nicht sehen kann.
Was sind die bekannten Einschränkungen von GPT-4 Turbo mit Vision?
Siehe den Abschnitt "Einschränkungen" im Leitfaden zu GPT-4 Turbo mit Vision-Konzepten.
Ich erhalte immer wieder abgeschnittene Antworten, wenn ich GPT-4 Turbo Vision Modelle verwende. Warum geschieht das?
Standardmäßig weisen GPT-4 vision-preview und GPT-4 turbo-2024-04-09 den max_tokens Wert 16 auf. Je nach Anforderung ist dieser Wert häufig zu niedrig und kann zu abgeschnittenen Antworten führen. Um dieses Problem zu beheben, übergeben Sie einen größeren max_tokens Wert als Teil Ihrer Chatabschluss-API-Anforderungen. GPT-4o ist standardmäßig auf 4096 max_tokens festgelegt.
Assistenten
Speichern Sie daten, die in der Assistenten-API verwendet werden?
Ja. Im Gegensatz zur Chat Completions API ist Azure OpenAI-Assistent eine zustandsbehaftete API, was bedeutet, dass sie Daten speichert. Es gibt zwei Arten von Daten, die in der Assistenten-API gespeichert sind:
- Zustandsbehaftete Entitäten: Threads, Nachrichten und Ausführungen, die während der Verwendung von Assistenten erstellt wurden.
- Dateien: Während des Setups von Assistenten oder als Teil einer Nachricht hochgeladen.
Wo werden diese Daten gespeichert?
Daten werden in einem sicheren, Microsoft verwalteten Speicherkonto gespeichert, das logisch getrennt ist.
Wie lange werden diese Daten gespeichert?
Alle verwendeten Daten bleiben in diesem System erhalten, es sei denn, Sie löschen diese Daten explizit. Verwenden Sie die Löschfunktion mit der Thread-ID des Threads, den Sie löschen möchten. Wenn Sie die Ausführung im Assistenten-Playground zurücksetzen, werden Threads nicht gelöscht. Wenn Sie sie jedoch mit der Löschfunktion löschen, werden sie nicht auf der Threadseite angezeigt.
Kann ich meinen eigenen Datenspeicher mit Assistenten verwenden?
Nein. Derzeit unterstützt der Assistent nur lokale Dateien, die in den vom Assistenten verwalteten Speicher hochgeladen wurden. Sie können Ihr privates Speicherkonto nicht mit Assistenten verwenden.
Unterstützt das Assistentenfeature die vom Kunden verwaltete Schlüsselverschlüsselung (CMK)?
Heute unterstützen wir CMK für Threads und Dateien in Assistenten.
Werden meine Daten von Microsoft für Schulungsmodelle verwendet?
Nein. Daten werden von Microsoft nicht für die Schulung von Modellen verwendet. Weitere Informationen finden Sie in der Dokumentation zur verantwortlichen KI .
Wo werden daten geografisch gespeichert?
Azure OpenAI Assistants-Endpunkte regional sind und Daten in derselben Region wie der Endpunkt gespeichert werden. Weitere Informationen finden Sie in der Dokumentation zur Azure Data Residency.
Wie werden Assistenten in Rechnung gestellt?
- Ableitungskosten (Eingabe und Ausgabe) des Basismodells, das Sie für jeden Assistenten verwenden (z. B. gpt-4-0125). Wenn Sie mehrere Assistenten erstellt haben, werden Sie für das Basismodell belastet, das jedem Assistenten zugeordnet ist.
- Wenn Sie das Codedolmetschertool aktiviert haben. Wenn Ihr Assistent z. B. Codedolmetscher in zwei verschiedenen Threads gleichzeitig aufruft, würde dies zwei CodeDolmetschersitzungen erstellen, die jeweils in Rechnung gestellt werden. Jede Sitzung ist standardmäßig für eine Stunde aktiv, was bedeutet, dass Sie diese Gebühr nur einmal bezahlen würden, wenn Ihr Benutzer dem Code Interpreter weiterhin Anweisungen im selben Thread für bis zu einer Stunde gibt.
- Die Dateisuche wird basierend auf dem verwendeten Vektorspeicher abgerechnet.
Weitere Informationen finden Sie auf der Preisseite.
Gibt es zusätzliche Preise oder Kontingente für die Verwendung von Assistenten?
Nein. Alle Kontingente gelten für die Verwendung von Modellen mit Assistenten.
Unterstützt die Assistants-API Modelle außerhalb von Azure OpenAI?
Die Assistenten-API unterstützt nur Azure OpenAI-Modelle.
Ist die Assistenten-API allgemein verfügbar?
Die Assistenten-API befindet sich derzeit in der öffentlichen Vorschau. Informieren Sie sich über unsere neuesten Produktupdates, indem Sie regelmäßig unsere Seite "Neuigkeiten " besuchen.
Welche Beispiele oder andere Ressourcen kann ich verwenden, um Informationen zu Assistenten zu erhalten?
Weitere Informationen zu den ersten Schritten und der Verwendung von Assistenten finden Sie in den konzeptionellen Artikeln und Anleitungen. Sie können auch Azure OpenAI Assistants Codebeispiele auf GitHub auschecken.
Web-App
Wie kann ich meine veröffentlichte Web-App anpassen?
Sie können Ihre veröffentlichte Web-App im Azure Portal anpassen. Der Quellcode für die veröffentlichte Web-App ist unter GitHub verfügbar, wo Sie Informationen zum Ändern des App-Frontends sowie Anweisungen zum Erstellen und Bereitstellen der App finden können.
Wird meine Web-App überschrieben, wenn ich die App erneut vom [Microsoft Foundry-Portal](https://ai.azure.com/?cid=learnDocs)?) bereitstelle?
Der App-Code wird beim Aktualisieren der App nicht überschrieben. Die App wird aktualisiert, um die Azure OpenAI-Ressource zu verwenden, Azure KI-Suche Index (wenn Sie Azure OpenAI für Ihre Daten verwenden), und Modelleinstellungen, die im Microsoft Foundry Portal ausgewählt sind, ohne dass sich die Darstellung oder Funktionalität ändert.
Verwenden Ihrer Daten
Was ist Azure OpenAI auf Ihren Daten?
Azure OpenAI auf Ihren Daten ist ein Feature der Azure OpenAI, die Organisationen dabei hilft, angepasste Einblicke, Inhalte und Suchvorgänge mithilfe ihrer vorgesehenen Datenquellen zu generieren. Es arbeitet mit den Funktionen der OpenAI-Modelle in Azure OpenAI zusammen, um präzisere und relevantere Antworten auf Benutzerabfragen in natürlicher Sprache bereitzustellen. Azure OpenAI auf Ihren Daten lässt sich in die vorhandenen Anwendungen und Workflows des Kunden integrieren, bietet Einblicke in wichtige Schlüsselindikatoren und kann nahtlos mit den Benutzern interagieren.
Wie kann ich auf Azure OpenAI auf Ihre Daten zugreifen?
Alle Azure OpenAI-Kunden können Azure OpenAI auf Ihren Daten über das portal Microsoft Foundry und Rest API verwenden.
Welche Datenquellen unterstützt Azure OpenAI für Ihre Daten?
Azure OpenAI auf Ihren Daten unterstützt die Datenaufnahme aus Azure KI-Suche, Azure Blob Storage und das Hochladen lokaler Dateien. Weitere Informationen zu Azure OpenAI und Ihren Daten finden Sie im Konzeptartikel und Schnellstart.
Wie viel kostet die Nutzung Azure OpenAI für Ihre Daten?
Wenn Sie Azure OpenAI für Ihre Daten verwenden, entstehen Kosten, wenn Sie Azure KI-Suche, Azure Blob Storage, Azure Web App Service, semantische Suche und OpenAI-Modelle verwenden. Es gibt keine zusätzlichen Kosten für die Verwendung des Features "Ihre Daten" im Microsoft Foundry-Portal.
Wie kann ich den Indexerstellungsprozess anpassen oder automatisieren?
Sie können den Index selbst mit einem Script vorbereiten, das für GitHub bereitgestellt wird. Mithilfe dieses Skripts wird ein Azure KI-Suche Index mit allen Informationen erstellt, die für eine bessere Verwendung Ihrer Daten erforderlich sind, wobei Ihre Dokumente in verwaltbare Abschnitte unterteilt sind. Ausführliche Informationen zum Ausführen finden Sie in der README-Datei mit dem Datenvorbereitungscode.
Wie kann ich meinen Index aktualisieren?
Sie können eine automatische Indexaktualisierung planen oder zusätzliche Daten in Ihren Azure Blob Container hochladen und diesen als Datenquelle verwenden, wenn Sie einen neuen Index erstellen. Der neue Index enthält alle Daten in Ihrem Container.
Welche Dateitypen unterstützt Azure OpenAI für Ihre Daten?
Weitere Informationen zu unterstützten Dateitypen finden Sie unter Verwenden Ihrer Daten .
Wird verantwortungsvolle KI von Azure OpenAI auf Ihren Daten unterstützt?
Ja, Azure OpenAI auf Ihren Daten ist Teil von Azure OpenAI und arbeitet mit den Modellen, die in Azure OpenAI zur Verfügung stehen. Die Inhaltsfilterung und die Missbrauchsüberwachungsfunktionen von Azure OpenAI gelten weiterhin. Weitere Informationen finden Sie in der Übersicht über verantwortungsvolle KI-Praktiken für Azure OpenAI-Modelle, um zusätzliche Anleitungen zur verantwortungsvollen Nutzung von Azure OpenAI mit Ihren Daten zu erhalten.
Gibt es ein Tokenlimit für die Systemnachricht?
Ja, der Tokengrenzwert für die Systemnachricht beträgt 400. Wenn die Systemnachricht mehr als 400 Token ist, werden die restlichen Token außerhalb der ersten 400 ignoriert. Diese Einschränkung gilt nur für das Azure OpenAI on Your data feature.
Unterstützt Azure OpenAI mit Ihren Daten das Aufrufen von Funktionen?
Azure OpenAI für Ihre Daten unterstützt derzeit keine Funktionsaufrufe.
Muss die Abfragesprache und die Datenquellensprache identisch sein?
Sie müssen Abfragen in derselben Sprache Ihrer Daten senden. Ihre Daten können in einer der sprachen sein, die von Azure KI-Suche unterstützt werden.
Wenn die semantische Suche für meine Azure KI-Suche-Ressource aktiviert ist, wird sie automatisch auf Azure OpenAI auf Ihre Daten im [Microsoft Foundry-Portal](https://ai.azure.com/?cid=learnDocs)?
Wenn Sie "Azure KI-Suche" als Datenquelle auswählen, können Sie die semantische Suche anwenden. Wenn Sie "Azure Blobcontainer" oder "Dateien hochladen" als Datenquelle auswählen, können Sie den Index wie gewohnt erstellen. Anschließend würden Sie die Daten mithilfe der Option "Azure KI-Suche" erneut aufnehmen, um denselben Index auszuwählen und die semantische Suche anzuwenden. Sie können dann mit Ihren Daten mithilfe der semantischen Suche interagieren.
Wie kann ich beim Indizieren meiner Daten Vektoreinbettungen hinzufügen?
Wenn Sie "Azure Blobcontainer", "Azure KI-Suche" oder "Dateien hochladen" als Datenquelle auswählen, können Sie auch eine Ada-Einbettungsmodellbereitstellung auswählen, die beim Aufnehmen Ihrer Daten verwendet werden soll. Dadurch wird ein Azure KI-Suche Index mit Vektoreinbettungen erstellt.
Warum ist die Indexerstellung fehlgeschlagen, nachdem ich ein Einbettungsmodell hinzugefügt habe?
Die Indexerstellung kann fehlschlagen, wenn Sie Ihrem Index Einbettungen hinzufügen, wenn die Rategrenze für die Bereitstellung des Ada-Einbettungsmodells zu niedrig ist oder wenn Sie über eine sehr große Gruppe von Dokumenten verfügen. Sie können dieses Script für GitHub verwenden, um den Index manuell mit Einbettungen zu erstellen.
Verpflichtung zum Urheberrecht des Kunden
Wie erhalte ich eine Abdeckung im Rahmen der Verpflichtung zum Urheberrecht des Kunden?
Die Verpflichtungserklärung zum Urheberrechtsschutz des Kunden ist eine Bestimmung, die in den Microsoft-Produktbedingungen ab dem 1. Dezember 2023 enthalten ist und die Verpflichtung von Microsoft beschreibt, Kunden gegen bestimmte Ansprüche Dritter auf geistiges Eigentum im Zusammenhang mit Ausgabematerialien zu verteidigen. Wenn der Gegenstand des Anspruchs Ausgabeinhalte sind, die aus dem Azure OpenAI (oder einem anderen abgedeckten Produkt, das es Kunden ermöglicht, die Sicherheitssysteme zu konfigurieren) generiert wurden, muss der Kunde alle in der Azure OpenAI-Dokumentation beschriebenen Maßnahmen implementiert haben, die für das Angebot erforderlich sind, das die Ausgabeinhalte geliefert hat. Die erforderlichen Entschärfungen werden hier dokumentiert und fortlaufend aktualisiert. Für neue Dienste, Features, Modelle oder Anwendungsfälle werden neue CCC-Anforderungen veröffentlicht und sind ab oder nach der Einführung eines solchen Diensts, Features, Modells oder Anwendungsfalls wirksam. Andernfalls haben Kunden sechs Monate ab dem Zeitpunkt der Veröffentlichung, um neue Entschärfungen zu implementieren, um die Abdeckung unter dem CCC aufrechtzuerhalten. Wenn ein Kunde einen Anspruch angibt, ist der Kunde verpflichtet, die Einhaltung der relevanten Anforderungen nachzuweisen. Diese Gegenmaßnahmen sind für abgedeckte Produkte erforderlich, mit denen Kunden die Sicherheitssysteme konfigurieren können, einschließlich Azure OpenAI Service. Sie wirken sich nicht auf die Abdeckung für Kunden aus, die andere abgedeckte Produkte verwenden.