Als u geen antwoorden op uw vragen in dit document kunt vinden en nog steeds hulp nodig hebt, raadpleegt u de handleiding met ondersteuningsopties voor Azure AI-services. Azure OpenAI maakt deel uit van Azure AI-services.
Gegevens en privacy
Gebruiken jullie mijn bedrijfsgegevens om modellen te trainen?
Azure OpenAI gebruikt geen klantgegevens om modellen opnieuw te trainen. Zie Guide voor gegevens, privacy en beveiliging voor Azure OpenAI voor meer informatie.
Algemeen
Biedt Azure OpenAI ondersteuning voor aangepaste API-headers? We voegen extra aangepaste headers toe aan onze API-aanvragen en zien HTTP 431-fouten.
Met onze huidige API's kunnen maximaal 10 aangepaste headers worden doorgegeven via de pijplijn en worden geretourneerd. We hebben gemerkt dat sommige klanten dit aantal headers nu overschrijden, wat resulteert in HTTP 431-fouten. Er is geen oplossing voor deze fout, behalve om het volume van de header te verminderen. In toekomstige API-versies worden geen aangepaste headers meer doorgegeven. Klanten worden aangeraden niet afhankelijk te zijn van aangepaste headers in toekomstige systeemarchitecturen.
Werkt Azure OpenAI met de nieuwste Python-bibliotheek die is uitgebracht door OpenAI (versie>=1.0)?
Azure OpenAI wordt ondersteund door de nieuwste versie van de OpenAI Python-bibliotheek (versie>=1.0). Het is echter belangrijk om te weten dat de migratie van uw codebasis die wordt gebruikt openai migrate
, niet wordt ondersteund en niet werkt met code die is gericht op Azure OpenAI.
Ik kan GPT-4 Turbo Preview niet vinden, waar is het?
GPT-4 Turbo Preview is het gpt-4
model (1106-preview). Als u dit model wilt implementeren, selecteert u onder Implementaties model gpt-4. Selecteer voor modelversie 1106-preview. Als u wilt controleren welke regio's dit model beschikbaar is, raadpleegt u de pagina modellen.
Biedt Azure OpenAI ondersteuning voor GPT-4?
Azure OpenAI ondersteunt de nieuwste GPT-4-modellen. Het ondersteunt zowel GPT-4 als GPT-4-32K.
Hoe worden de mogelijkheden van Azure OpenAI vergeleken met OpenAI?
Azure OpenAI Service biedt klanten geavanceerde taal-AI met OpenAI GPT-3-, Codex- en DALL-E-modellen met de beveiliging en bedrijfsbelofte van Azure. Azure OpenAI ontwikkeld de API's met OpenAI en zorgt voor compatibiliteit en een soepele overgang van het ene naar het andere.
Met Azure OpenAI krijgen klanten de beveiligingsmogelijkheden van Microsoft Azure terwijl ze dezelfde modellen uitvoeren als OpenAI.
Biedt Azure OpenAI ondersteuning voor VNET's en privé-eindpunten?
Ja, als onderdeel van Azure AI-services ondersteunt Azure OpenAI VNET's en privé-eindpunten. Raadpleeg de richtlijnen voor virtuele netwerken van Azure AI-services voor meer informatie.
Ondersteunen de GPT-4-modellen momenteel afbeeldingsinvoer?
Nee, GPT-4 is ontworpen door OpenAI om multimodale te zijn, maar momenteel worden alleen tekstinvoer en uitvoer ondersteund.
Hoe kan ik aanvragen voor nieuwe use cases?
Voorheen vereist het proces voor het toevoegen van nieuwe gebruiksvoorbeelden dat klanten opnieuw moeten worden toegepast op de service. Nu brengen we een nieuw proces uit waarmee u snel nieuwe use cases kunt toevoegen aan uw gebruik van de service. Dit proces volgt het tot stand gebrachte proces voor beperkte toegang binnen Azure AI-services. Bestaande klanten kunnen hier alle nieuwe gebruiksvoorbeelden bevestigen. Houd er rekening mee dat dit vereist is wanneer u de service wilt gebruiken voor een nieuwe use case waarvoor u oorspronkelijk geen aanvraag hebt gedaan.
Ik probeer insluitingen te gebruiken en ik heb de fout InvalidRequestError: Te veel invoer ontvangen. Het maximum aantal invoerwaarden is 16." Hoe kan ik dit oplossen?
Deze fout treedt meestal op wanneer u een batch tekst probeert in te sluiten in één API-aanvraag als een matrix. Momenteel ondersteunt Azure OpenAI alleen matrices van insluitingen met meerdere invoerwaarden voor het text-embedding-ada-002
model versie 2. Deze modelversie ondersteunt een matrix die bestaat uit maximaal 16 invoer per API-aanvraag. De matrix kan maximaal 8.191 tokens lang zijn wanneer u het model text-embedding-ada-002 (versie 2) gebruikt.
Waar kan ik meer lezen over betere manieren om Azure OpenAI te gebruiken om de antwoorden te krijgen die ik van de service wil ontvangen?
Bekijk onze inleiding tot prompt engineering. Hoewel deze modellen krachtig zijn, is hun gedrag ook erg gevoelig voor de prompts die ze van de gebruiker ontvangen. Een belangrijke vaardigheid om te ontwikkelen is dan ook het maken van prompts. Nadat u de inleiding hebt voltooid, bekijkt u ons artikel over systeemberichten.
Mijn gastaccount heeft toegang gekregen tot een Azure OpenAI-resource, maar ik heb geen toegang tot die resource in Azure AI Studio. Hoe kan ik toegang inschakelen?
Dit is verwacht gedrag wanneer u de standaardaanmeldingservaring voor Azure AI Studio gebruikt.
Toegang krijgen tot Azure AI Studio vanuit een gastaccount dat toegang heeft gekregen tot een Azure OpenAI-resource:
- Open een privébrowsersessie en navigeer naar https://ai.azure.com.
- In plaats van de referenties van uw gastaccount onmiddellijk in te voeren, selecteert u
Sign-in options
- Selecteer Nu Aanmelden bij een organisatie
- Voer de domeinnaam in van de organisatie waaraan uw gastaccount toegang heeft verleend tot de Azure OpenAI-resource.
- Meld u nu aan met de referenties van uw gastaccount.
U moet nu toegang hebben tot de resource via Azure AI Studio.
Als u bent aangemeld bij Azure Portal vanuit het overzichtsvenster van de Azure OpenAI-resource, kunt u Naar Azure AI Studio gaan om u automatisch aan te melden met de juiste organisatiecontext.
Wanneer ik GPT-4 vraag welk model wordt uitgevoerd, vertelt het me dat het GPT-3 uitvoert. Waarom gebeurt dit?
Azure OpenAI-modellen (inclusief GPT-4) kunnen niet correct identificeren welk model wordt uitgevoerd, verwacht gedrag.
Waarom gebeurt dit?
Uiteindelijk voert het model een volgende tokenvoorspelling uit als antwoord op uw vraag. Het model heeft geen systeemeigen mogelijkheid om een query uit te voeren op welke modelversie momenteel wordt uitgevoerd om uw vraag te beantwoorden. Als u deze vraag wilt beantwoorden, kunt u altijd naar Azure AI Studio>Management-implementaties>> gaan en de kolom met de modelnaam raadplegen om te controleren welk model momenteel is gekoppeld aan een bepaalde implementatienaam.
De vragen 'Welk model wordt uitgevoerd?' of 'Wat is het nieuwste model van OpenAI?' leveren vergelijkbare kwaliteitsresultaten op om het model te vragen wat het weer vandaag zal zijn. Het kan het juiste resultaat retourneren, maar puur toevallig. Op zichzelf heeft het model geen echte informatie dan wat deel uitmaakte van de training/trainingsgegevens. In het geval van GPT-4, vanaf augustus 2023 gaan de onderliggende trainingsgegevens slechts tot september 2021. GPT-4 is pas uitgebracht tot maart 2023, dus als OpenAI een nieuwe versie met bijgewerkte trainingsgegevens uitbrengt, of een nieuwe versie die is afgestemd om die specifieke vragen te beantwoorden, is het verwachte gedrag voor GPT-4 om te reageren dat GPT-3 de nieuwste modelrelease van OpenAI is.
Als u een op GPT gebaseerd model wilt helpen om nauwkeurig te reageren op de vraag 'welk model wordt uitgevoerd?', moet u die informatie aan het model verstrekken via technieken zoals prompt-engineering van het systeembericht van het model, Rag (Augmented Generation) ophalen. Dit is de techniek die wordt gebruikt door Azure OpenAI op uw gegevens waar actuele informatie op het systeembericht op het moment van query's aan het systeembericht wordt toegevoegd, of via fine-tuning waar u specifieke versies van het model kunt verfijnen om die vraag op een bepaalde manier te beantwoorden op basis van de modelversie.
Voor meer informatie over hoe GPT-modellen worden getraind en werken, raden we aan om het gesprek van Andrej Karpathy te bekijken vanuit Build 2023 over de status van GPT.
Ik heb het model gevraagd wanneer de kenniskap is en het gaf me een ander antwoord dan wat op de pagina van het Azure OpenAI-model staat. Waarom gebeurt dit?
Dit is normaal. De modellen kunnen geen vragen over zichzelf beantwoorden. Als u wilt weten wanneer de kenniskap voor de trainingsgegevens van het model is, raadpleegt u de pagina modellen.
Ik heb het model een vraag gesteld over iets dat onlangs gebeurde voordat de kennis werd afgekapt en het antwoord verkeerd kreeg. Waarom gebeurt dit?
Dit is normaal. Ten eerste is er geen garantie dat elke recente gebeurtenis deel uitmaakt van de trainingsgegevens van het model. En zelfs wanneer informatie deel uitmaakte van de trainingsgegevens, zonder gebruik te maken van extra technieken zoals Retrieval Augmented Generation (RAG) om de reacties van het model te helpen grondgelegeerd, is er altijd een kans dat er niet-geaarde reacties optreden. Zowel azure OpenAI's gebruiken uw gegevensfunctie als Bing Chat azure OpenAI-modellen in combinatie met het ophalen van augmented generation om verdere reacties op modellen te helpen.
De frequentie die een bepaald stukje informatie in de trainingsgegevens bevat, kan ook van invloed zijn op de kans dat het model op een bepaalde manier reageert.
Het vragen van de nieuwste GPT-4 Turbo Preview-model over iets dat recenter is veranderd, zoals 'Wie is de premier van Nieuw-Zeeland?', zal waarschijnlijk resulteren in het ge fabriceerde antwoord Jacinda Ardern
. Vraagt u het model echter "Wanneer is er een stap omlaag gegaan Jacinda Ardern
als premier?" Heeft de neiging om een nauwkeurig antwoord te geven dat trainingsgegevens laat zien die ten minste naar januari 2023 gaan.
Hoewel het mogelijk is om het model te testen met vragen om de kennis van de trainingsgegevens te raden, is de pagina van het model de beste plek om de kennisuitschakeling van een model te controleren.
Waar heb ik toegang tot prijsinformatie voor oudere modellen, die niet meer beschikbaar zijn voor nieuwe implementaties?
Verouderde prijsinformatie is beschikbaar via een downloadbaar PDF-bestand. Raadpleeg de officiële pagina met prijzen voor alle andere modellen.
Hoe kan ik internalServerError - 500 - Kan de voltooiing niet maken omdat het model ongeldige Unicode-uitvoer heeft gegenereerd?
U kunt het voorkomen van deze fouten minimaliseren door de temperatuur van uw prompts te verlagen naar minder dan 1 en ervoor te zorgen dat u een client gebruikt met logica voor opnieuw proberen. Het opnieuw voltooien van de aanvraag resulteert vaak in een geslaagd antwoord.
Er zijn kosten opgetreden die zijn gekoppeld aan API-aanroepen die niet konden worden voltooid met statuscode 400. Waarom worden mislukte API-aanroepen gegenereerd die kosten genereren?
Als de service verwerking uitvoert, worden er kosten in rekening gebracht, zelfs als de statuscode niet is geslaagd (niet 200). Veelvoorkomende voorbeelden hiervan zijn een 400-fout vanwege een inhoudsfilter of invoerlimiet of een 408-fout vanwege een time-out. Er worden ook kosten in rekening gebracht wanneer een status 200
wordt ontvangen met een finish_reason
van content_filter
. In dit geval heeft de prompt geen problemen, maar de voltooiing die door het model is gegenereerd, is gedetecteerd om de regels voor inhoudsfiltering te schenden, waardoor de voltooiing wordt gefilterd.
Als de service geen verwerking uitvoert, worden er geen kosten in rekening gebracht. Bijvoorbeeld een 401-fout vanwege verificatie of een 429-fout vanwege het overschrijden van de frequentielimiet.
Toegang krijgen tot de Azure OpenAI-service
Hoe kan ik toegang krijgen tot Azure OpenAI?
Een registratieformulier voor beperkte toegang is niet vereist voor toegang tot de meeste Azure OpenAI-modellen. Meer informatie vindt u op de pagina Beperkte toegang van Azure OpenAI.
Meer informatie en waar u vragen kunt stellen
Waar kan ik lezen over de nieuwste updates voor Azure OpenAI?
Zie onze nieuwe pagina voor maandelijkse updates.
Waar kan ik training krijgen om aan de slag te gaan met leren en mijn vaardigheden op te bouwen in Azure OpenAI?
Bekijk onze inleiding tot de Azure OpenAI-trainingscursus.
Waar kan ik vragen posten en antwoorden op andere veelgestelde vragen bekijken?
- We raden u aan vragen te plaatsen over Microsoft Q&A.
- U kunt ook vragen posten over Stack Overflow.
Waar kan ik terecht voor klantenondersteuning van Azure OpenAI?
Azure OpenAI maakt deel uit van Azure AI-services. U vindt meer informatie over alle ondersteuningsopties voor Azure AI-services in de handleiding voor ondersteunings- en Help-opties.
Modellen en afstemming
Welke modellen zijn er beschikbaar?
Raadpleeg de beschikbaarheidshandleiding voor het Azure OpenAI-model.
Waar vind ik in welke regio een model beschikbaar is?
Raadpleeg de beschikbaarheidshandleiding voor Azure OpenAI-modellen voor de beschikbaarheid van regio's.
Wat zijn de SLA's (Service Level Agreements) in Azure OpenAI?
We bieden wel een SLA voor beschikbaarheid voor alle resources en een SLA voor latentie voor ingerichte beheerde implementaties. Zie de pagina Service Level Agreements (SLA) voor Online Services voor meer informatie over de SLA voor Azure OpenAI Service.
Hoe kan ik afstemmen inschakelen? Een aangepast model maken wordt grijs weergegeven in Azure AI Studio.
Als u toegang wilt krijgen tot fine-tuning, hebt u Cognitive Services OpenAI-inzender toegewezen. Zelfs iemand met machtigingen voor servicebeheerders op hoog niveau heeft dit account nog steeds expliciet ingesteld om toegang te krijgen tot het afstemmen. Raadpleeg de richtlijnen voor op rollen gebaseerd toegangsbeheer voor meer informatie.
Wat is het verschil tussen een basismodel en een nauwkeurig afgestemd model?
Een basismodel is een model dat niet is aangepast of afgestemd op een specifieke use-case. Verfijnde modellen zijn aangepaste versies van basismodellen waarbij de gewichten van een model worden getraind op een unieke set prompts. Met nauwkeurig afgestemde modellen kunt u betere resultaten bereiken voor een breder aantal taken zonder dat u gedetailleerde voorbeelden hoeft te bieden voor leren in context als onderdeel van uw voltooiingsprompt. Raadpleeg onze handleiding voor afstemming voor meer informatie.
Wat is het maximum aantal nauwkeurig afgestemde modellen dat ik kan maken?
100
Waarom is mijn verfijnde modelimplementatie verwijderd?
Als er meer dan 15 dagen een aangepast (afgestemd) model wordt geïmplementeerd waarin er geen aanroepen voor voltooiingen of chats worden gedaan, wordt de implementatie automatisch verwijderd (en worden er geen verdere hostingkosten in rekening gebracht voor die implementatie). Het onderliggende aangepaste model blijft beschikbaar en kan op elk gewenst moment opnieuw worden geïmplementeerd. Raadpleeg het artikel voor meer informatie.
Hoe kan ik een model implementeren met de REST API?
Er zijn momenteel twee verschillende REST API's die modelimplementatie toestaan. Voor de nieuwste functies voor modelimplementatie, zoals de mogelijkheid om een modelversie op te geven tijdens de implementatie voor modellen zoals tekst-embedding-ada-002 versie 2, gebruikt u de aanroep Implementaties - REST API maken of bijwerken .
Kan ik quota gebruiken om de maximale tokenlimiet van een model te verhogen?
Nee, toewijzing van quotatokens per minuut (TPM) is niet gerelateerd aan de maximale invoertokenlimiet van een model. Modelinvoertokenlimieten worden gedefinieerd in de modellentabel en worden niet beïnvloed door wijzigingen in TPM.
GPT-4 Turbo met Vision
Kan ik de afbeeldingsmogelijkheden in GPT-4 verfijnen?
Nee, we bieden momenteel geen ondersteuning voor het verfijnen van de mogelijkheden voor afbeeldingen van GPT-4.
Kan ik GPT-4 gebruiken om afbeeldingen te genereren?
Nee, u kunt gebruiken dall-e-3
om afbeeldingen te genereren en gpt-4-vision-preview
om afbeeldingen te begrijpen.
Welk type bestanden kan ik uploaden?
Momenteel wordt PNG (.png), JPEG (.jpeg en .jpg), WEBP (.webp) en niet-animatie-GIF (.gif) ondersteund.
Is er een limiet voor de grootte van de afbeelding die ik kan uploaden?
Ja, we beperken het uploaden van afbeeldingen tot 20 MB per afbeelding.
Kan ik een afbeelding verwijderen die ik heb geüpload?
Nee, we verwijderen de afbeelding automatisch nadat deze door het model is verwerkt.
Hoe werken de frequentielimieten voor GPT-4 Turbo met Vision?
We verwerken installatiekopieën op tokenniveau, dus elke installatiekopieën die we verwerken, telt mee voor uw tokens per minuutlimiet (TPM). Zie de sectie Afbeeldingstokens van het overzicht voor meer informatie over de formule die wordt gebruikt om het aantal token per afbeelding te bepalen.
Kan GPT-4 Turbo met Vision de metagegevens van afbeeldingen begrijpen?
Nee, het model ontvangt geen metagegevens van afbeeldingen.
Wat gebeurt er als mijn afbeelding onduidelijk is?
Als een afbeelding dubbelzinnig of onduidelijk is, doet het model het beste om het te interpreteren. De resultaten zijn echter mogelijk minder nauwkeurig. Een goede vuistregel is dat als een gemiddelde mens de informatie in een afbeelding niet kan zien op de resoluties die worden gebruikt in de modus lage/hoge grootte, het model ook niet kan.
Wat zijn de bekende beperkingen van GPT-4 Turbo met Vision?
Zie de sectie met beperkingen van de gpt-4 turbo met Vision-conceptenhandleiding.
Ik blijf afgekapte antwoorden krijgen wanneer ik GPT-4 Turbo Vision-modellen gebruik. Waarom?
GPT-4 vision-preview
en GPT-4 turbo-2024-04-09
hebben standaard de max_tokens
waarde 16. Afhankelijk van uw aanvraag is deze waarde vaak te laag en kan dit leiden tot afgekapte antwoorden. Als u dit probleem wilt oplossen, geeft u een grotere max_tokens
waarde door als onderdeel van de API-aanvragen voor het voltooien van chats. GPT-4o is standaard ingesteld op 4096 max_tokens.
Assistenten
Slaat u gegevens op die worden gebruikt in de Assistent-API?
Ja. In tegenstelling tot de API voor chatvoltooiingen is Azure OpenAI-assistenten een stateful API, wat betekent dat er gegevens worden bewaard. Er zijn twee typen gegevens opgeslagen in de Assistent-API:
- Stateful entiteiten: threads, berichten en uitvoeringen die zijn gemaakt tijdens het gebruik van assistenten.
- Bestanden: geüpload tijdens het instellen van assistenten of als onderdeel van een bericht.
Waar worden deze gegevens opgeslagen?
Gegevens worden opgeslagen in een beveiligd, door Microsoft beheerd opslagaccount dat logisch is gescheiden.
Hoe lang worden deze gegevens opgeslagen?
Alle gebruikte gegevens blijven behouden in dit systeem, tenzij u deze gegevens expliciet verwijdert. Gebruik de functie Verwijderen met de thread-id van de thread die u wilt verwijderen. Als u de uitvoering in de assistentenspeeltuin wist, worden threads niet verwijderd, maar als u ze verwijdert met de verwijderfunctie, worden ze niet weergegeven op de threadpagina.
Kan ik mijn eigen gegevensarchief gebruiken met Assistenten?
Nee Momenteel ondersteunen assistenten alleen lokale bestanden die zijn geüpload naar de door assistenten beheerde opslag. U kunt uw privéopslagaccount niet gebruiken met Assistenten.
Ondersteunen assistenten door de klant beheerde sleutelversleuteling (CMK)?
Vandaag ondersteunen we CMK voor threads en bestanden in assistenten. Zie de pagina Wat is er nieuw voor beschikbare regio's voor deze functie.
Worden mijn gegevens gebruikt door Microsoft voor trainingsmodellen?
Nee Gegevens worden niet gebruikt voor Microsoft die niet wordt gebruikt voor trainingsmodellen. Zie de documentatie voor verantwoorde AI voor meer informatie.
Waar worden gegevens geografisch opgeslagen?
Azure OpenAI Assistant-eindpunten zijn regionaal en gegevens worden opgeslagen in dezelfde regio als het eindpunt. Zie de documentatie over azure-gegevenslocatie voor meer informatie.
Hoe worden kosten in rekening gebracht voor assistenten?
- Deductiekosten (invoer en uitvoer) van het basismodel dat u gebruikt voor elke assistent (bijvoorbeeld gpt-4-0125). Als u meerdere assistenten hebt gemaakt, worden er kosten in rekening gebracht voor het basismodel dat aan elke assistent is gekoppeld.
- Als u het hulpprogramma Code Interpreter hebt ingeschakeld. Als uw assistent code-interpreter bijvoorbeeld tegelijkertijd aanroept in twee verschillende threads, worden er twee Code Interpreter-sessies gemaakt, die elk in rekening worden gebracht. Elke sessie is standaard één uur actief. Dit betekent dat u deze kosten slechts één keer betaalt als uw gebruiker gedurende maximaal één uur instructies aan code-interpreter in dezelfde thread geeft.
- Bestandszoekopdrachten worden gefactureerd op basis van de gebruikte vectoropslag.
Zie voor meer informatie de pagina met prijzen.
Zijn er extra prijzen of quota voor het gebruik van assistenten?
Nee Alle quota zijn van toepassing op het gebruik van modellen met assistenten.
Biedt de Assistants-API ondersteuning voor niet-Azure OpenAI-modellen?
Api voor assistenten ondersteunt alleen Azure OpenAI-modellen.
Is de Assistants-API algemeen beschikbaar?
De Assistants-API is momenteel beschikbaar als openbare preview. Blijf op de hoogte van onze nieuwste productupdates door regelmatig onze pagina What's New te bezoeken.
Wat zijn enkele voorbeelden of andere bronnen die ik kan gebruiken voor meer informatie over assistenten?
Zie de artikelen conceptueel, quickstart, procedures voor informatie over aan de slag en het gebruik van assistenten. U kunt ook codevoorbeelden van Azure OpenAI Assistants bekijken op GitHub.
Webapp
Hoe kan ik mijn gepubliceerde web-app aanpassen?
U kunt uw gepubliceerde web-app aanpassen in Azure Portal. De broncode voor de gepubliceerde web-app is beschikbaar op GitHub, waar u informatie kunt vinden over het wijzigen van de front-end van de app, evenals instructies voor het bouwen en implementeren van de app.
Wordt mijn web-app overschreven wanneer ik de app opnieuw implementeer vanuit Azure AI Studio?
Uw app-code wordt niet overschreven wanneer u uw app bijwerkt. De app wordt bijgewerkt voor het gebruik van de Azure OpenAI-resource, de Azure AI Search-index (als u Azure OpenAI op uw gegevens gebruikt) en modelinstellingen die zijn geselecteerd in Azure AI Studio, zonder dat er wijzigingen zijn aangebracht in het uiterlijk of de functionaliteit.
Uw gegevens gebruiken
Wat is Azure OpenAI voor uw gegevens?
Azure OpenAI op uw gegevens is een functie van de Azure OpenAI-services waarmee organisaties aangepaste inzichten, inhoud en zoekopdrachten kunnen genereren met behulp van hun aangewezen gegevensbronnen. Het werkt met de mogelijkheden van de OpenAI-modellen in Azure OpenAI om nauwkeurigere en relevante antwoorden te bieden op gebruikersquery's in natuurlijke taal. Azure OpenAI op uw gegevens kan worden geïntegreerd met de bestaande toepassingen en werkstromen van de klant, biedt inzicht in key performance indicators en kan naadloos communiceren met gebruikers.
Hoe krijg ik toegang tot Azure OpenAI op uw gegevens?
Alle Azure OpenAI-klanten kunnen Azure OpenAI op uw gegevens gebruiken via azure AI Studio en rest API.
Welke gegevensbronnen ondersteunt Azure OpenAI voor uw gegevens?
Azure OpenAI op uw gegevens ondersteunt opname vanuit Azure AI Search, Azure Blob Storage en het uploaden van lokale bestanden. In het conceptuele artikel en de quickstart vindt u meer informatie over Azure OpenAI over uw gegevens.
Hoeveel kost het om Azure OpenAI te gebruiken voor uw gegevens?
Wanneer u Azure OpenAI op uw gegevens gebruikt, worden er kosten in rekening gebracht wanneer u Azure AI Search, Azure Blob Storage, Azure Web App Service, semantische zoekopdrachten en OpenAI-modellen gebruikt. Er zijn geen extra kosten verbonden aan het gebruik van de functie 'uw gegevens' in Azure AI Studio.
Hoe kan ik het proces voor het maken van de index aanpassen of automatiseren?
U kunt de index zelf voorbereiden met behulp van een script op GitHub. Met dit script maakt u een Azure AI Search-index met alle informatie die nodig is om uw gegevens beter te gebruiken, waarbij uw documenten zijn onderverdeeld in beheerbare segmenten. Zie het README-bestand met de code voor gegevensvoorbereiding voor meer informatie over het uitvoeren ervan.
Hoe kan ik mijn index bijwerken?
U kunt een automatische indexvernieuwing plannen of aanvullende gegevens uploaden naar uw Azure Blob-container en deze gebruiken als uw gegevensbron wanneer u een nieuwe index maakt. De nieuwe index bevat alle gegevens in uw container.
Welke bestandstypen worden door Azure OpenAI op uw gegevens ondersteund?
Zie Uw gegevens gebruiken voor meer informatie over ondersteunde bestandstypen.
Wordt verantwoordelijke AI ondersteund door Azure OpenAI voor uw gegevens?
Ja, Azure OpenAI op uw gegevens maakt deel uit van de Azure OpenAI-service en werkt met de modellen die beschikbaar zijn in Azure OpenAI. De functies voor inhoudsfiltering en misbruikcontrole van Azure OpenAI zijn nog steeds van toepassing. Zie voor meer informatie het overzicht van verantwoorde AI-procedures voor Azure OpenAI-modellen en de Transparantienotitie voor Azure OpenAI voor extra hulp bij het gebruik van Azure OpenAI voor uw gegevens op verantwoorde wijze.
Is er een tokenlimiet voor het systeembericht?
Ja, de tokenlimiet voor het systeembericht is 400. Als het systeembericht meer dan 400 tokens is, worden de rest van de tokens buiten de eerste 400 genegeerd. Deze beperking geldt alleen voor de Azure OpenAI voor uw gegevensfunctie.
Ondersteunt Azure OpenAI op uw gegevens functie aanroepen?
Azure OpenAI op uw gegevens biedt momenteel geen ondersteuning voor het aanroepen van functies.
Moeten de querytaal en de taal van de gegevensbron hetzelfde zijn?
U moet query's verzenden in dezelfde taal als uw gegevens. Uw gegevens kunnen zich in een van de talen die worden ondersteund door Azure AI Search.
Als Semantic Search is ingeschakeld voor mijn Azure AI Search-resource, wordt deze automatisch toegepast op Azure OpenAI op uw gegevens in Azure AI Studio?
Wanneer u Azure AI Search selecteert als gegevensbron, kunt u ervoor kiezen om semantische zoekopdrachten toe te passen. Als u 'Azure Blob-container' of 'Bestanden uploaden' selecteert als de gegevensbron, kunt u de index zoals gebruikelijk maken. Daarna zou u de gegevens opnieuw opnemen met behulp van de optie 'Azure AI Search' om dezelfde index te selecteren en Semantisch zoeken toe te passen. Vervolgens kunt u chatten op uw gegevens met semantische zoekopdrachten die zijn toegepast.
Hoe kan ik vector embeddings toevoegen bij het indexeren van mijn gegevens?
Wanneer u 'Azure Blob-container', 'Azure AI Search' of 'Bestanden uploaden' selecteert als de gegevensbron, kunt u ook een Ada-insluitingsmodelimplementatie selecteren die moet worden gebruikt bij het opnemen van uw gegevens. Hiermee maakt u een Azure AI Search-index met vector-insluitingen.
Waarom mislukt het maken van de index nadat ik een insluitmodel heb toegevoegd?
Het maken van een index kan mislukken bij het toevoegen van insluitingen aan uw index als de frequentielimiet voor de implementatie van uw Ada-insluitingsmodel te laag is of als u een zeer grote set documenten hebt. U kunt dit script op GitHub gebruiken om de index handmatig met insluitingen te maken.
Copyright-toezegging van klant
Hoe kan ik dekking verkrijgen onder de toezegging voor het auteursrecht van de klant?
De toezegging voor het auteursrecht van de klant is een bepaling die moet worden opgenomen in de Productvoorwaarden van Microsoft op 1 december 2023, waarin de verplichting van Microsoft wordt beschreven om klanten te beschermen tegen bepaalde intellectuele eigendomsclaims van derden met betrekking tot Uitvoerinhoud. Als het onderwerp van de claim uitvoerinhoud is die wordt gegenereerd door de Azure OpenAI-service (of een ander gedekt product waarmee klanten de veiligheidssystemen kunnen configureren), moet de klant alle risicobeperkingsstappen hebben geïmplementeerd die zijn vereist door de Documentatie van de Azure OpenAI-service in het aanbod dat de uitvoerinhoud heeft geleverd. De vereiste oplossingen worden hier beschreven en doorlopend bijgewerkt. Voor nieuwe services, functies, modellen of use cases worden nieuwe CCC-vereisten geplaatst en toegepast op of na de lancering van een dergelijke service, functie, model of use case. Anders hebben klanten zes maanden na de publicatie om nieuwe oplossingen te implementeren om de dekking onder het CCC te handhaven. Als een klant een claim aangeeft, moet de klant de naleving van de relevante vereisten aantonen. Deze oplossingen zijn vereist voor gedekte producten waarmee klanten de veiligheidssystemen kunnen configureren, waaronder Azure OpenAI Service; ze hebben geen invloed op de dekking voor klanten die andere gedekte producten gebruiken.