Läs på engelska Redigera

Dela via


Vanliga frågor och svar om Azure OpenAI Service

Om du inte hittar svar på dina frågor i det här dokumentet och fortfarande behöver hjälp kan du läsa guiden för supportalternativ för Azure AI-tjänster. Azure OpenAI är en del av Azure AI-tjänster.

Data och sekretess

Använder ni mina företagsdata för att utbilda några modeller?

Azure OpenAI använder inte kunddata för att träna om modeller. Mer information finns i Guide till data, sekretess och säkerhet i Azure OpenAI.

Allmänt

Stöder Azure OpenAI anpassade API-huvuden? Vi lägger till ytterligare anpassade huvuden i våra API-begäranden och ser HTTP 431-fel.

Våra aktuella API:er tillåter upp till 10 anpassade huvuden som skickas via pipelinen och returneras. Vi har märkt att vissa kunder nu överskrider det här antalet huvuden, vilket resulterar i HTTP 431-fel. Det finns ingen lösning på det här felet, förutom att minska rubrikvolymen. I framtida API-versioner passerar vi inte längre anpassade rubriker. Vi rekommenderar att kunderna inte är beroende av anpassade rubriker i framtida systemarkitekturer.

Fungerar Azure OpenAI med det senaste Python-biblioteket som släpptes av OpenAI (version>=1.0)?

Azure OpenAI stöds av den senaste versionen av OpenAI Python-biblioteket (version>=1.0). Det är dock viktigt att observera att migrering av din kodbas med inte openai migrate stöds och fungerar inte med kod som riktar sig mot Azure OpenAI.

Jag hittar inte GPT-4 Turbo Preview, var är den?

GPT-4 Turbo Preview är gpt-4 modellen (1106-preview). Om du vill distribuera den här modellen under Distributioner väljer du modell gpt-4. För Modellversion väljer du 1106-preview. Om du vill kontrollera vilka regioner den här modellen är tillgänglig kan du gå till sidan modeller.

Har Azure OpenAI stöd för GPT-4?

Azure OpenAI stöder de senaste GPT-4-modellerna. Den stöder både GPT-4 och GPT-4-32K.

Hur skiljer sig funktionerna i Azure OpenAI från OpenAI?

Azure OpenAI Service ger kunderna avancerad språk-AI med OpenAI GPT-3-, Codex- och DALL-E-modeller med säkerhet och företagslöfte för Azure. Azure OpenAI codevelops API:erna med OpenAI, vilket säkerställer kompatibilitet och en smidig övergång från en till en annan.

Med Azure OpenAI får kunderna säkerhetsfunktionerna i Microsoft Azure när de kör samma modeller som OpenAI.

Har Azure OpenAI stöd för virtuella nätverk och privata slutpunkter?

Ja, som en del av Azure AI-tjänster stöder Azure OpenAI virtuella nätverk och privata slutpunkter. Mer information finns i vägledningen för virtuella nätverk i Azure AI-tjänster.

Stöder GPT-4-modellerna för närvarande bildindata?

Nej, GPT-4 har utformats av OpenAI för att vara multimodal, men för närvarande stöds endast textinmatning och utdata.

Hur gör jag för att ansöka om nya användningsfall?

Tidigare krävde processen för att lägga till nya användningsfall att kunderna skulle ansöka om tjänsten igen. Nu släpper vi en ny process som gör att du snabbt kan lägga till nya användningsfall i din användning av tjänsten. Den här processen följer den etablerade processen för begränsad åtkomst i Azure AI-tjänster. Befintliga kunder kan intyga alla nya användningsfall här. Observera att detta krävs när du vill använda tjänsten för ett nytt användningsfall som du inte ursprungligen ansökte om.

Jag försöker använda inbäddningar och fick felet "InvalidRequestError: För många indata. Det maximala antalet indata är 16." Hur åtgärdar jag detta?

Det här felet uppstår vanligtvis när du försöker skicka en batch med text för att bädda in i en enda API-begäran som en matris. För närvarande stöder Azure OpenAI endast matriser med inbäddningar med flera indata för text-embedding-ada-002 version 2-modellen. Den här modellversionen stöder en matris som består av upp till 16 indata per API-begäran. Matrisen kan vara upp till 8 191 token lång när du använder modellen text-embedding-ada-002 (version 2).

Var kan jag läsa om bättre sätt att använda Azure OpenAI för att få de svar jag vill ha från tjänsten?

Kolla in vår introduktion till prompt engineering. Även om dessa modeller är kraftfulla är deras beteende också mycket känsligt för de uppmaningar de får från användaren. Detta gör promptkonstruktionen till en viktig färdighet att utveckla. När du har slutfört introduktionen kan du läsa vår artikel om systemmeddelanden.

Mitt gästkonto har fått åtkomst till en Azure OpenAI-resurs, men jag kan inte komma åt den resursen i Azure AI Studio. Hur gör jag för att aktivera åtkomst?

Detta är förväntat när du använder standardinloggningsmiljön för Azure AI Studio.

Så här kommer du åt Azure AI Studio från ett gästkonto som har beviljats åtkomst till en Azure OpenAI-resurs:

  1. Öppna en privat webbläsarsession och navigera sedan till https://ai.azure.com.
  2. I stället för att omedelbart ange dina autentiseringsuppgifter för gästkontot väljer du i stället Sign-in options
  3. Välj nu Logga in på en organisation
  4. Ange domännamnet för den organisation som gav gästkontot åtkomst till Azure OpenAI-resursen.
  5. Logga nu in med dina autentiseringsuppgifter för gästkontot.

Nu bör du kunna komma åt resursen via Azure AI Studio.

Om du är inloggad på Azure Portal från Azure OpenAI-resursens översiktsfönster kan du välja Gå till Azure AI Studio för att automatiskt logga in med rätt organisationskontext.

När jag frågar GPT-4 vilken modell den körs, säger den att den kör GPT-3. Varför inträffar det här?

Azure OpenAI-modeller (inklusive GPT-4) kan inte korrekt identifiera vilken modell som körs är förväntat beteende.

Varför händer detta?

I slutändan utför modellen nästa tokenförutsägelse som svar på din fråga. Modellen har ingen inbyggd möjlighet att fråga vilken modellversion som körs för närvarande för att besvara din fråga. För att besvara den här frågan kan du alltid gå till Azure AI Studio>Management>Deployments> och läsa kolumnen modellnamn för att bekräfta vilken modell som för närvarande är associerad med ett visst distributionsnamn.

Frågorna "Vilken modell kör du?" eller "Vilken är den senaste modellen från OpenAI?" ger liknande kvalitetsresultat för att fråga modellen vad vädret kommer att bli idag. Det kan returnera rätt resultat, men enbart av en slump. På egen hand har modellen ingen annan verklig information än vad som ingick i dess tränings-/träningsdata. När det gäller GPT-4 går de underliggande träningsdata från och med augusti 2023 endast fram till september 2021. GPT-4 släpptes inte förrän i mars 2023, så om inte OpenAI släpper en ny version med uppdaterade träningsdata, eller en ny version som är finjusterad för att besvara dessa specifika frågor, är det förväntat beteende för GPT-4 att svara på att GPT-3 är den senaste modellversionen från OpenAI.

Om du vill hjälpa en GPT-baserad modell att korrekt svara på frågan "vilken modell kör du?", skulle du behöva tillhandahålla den informationen till modellen via tekniker som snabb teknik för modellens systemmeddelande, Retrieveal Augmented Generation (RAG) som är den teknik som används av Azure OpenAI på dina data där uppdaterad information matas in till systemmeddelandet vid frågetillfället, eller via finjustering där du kan finjustera specifika versioner av modellen för att besvara den frågan på ett visst sätt baserat på modellversionen.

Om du vill veta mer om hur GPT-modeller tränas och fungerar rekommenderar vi att du tittar på Andrej Karpathys samtal från build 2023 om gpt-tillståndet.

Jag frågade modellen när dess kunskap cutoff är och det gav mig ett annat svar än vad som finns på Azure OpenAI-modellens sida. Varför inträffar det här?

Det här beteendet är förväntat. Modellerna kan inte svara på frågor om sig själva. Om du vill veta när kunskapsavstängningen för modellens träningsdata är kan du läsa sidan modeller.

Jag ställde en fråga till modellen om något som hände nyligen innan kunskapsskärningen och det fick svaret fel. Varför inträffar det här?

Det här beteendet är förväntat. Först finns det ingen garanti för att varje händelse nyligen var en del av modellens träningsdata. Och även när information var en del av träningsdata, utan att använda ytterligare tekniker som Rag (Retrieval Augmented Generation) för att hjälpa till att jorda modellens svar finns det alltid en chans att ogrundade svar inträffar. Både Azure OpenAI:s användning av din datafunktion och Bing Chat använder Azure OpenAI-modeller i kombination med hämtningsförhöjd generation för att hjälpa till med ytterligare markmodellsvar.

Frekvensen som en viss information visades i träningsdata kan också påverka sannolikheten för att modellen svarar på ett visst sätt.

Att fråga den senaste GPT-4 Turbo Preview-modellen om något som nyligen ändrades som "Vem är Nya Zeelands premiärminister?", kommer sannolikt att resultera i det fabricerade svaret Jacinda Ardern. Men frågar modellen "När avgick Jacinda Ardern som premiärminister?" Tenderar att ge ett korrekt svar som visar kunskap om träningsdata som går till åtminstone januari 2023.

Så även om det är möjligt att avsöka modellen med frågor för att gissa dess kunskapsskärning för träningsdata, är modellens sida det bästa stället att kontrollera en modells kunskapsskärning.

Var kommer jag åt prisinformation för äldre modeller som inte längre är tillgängliga för nya distributioner?

Äldre prisinformation är tillgänglig via en nedladdningsbar PDF-fil. För alla andra modeller, se den officiella prissättningssidan.

Hur gör jag för att åtgärda InternalServerError – 500 – Det gick inte att skapa slutförandet eftersom modellen genererade ogiltiga Unicode-utdata?

Du kan minimera förekomsten av dessa fel genom att sänka temperaturen för dina frågor till mindre än 1 och se till att du använder en klient med logik för återförsök. Om du försöker igen resulterar det ofta i ett lyckat svar.

Vi har märkt avgifter som är associerade med API-anrop som inte kunde slutföras med statuskod 400. Varför genererar misslyckade API-anrop en avgift?

Om tjänsten utför bearbetningen debiteras du även om statuskoden inte lyckas (inte 200). Vanliga exempel på detta är ett 400-fel på grund av ett innehållsfilter eller en indatagräns eller ett 408-fel på grund av en tidsgräns. Avgifter inträffar också när en status 200 tas emot med en finish_reason av content_filter. I det här fallet hade uppmaningen inga problem, men slutförandet som genererades av modellen upptäcktes bryta mot reglerna för innehållsfiltrering, vilket resulterar i att slutförandet filtreras. Om tjänsten inte utför bearbetningen debiteras du inte. Till exempel ett 401-fel på grund av autentisering eller ett 429-fel på grund av att hastighetsgränsen överskrids.

Få åtkomst till Azure OpenAI-tjänsten

Hur gör jag för att få åtkomst till Azure OpenAI?

Ett registreringsformulär för begränsad åtkomst krävs inte för att få åtkomst till de flesta Azure OpenAI-modeller. Läs mer på sidan Begränsad åtkomst i Azure OpenAI.

Lär dig mer och var du kan ställa frågor

Var kan jag läsa om de senaste uppdateringarna av Azure OpenAI?

För månatliga uppdateringar, se vår nyheter sida.

Var kan jag få utbildning för att komma igång med att lära mig och bygga mina kunskaper kring Azure OpenAI?

Var kan jag ställa frågor och se svar på andra vanliga frågor?

Var går jag för Azure OpenAI-kundsupport?

Azure OpenAI är en del av Azure AI-tjänster. Du kan lära dig mer om alla supportalternativ för Azure AI-tjänster i support- och hjälpguiden.

Modeller och finjustering

Vilka modeller är tillgängliga?

Läs tillgänglighetsguiden för Azure OpenAI-modellen.

Var kan jag ta reda på vilken region en modell är tillgänglig i?

Läs Guiden för tillgänglighet av Azure OpenAI-modellen för att se regionens tillgänglighet.

Vilka serviceavtal (serviceavtal) finns i Azure OpenAI?

Vi erbjuder ett serviceavtal för tillgänglighet för alla resurser och ett serviceavtal för svarstid för etableringshanterade distributioner. Mer information om serviceavtalet för Azure OpenAI-tjänsten finns på sidan Servicenivåavtal (SLA) för onlinetjänster.

Hur gör jag för att aktivera finjustering? Skapa en anpassad modell är nedtonad i Azure AI Studio.

För att få åtkomst till finjusteringen behöver du Cognitive Services OpenAI-deltagare tilldelad. Även personer med behörigheter som tjänstadministratör på hög nivå skulle behöva det här kontot uttryckligen inställt för att få åtkomst till finjustering. Mer information finns i vägledningen för rollbaserad åtkomstkontroll.

Vad är skillnaden mellan en basmodell och en finjusterad modell?

En basmodell är en modell som inte har anpassats eller finjusterats för ett specifikt användningsfall. Finjusterade modeller är anpassade versioner av basmodeller där en modells vikter tränas på en unik uppsättning frågor. Med finjusterade modeller kan du uppnå bättre resultat på ett bredare antal uppgifter utan att behöva ange detaljerade exempel för kontextinlärning som en del av slutförandeprompten. Mer information finns i vår finjusteringsguide.

Vilket är det maximala antalet finjusterade modeller som jag kan skapa?

100

Varför togs min finjusterade modelldistribution bort?

Om en anpassad (finjusterad) modell distribueras i mer än 15 dagar under vilka inga slutföranden eller samtal om chattavslut görs till den, tas distributionen bort automatiskt (och inga ytterligare värdavgifter debiteras för den distributionen). Den underliggande anpassade modellen är fortfarande tillgänglig och kan distribueras om när som helst. Mer information finns i artikeln om hur du gör.

Hur gör jag för att distribuera en modell med REST-API:et?

Det finns för närvarande två olika REST-API:er som tillåter modelldistribution. För de senaste modelldistributionsfunktionerna, till exempel möjligheten att ange en modellversion under distributionen för modeller som textinbäddning-ada-002 version 2, använder du anropet Distributioner – Skapa eller uppdatera REST API.

Kan jag använda kvoten för att öka maxgränsen för token för en modell?

Nej, TPM-allokering (kvottoken per minut) är inte relaterad till maxgränsen för indatatoken för en modell. Tokenbegränsningar för modellindata definieras i modelltabellen och påverkas inte av ändringar i TPM.

GPT-4 Turbo med vision

Kan jag finjustera bildfunktionerna i GPT-4?

Nej, vi stöder inte finjustering av bildfunktionerna i GPT-4 just nu.

Kan jag använda GPT-4 för att generera avbildningar?

Nej, du kan använda dall-e-3 för att generera bilder och gpt-4-vision-preview förstå bilder.

Vilken typ av filer kan jag ladda upp?

Vi stöder för närvarande PNG (.png), JPEG (.jpeg och .jpg), WEBP (.webp) och icke-animerad GIF (.gif).

Finns det en gräns för storleken på den bild jag kan ladda upp?

Ja, vi begränsar bilduppladdningar till 20 MB per bild.

Kan jag ta bort en bild som jag har laddat upp?

Nej, vi tar bort avbildningen åt dig automatiskt när den har bearbetats av modellen.

Hur fungerar hastighetsgränserna för GPT-4 Turbo med Vision?

Vi bearbetar bilder på tokennivå, så varje bild som vi bearbetar räknas mot din TPM-gräns (token per minut). Mer information om formeln som används för att fastställa antalet token per bild finns i avsnittet Bildtoken i Översikt.

Kan GPT-4 Turbo med Vision förstå bildmetadata?

Nej, modellen tar inte emot bildmetadata.

Vad händer om min bild är oklar?

Om en bild är tvetydig eller oklar gör modellen sitt bästa för att tolka den. Resultaten kan dock vara mindre exakta. En bra tumregel är att om en genomsnittlig människa inte kan se informationen i en bild i de upplösningar som används i låg/hög res-läge kan modellen inte heller göra det.

Vilka är de kända begränsningarna för GPT-4 Turbo med Vision?

Se avsnittet begränsningar i konceptguiden GPT-4 Turbo with Vision.

Jag fortsätter att få trunkerade svar när jag använder GPT-4 Turbo vision-modeller. Varför händer detta?

GPT-4 vision-preview och GPT-4 turbo-2024-04-09 har som standard värdet max_tokens 16. Beroende på din begäran är det här värdet ofta för lågt och kan leda till trunkerade svar. Lös problemet genom att skicka ett större max_tokens värde som en del av api-begäranden om chattavslut. GPT-4o är som standard 4 096 max_tokens.

Assistenter

Lagrar du data som används i ASSISTENT-API:et?

Ja. Till skillnad från API för chattslutsättning är Azure OpenAI Assistants ett tillståndskänsligt API, vilket innebär att det behåller data. Det finns två typer av data som lagras i ASSISTENT-API:et:

  • Tillståndskänsliga entiteter: Trådar, meddelanden och körningar som skapats under assistentanvändning.
  • Filer: Laddas upp under assistentkonfigurationen eller som en del av ett meddelande.

Var lagras dessa data?

Data lagras i ett säkert, Microsoft-hanterat lagringskonto som är logiskt avgränsat.

Hur länge lagras dessa data?

Alla data som används bevaras i det här systemet om du inte uttryckligen tar bort dessa data. Använd borttagningsfunktionen med tråd-ID:t för den tråd som du vill ta bort. Om du rensar Run in the Assistants Playground tas inte trådar bort, men om du tar bort dem med hjälp av borttagningsfunktionen visas de inte på trådsidan.

Kan jag använda mitt eget datalager med assistenter?

Nej. För närvarande stöder Assistenter endast lokala filer som laddats upp till den assistenthanterade lagringen. Du kan inte använda ditt privata lagringskonto med assistenter.

Stöder assistenter kundhanterad nyckelkryptering (CMK)?

Idag har vi stöd för CMK för trådar och filer i assistenter. Se sidan Nyheter för tillgängliga regioner för den här funktionen.

Används mina data av Microsoft för träningsmodeller?

Nej. Data används inte för Microsoft som inte används för träningsmodeller. Mer information finns i dokumentationen om ansvarsfull AI.

Var lagras data geografiskt?

Azure OpenAI Assistants-slutpunkter är regionala och data lagras i samma region som slutpunkten. Mer information finns i dokumentationen om Azure-datahemvist.

Hur debiteras jag för assistenter?

  • Slutsatsdragningskostnad (indata och utdata) för den basmodell som du använder för varje assistent (till exempel gpt-4-0125). Om du har skapat flera assistenter debiteras du för basmodellen som är kopplad till varje assistent.
  • Om du har aktiverat kodtolkarverktyget. Om din assistent till exempel anropar kodtolkaren samtidigt i två olika trådar skulle detta skapa två kodtolkarsessioner, som var och en skulle debiteras. Varje session är aktiv som standard i en timme, vilket innebär att du bara betalar den här avgiften en gång om användaren fortsätter att ge instruktioner till kodtolkaren i samma tråd i upp till en timme.
  • Filsökning faktureras baserat på den vektorlagring som används.

Mer information, se prissidan.

Finns det någon ytterligare prissättning eller kvot för att använda assistenter?

Nej. Alla kvoter gäller för användning av modeller med assistenter.

Stöder assistent-API:et icke-Azure OpenAI-modeller?

Api för assistenter stöder endast Azure OpenAI-modeller.

Är assistent-API:et allmänt tillgängligt?

API:et assistenter är för närvarande i offentlig förhandsversion. Håll dig informerad om våra senaste produktuppdateringar genom att regelbundet besöka sidan Nyheter .

Vilka är några exempel eller andra resurser som jag kan använda för att lära mig mer om assistenter?

Mer information om hur du kommer igång och använder assistenter finns i artiklarna Konceptuell, snabbstart och instruktioner. Du kan också kolla in kodexempel för Azure OpenAI Assistants på GitHub.

Webbapp

Hur kan jag anpassa min publicerade webbapp?

Du kan anpassa din publicerade webbapp i Azure Portal. Källkoden för den publicerade webbappen finns på GitHub, där du hittar information om hur du ändrar appens klientdel samt instruktioner för att skapa och distribuera appen.

Kommer min webbapp att skrivas över när jag distribuerar appen igen från Azure AI Studio?

Din appkod skrivs inte över när du uppdaterar din app. Appen uppdateras för att använda Azure OpenAI-resursen, Azure AI Search-indexet (om du använder Azure OpenAI på dina data) och modellinställningarna som valts i Azure AI Studio utan att ändra utseendet eller funktionerna.

Använda dina data

Vad är Azure OpenAI för dina data?

Azure OpenAI för dina data är en funktion i Azure OpenAI Services som hjälper organisationer att generera anpassade insikter, innehåll och sökningar med hjälp av sina avsedda datakällor. Den fungerar med funktionerna i OpenAI-modellerna i Azure OpenAI för att ge mer exakta och relevanta svar på användarfrågor på naturligt språk. Azure OpenAI på dina data kan integreras med kundens befintliga program och arbetsflöden, ger insikter om viktiga prestandaindikatorer och kan interagera sömlöst med användare.

Hur får jag åtkomst till Azure OpenAI för dina data?

Alla Azure OpenAI-kunder kan använda Azure OpenAI på dina data via Azure AI Studio och Rest API.

Vilka datakällor har Azure OpenAI för ditt datastöd?

Azure OpenAI på dina data stöder inmatning från Azure AI Search, Azure Blob Storage och uppladdning av lokala filer. Du kan lära dig mer om Azure OpenAI på dina data från den konceptuella artikeln och snabbstarten.

Hur mycket kostar det att använda Azure OpenAI på dina data?

När du använder Azure OpenAI på dina data medför du kostnader när du använder Azure AI Search, Azure Blob Storage, Azure Web App Service, semantisk sökning och OpenAI-modeller. Det finns ingen extra kostnad för att använda funktionen "dina data" i Azure AI Studio.

Hur kan jag anpassa eller automatisera processen för att skapa index?

Du kan förbereda indexet själv med hjälp av ett skript som tillhandahålls på GitHub. Med det här skriptet skapas ett Azure AI Search-index med all information som behövs för att bättre använda dina data, med dina dokument uppdelade i hanterbara segment. Mer information om hur du kör den finns i README-filen med koden för dataförberedelse.

Hur uppdaterar jag mitt index?

Du kan schemalägga en automatisk indexuppdatering eller ladda upp ytterligare data till din Azure Blob Container och använda den som datakälla när du skapar ett nytt index. Det nya indexet innehåller alla data i containern.

Vilka filtyper har Azure OpenAI för ditt datastöd?

Stöds ansvarsfull AI av Azure OpenAI för dina data?

Ja, Azure OpenAI för dina data är en del av Azure OpenAI-tjänsten och fungerar med de modeller som är tillgängliga i Azure OpenAI. Funktionerna för innehållsfiltrering och övervakning av missbruk i Azure OpenAI gäller fortfarande. Mer information finns i översikten över ansvarsfulla AI-metoder för Azure OpenAI-modeller och Transparency Note för Azure OpenAI för extra vägledning om hur du använder Azure OpenAI på dina data på ett ansvarsfullt sätt.

Finns det en tokengräns för systemmeddelandet?

Ja, tokengränsen för systemmeddelandet är 400. Om systemmeddelandet är mer än 400 token ignoreras resten av token utöver de första 400. Den här begränsningen gäller endast för Azure OpenAI för din datafunktion.

Anropar Azure OpenAI på din datasupportfunktion?

Azure OpenAI för dina data stöder för närvarande inte funktionsanrop.

Måste frågespråket och datakällans språk vara samma?

Du måste skicka frågor på samma språk som dina data. Dina data kan finnas på något av de språk som stöds av Azure AI Search.

Om Semantic Search är aktiverat för min Azure AI Search-resurs, tillämpas den automatiskt på Azure OpenAI på dina data i Azure AI Studio?

När du väljer "Azure AI Search" som datakälla kan du välja att tillämpa semantisk sökning. Om du väljer "Azure Blob Container" eller "Upload files" (Ladda upp filer) som datakälla kan du skapa indexet som vanligt. Efteråt skulle du ändra data med hjälp av alternativet "Azure AI Search" för att välja samma index och tillämpa semantisk sökning. Sedan är du redo att chatta med dina data med semantisk sökning tillämpad.

Hur lägger jag till vektorbäddningar när jag indexerar mina data?

När du väljer "Azure Blob Container", "Azure AI Search" eller "Upload files" (Ladda upp filer) som datakälla kan du även välja en Ada-inbäddningsmodelldistribution som ska användas när du matar in dina data. Då skapas ett Azure AI Search-index med vektorinbäddningar.

Varför misslyckas indexskapandet när jag har lagt till en inbäddningsmodell?

Det går inte att skapa index när du lägger till inbäddningar i ditt index om hastighetsgränsen för distributionen av Ada-inbäddningsmodellen är för låg eller om du har en mycket stor uppsättning dokument. Du kan använda det här skriptet på GitHub för att skapa indexet med inbäddningar manuellt.

Kundens upphovsrättsåtagande

Hur gör jag för att få täckning under kundens upphovsrättsåtagande?

Kundens upphovsrättsåtagande är en bestämmelse som ska ingå i Microsofts produktvillkor den 1 december 2023 som beskriver Microsofts skyldighet att försvara kunder mot vissa immateriella anspråk från tredje part som rör utdatainnehåll. Om anspråkets ämne är Utdatainnehåll som genererats från Azure OpenAI-tjänsten (eller någon annan täckt produkt som gör det möjligt för kunder att konfigurera säkerhetssystemen) måste kunden ha implementerat alla åtgärder som krävs av Dokumentationen för Azure OpenAI Service i erbjudandet som levererade utdatainnehållet. De åtgärder som krävs dokumenteras här och uppdateras kontinuerligt. För nya tjänster, funktioner, modeller eller användningsfall publiceras nya CCC-krav och börjar gälla vid eller efter lanseringen av en sådan tjänst, funktion, modell eller användningsfall. Annars har kunderna sex månader på sig från publiceringstillfället att implementera nya åtgärder för att upprätthålla täckningen enligt CCC. Om en kund lämnar in ett anspråk måste kunden visa att de relevanta kraven uppfylls. Dessa åtgärder krävs för täckta produkter som gör det möjligt för kunder att konfigurera säkerhetssystemen, inklusive Azure OpenAI Service. de påverkar inte täckningen för kunder som använder andra täckta produkter.