Ha ebben a dokumentumban nem talál választ a kérdéseire, és segítségre van szüksége, tekintse meg az Azure AI-szolgáltatások támogatási beállításainak útmutatóját. Az Azure OpenAI az Azure AI-szolgáltatások része.
Az Azure OpenAI nem használja az ügyféladatokat a modellek újratanítására. További információért lásd az Azure OpenAI-adatok, adatvédelem és biztonsági útmutató témakört.
Támogatja az Azure OpenAI az egyéni API-fejléceket? További egyéni fejléceket fűzünk az API-kérésekhez, és HTTP 431-es hibahibák jelennek meg.
A jelenlegi API-k legfeljebb 10 egyéni fejlécet engedélyeznek, amelyeket a rendszer a folyamaton keresztül ad vissza. Észrevettük, hogy egyes ügyfelek túllépik ezt a fejlécszámot, és HTTP 431-et eredményeznek. Erre a hibára nincs más megoldás, mint a fejlécmennyiség csökkentése. A jövőbeni API-verziókban már nem fogunk átmenni az egyéni fejléceken. Azt javasoljuk, hogy az ügyfelek ne függenek az egyéni fejlécek a jövőbeli rendszerarchitektúrákban.
Az Azure OpenAI-t az OpenAI Python-kódtár legújabb kiadása (version>=1.0) támogatja. Fontos azonban megjegyezni, hogy a kódbázis migrálása openai migrate
nem támogatott, és nem működik az Azure OpenAI-t megcélozó kóddal.
A GPT-4 Turbo Preview az gpt-4
(1106-előzetes verziójú) modell. A modell üzembe helyezéséhez válassza a gpt-4 modellt az Üzembe helyezések csoportban. Modellverzió esetén válassza az 1106-os előzetes verziót. A modell elérhető régióinak ellenőrzéséhez tekintse meg a modellek oldalát.
Az Azure OpenAI a legújabb GPT-4 modelleket támogatja. A GPT-4 és a GPT-4-32K protokollt is támogatja.
Az Azure OpenAI szolgáltatás fejlett nyelvi AI-t biztosít az ügyfeleknek az OpenAI GPT-3, Codex és DALL-E modellekkel, az Azure biztonsági és vállalati ígéretével. Az Azure OpenAI kódfejezi az API-kat az OpenAI-val, biztosítva a kompatibilitást és az egyikről a másikra való zökkenőmentes átmenetet.
Az Azure OpenAI-val az ügyfelek a Microsoft Azure biztonsági képességeit kapják, miközben ugyanazokat a modelleket futtatják, mint az OpenAI.
Igen, az Azure AI-szolgáltatások részeként az Azure OpenAI támogatja a VNET-eket és a privát végpontokat. További információért tekintse meg az Azure AI-szolgáltatások virtuális hálózatkezelési útmutatóját.
Nem, a GPT-4-et az OpenAI multimodálisnak tervezte, de jelenleg csak a szöveges bemenet és a kimenet támogatott.
Korábban az új használati esetek hozzáadásának folyamata miatt az ügyfeleknek újra kellett alkalmazniuk a szolgáltatást. Most egy új folyamatot adunk ki, amely lehetővé teszi új használati esetek gyors hozzáadását a szolgáltatás használatához. Ez a folyamat az Azure AI-szolgáltatásokban létrehozott korlátozott hozzáférésű folyamatot követi. A meglévő ügyfelek itt bármilyen új használati esetet tanúsíthatnak. Vegye figyelembe, hogy erre akkor van szükség, ha olyan új használati esethez szeretné használni a szolgáltatást, amelyre eredetileg nem jelentkezett.
Beágyazásokat próbálok használni, és a következő hibaüzenetet kaptam: "InvalidRequestError: Túl sok bemenet. A bemenetek maximális száma 16." Hogyan oldhatom meg ezt a problémát?
Ez a hiba általában akkor fordul elő, ha egy kötegnyi szöveget próbál meg tömbként beágyazni egyetlen API-kérelembe. Az Azure OpenAI jelenleg csak a 2. verziójú modellhez több bemenettel text-embedding-ada-002
rendelkező beágyazási tömböket támogat. Ez a modellverzió egy API-kérésenként legfeljebb 16 bemenetből álló tömböt támogat. A tömb legfeljebb 8191 token hosszúságú lehet a text-embedding-ada-002 (2. verzió) modell használatakor.
Hol olvashatok az Azure OpenAI használatának jobb módjairól a kívánt válaszok lekéréséhez a szolgáltatásból?
Tekintse meg a gyors tervezésről való bevezetést. Bár ezek a modellek hatékonyak, viselkedésük is nagyon érzékeny a felhasználótól kapott kérésekre. Emiatt fontos, fejlesztendő képesség a bemenő szöveges üzenet elkészítése. A bevezetés befejezése után tekintse meg a rendszerüzenetekre vonatkozó cikkünket.
A vendégfiókom hozzáféréssel rendelkezik egy Azure OpenAI-erőforráshoz, de nem tudom elérni az erőforrást az Azure AI Studióban. Hogyan engedélyezi a hozzáférést?
Ez a viselkedés az Azure AI Studio alapértelmezett bejelentkezési felületének használatakor várható.
Az Azure AI Studio elérése olyan vendégfiókból, amely hozzáférést kapott egy Azure OpenAI-erőforráshoz:
- Nyisson meg egy privát böngésző munkamenetet, majd lépjen a következőre https://ai.azure.com: .
- A vendégfiók hitelesítő adatainak azonnali megadása helyett válassza a
Sign-in options
- Most válassza a Bejelentkezés egy szervezetbe lehetőséget
- Adja meg annak a szervezetnek a tartománynevét, amely hozzáférést adott a vendégfióknak az Azure OpenAI-erőforráshoz.
- Most jelentkezzen be a vendégfiók hitelesítő adataival.
Most már az Azure AI Studióban is hozzáférhet az erőforráshoz.
Ha az Azure OpenAI-erőforrás Áttekintés paneljén jelentkezett be az Azure Portalra, az Azure AI Studio megnyitása lehetőséget választva automatikusan bejelentkezhet a megfelelő szervezeti környezettel.
Amikor megkérdezem a GPT-4-et, hogy melyik modell fut, azt mondja, hogy a GPT-3-at futtatja. Miért történik ez?
Az Azure OpenAI-modellek (beleértve a GPT-4-et is) nem tudják megfelelően azonosítani, hogy melyik modell fut, az elvárt viselkedés.
Miért történik ez?
Végső soron a modell a következő token-előrejelzést hajtja végre a kérdésére válaszul. A modell nem rendelkezik natív képességgel arra, hogy lekérdezhesse a jelenleg futtatott modellverziót a kérdés megválaszolásához. A kérdés megválaszolásához bármikor megnyithatja az Azure AI Studio>Management>üzembe helyezését>, és a modellnév oszlopban ellenőrizheti, hogy melyik modell van jelenleg társítva egy adott üzembe helyezési névvel.
A "Melyik modellt futtatja?" vagy a "Mi a legújabb modell az OpenAI-ból?" kérdések hasonló minőségi eredményeket adnak, hogy megkérdezik a modelltől, milyen lesz ma az időjárás. Lehet, hogy a helyes eredményt adja vissza, de csak véletlenül. A modell önmagában nem rendelkezik olyan valós információkkal, mint ami a betanítási/betanítási adatok részét képezte. A GPT-4 esetében 2023 augusztusától a mögöttes betanítási adatok csak 2021 szeptemberére nyúlnak vissza. A GPT-4 csak 2023 márciusában jelent meg, ezért ha az OpenAI nem ad ki egy új verziót frissített betanítási adatokkal, vagy egy olyan új verziót, amely finomhangolva van az adott kérdések megválaszolásához, a GPT-4 várhatóan reagál arra, hogy a GPT-3 az OpenAI legújabb modellkiadása.
Ha segíteni szeretne egy GPT-alapú modellnek, hogy pontosan válaszoljon a "melyik modellt futtatja?" kérdésre, ezt az információt olyan technikákkal kell megadnia a modellnek, mint például a modell rendszerüzenetének gyors tervezése, az Azure OpenAI által az adatokon használt módszer, ahol a rendszerüzenetbe lekérdezéskor a rendszerüzenetbe kerülnek a legfrissebb információk. vagy finomhangolással, ahol finomhangolhatja a modell egyes verzióit, hogy a modellverzió alapján bizonyos módon válaszoljon a kérdésre.
A GPT-modellek betanítása és működése érdekében javasoljuk, hogy nézze meg Andrej Karpathy előadását a 2023-es buildből a GPT állapotáról.
Megkérdeztem a modellt, hogy mikor van a tudása, és más választ adott nekem, mint ami az Azure OpenAI-modell oldalán található. Miért történik ez?
Ez az elvárt működés. A modellek nem tudják megválaszolni a saját magukkal kapcsolatos kérdéseket. Ha tudni szeretné, hogy mikor van a modell betanítási adatainak ismeretkizártása, tekintse meg a modellek oldalát.
Megkérdeztem a modell egy kérdést, hogy valami történt a közelmúltban, mielőtt a tudás leépítése, és ez kapta a választ rossz. Miért történik ez?
Ez az elvárt működés. Először sincs garancia arra, hogy minden legutóbbi esemény a modell betanítási adatainak része volt. És még akkor is, ha az információk a betanítási adatok részét képezték, anélkül, hogy további technikákat használna, például a retrieveal augmented generation (RAG) a modell válaszainak megalapozásához, mindig fennáll az esélye annak, hogy a válaszok nem jelennek meg. Az Azure OpenAI az adatfunkciót használja, a Bing Chat pedig az Azure OpenAI-modelleket és a kibővített lekéréses generációt használja a modell további válaszainak további megalapozásához.
Az a gyakoriság, hogy egy adott információ megjelent a betanítási adatokban, szintén befolyásolhatja annak valószínűségét, hogy a modell bizonyos módon válaszol.
Megkérdezi a legújabb GPT-4 Turbo Preview modell valami, ami megváltozott a közelmúltban, mint a "Ki a miniszterelnök Új-Zéland?", valószínűleg eredményezte a kitalált választ Jacinda Ardern
. Azonban a modell megkérdezése: "Mikor mondott Jacinda Ardern
le miniszterelnökként?" Általában pontos választ ad, amely bemutatja, hogy a betanítási adatok ismerete legalább 2023 januárjában fog elmenni.
Így bár a modell megvizsgálható kérdésekkel, hogy kitalálja a betanítási adatok ismeretének leépítését, a modell oldala a legjobb hely a modell tudáscsökkentésének ellenőrzéséhez.
Hol érhetem el az örökölt modellek díjszabási információit, amelyek már nem érhetők el az új üzembe helyezésekhez?
Az örökölt díjszabási információk letölthető PDF-fájlon keresztül érhetők el. Az összes többi modell esetében tekintse meg a hivatalos díjszabási oldalt.
Hogyan internalServerError javítása – 500 – Nem sikerült létrehozni a befejezést, mivel a modell érvénytelen Unicode-kimenetet hozott létre?
A hibák előfordulását minimalizálhatja úgy, hogy a kérések hőmérsékletét 1-nél kisebbre csökkenti, és biztosítja, hogy újrapróbálkozással rendelkező ügyfelet használjon. A kérés újbóli megismétlése gyakran sikeres választ eredményez.
Észrevettük, hogy az API-hívásokhoz kapcsolódó díjak nem teljesek a 400-as állapotkóddal. Miért generálnak díjat a sikertelen API-hívások?
Ha a szolgáltatás feldolgozást végez, akkor is díjat számítunk fel, ha az állapotkód nem sikeres (nem 200). Ilyenek például a tartalomszűrő vagy a bemeneti korlát miatti 400-ás hiba, illetve az időtúllépés miatti 408-ás hiba. A díjak akkor is felmerülnek, ha a status 200
rendszer a következővel finish_reason
content_filter
érkezik: Ebben az esetben a kérés nem tartalmazott problémákat, de a modell által generált befejezést a rendszer úgy észlelte, hogy megsérti a tartalomszűrési szabályokat, ami a befejezés szűrését eredményezi.
Ha a szolgáltatás nem végez feldolgozást, nem számítunk fel díjat. Például egy 401-et a hitelesítés miatt, vagy egy 429-et a sebességkorlát túllépése miatt.
A legtöbb Azure OpenAI-modell eléréséhez nincs szükség korlátozott hozzáférésű regisztrációs űrlapra. További információ az Azure OpenAI Korlátozott hozzáférésű lapon.
Hol szerezhetek be képzést a tanulás megkezdéséhez és a készségeim fejlesztéséhez az Azure OpenAI-ban?
Az Azure OpenAI az Azure AI-szolgáltatások része. Az Azure AI-szolgáltatások összes támogatási lehetőségéről a támogatási és súgóbeállítások útmutatójában tájékozódhat.
Tekintse meg az Azure OpenAI-modell rendelkezésre állási útmutatójában.
A régióban való elérhetőségről az Azure OpenAI-modellek rendelkezésre állási útmutatójából tájékozódhat.
Rendelkezésre állási SLA-t kínálunk minden erőforráshoz, és késési SLA-t a kiépített felügyelt üzemelő példányokhoz. Az Azure OpenAI szolgáltatás SLA-jával kapcsolatos további információkért tekintse meg az online szolgáltatásokhoz készült szolgáltatásiszint-szerződések (SLA) oldalát.
Hogyan engedélyezi a finomhangolást? Az egyéni modell létrehozása szürkítve lesz az Azure AI Studióban.
A finomhangolás sikeres eléréséhez a Cognitive Services OpenAI-közreműködője szükséges. Még a magas szintű szolgáltatásadminisztrátori engedélyekkel rendelkezőknek is explicit módon kell beállítaniuk ezt a fiókot a finomhangolás eléréséhez. További információkért tekintse át a szerepköralapú hozzáférés-vezérlési útmutatót.
Az alapmodell olyan modell, amely nem lett testre szabva vagy finomhangolva egy adott használati esethez. A finomhangolt modellek az alapmodellek testreszabott verziói, amelyekben a modell súlyainak betanítása egyedi kérések halmazán alapul. A finomhangolt modellek lehetővé teszik, hogy jobb eredményeket érjen el több tevékenység esetében anélkül, hogy részletes példákat kellene megadnia a környezeten belüli tanuláshoz a befejezési kérés részeként. További információért tekintse át a finomhangolási útmutatót.
100
Ha egy testre szabott (finomhangolt) modell több mint 15 napig van üzembe helyezve, amely alatt nem történik befejezési vagy csevegés-befejezési hívás, a rendszer automatikusan törli az üzembe helyezést (és az üzembe helyezésért nem merülnek fel további üzemeltetési költségek). A mögöttes testreszabott modell továbbra is elérhető marad, és bármikor újra üzembe helyezheti. További információért tekintse meg az útmutatót.
Jelenleg két különböző REST API van, amelyek lehetővé teszik a modell üzembe helyezését. A legújabb modelltelepítési funkciókhoz, például a modellverzió megadásához az üzembe helyezés során olyan modellek esetében, mint a text-embedding-ada-002 2. verziója, használja a Központi telepítések – REST API-hívás létrehozása vagy frissítése lehetőséget.
Nem, a kvóta jogkivonatok percenkénti (TPM) kiosztása nem kapcsolódik a modell maximális bemeneti jogkivonat-korlátjaihoz. A modell bemeneti jogkivonatának korlátai a modelltáblában vannak meghatározva, és nem érintik a TPM módosításai.
Nem, jelenleg nem támogatjuk a GPT-4 képi képességeinek finomhangolását.
Nem, a képek létrehozásához és gpt-4-vision-preview
a képek megértéséhez használhatódall-e-3
.
Jelenleg a PNG (.png), a JPEG (.jpeg és .jpg), a WEBP (.webp) és a nem animált GIF (.gif) támogatottak.
Igen, a képfeltöltéseket képenként 20 MB-ra korlátozzuk.
Nem, a modell feldolgozása után automatikusan töröljük a rendszerképet.
A rendszerképeket a jogkivonat szintjén dolgozzuk fel, így a feldolgozott képek száma a tokenek percenkénti (TPM) korlátja felé tart. A képenkénti jogkivonatok számának meghatározásához használt képlet részleteiért tekintse meg az Áttekintés Kép jogkivonatok szakaszát.
Nem, a modell nem kapja meg a kép metaadatait.
Ha egy kép nem egyértelmű vagy nem egyértelmű, a modell a lehető legjobban értelmezi azt. Előfordulhat azonban, hogy az eredmények kevésbé pontosak. Jó hüvelykujjszabály, hogy ha egy átlagos ember nem látja az adatokat egy képen az alacsony/magas res módban használt felbontásokon, akkor a modell sem.
Tekintse meg a GPT-4 Turbo with Vision alapfogalmakra vonatkozó útmutatójának korlátait ismertető szakaszt.
Folyamatosan csonkolt válaszokat kapok, amikor GPT-4 Turbo vision modelleket használok. Miért történik ez?
Alapértelmezés szerint a GPT-4 vision-preview
és a GPT-4 turbo-2024-04-09
max_tokens
értéke 16. A kéréstől függően ez az érték gyakran túl alacsony, és csonkolt válaszokhoz vezethet. A probléma megoldásához adjon át egy nagyobb max_tokens
értéket a csevegés befejezésének API-kérései részeként. A GPT-4o alapértelmezés szerint 4096 max_tokens.
Igen. A Csevegés befejezése API-val ellentétben az Azure OpenAI Assistants egy állapotalapú API, ami azt jelenti, hogy megőrzi az adatokat. Az Assistants API-ban kétféle adat található:
- Állapotalapú entitások: A Segédek használata során létrehozott szálak, üzenetek és futtatások.
- Fájlok: Feltöltés az Asszisztensek beállítása során vagy egy üzenet részeként.
Az adatok tárolása biztonságos, Microsoft által felügyelt tárfiókban történik, amely logikailag elválasztva van egymástól.
Az összes használt adat megmarad ebben a rendszerben, kivéve, ha ön kifejezetten törli ezeket az adatokat. Használja a törlési függvényt a törölni kívánt szál szálazonosítójával. A Futtatás törlése az Asszisztensek játszótéren nem törli a szálakat, a törlési funkcióval történő törlés azonban nem fogja listázni őket a száloldalon.
Szám Az Asszisztensek jelenleg csak az Asszisztensek által felügyelt tárolóba feltöltött helyi fájlokat támogatják. A privát tárfiókot nem használhatja az Assistants szolgáltatással.
Ma támogatjuk a CMK for Threads and Files in Assistants szolgáltatást. Tekintse meg a funkcióhoz elérhető régiók újdonságainak lapját .
Szám A Microsoft nem használ betanítási modellekhez nem használt adatokat. További információért tekintse meg a Felelős AI dokumentációját .
Az Azure OpenAI Assistants-végpontok regionálisak, és az adatok a végpontkal azonos régióban vannak tárolva. További információkért tekintse meg az Azure-beli adattárolás dokumentációját.
- Az egyes asszisztensekhez használt alapmodell (például gpt-4-0125) következtetési költsége (bemenete és kimenete). Ha több asszisztenst hozott létre, az egyes asszisztensekhez csatolt alapmodellért díjat számítunk fel.
- Ha engedélyezte a Kódértelmező eszközt. Ha például az asszisztens két különböző szálon egyszerre hívja meg a Kódértelmeztetőt, ez két kódértelmeztető munkamenetet hozna létre, amelyek mindegyike díjat számít fel. Minden munkamenet alapértelmezés szerint egy órán át aktív, ami azt jelenti, hogy ezt a díjat csak egyszer fizetné meg, ha a felhasználó egy órán át folyamatosan utasításokat ad a Kódértelmezési szolgáltatásnak ugyanabban a szálban.
- A fájlkeresés számlázása a használt vektortároló alapján történik.
További tájékoztatás a díjszabási oldalon olvasható.
Szám Minden kvóta az Asszisztensekkel rendelkező modellek használatára vonatkozik.
Az Assistants API csak az Azure OpenAI-modelleket támogatja.
A Assistants API jelenleg nyilvános előzetes verzióban érhető el. Folyamatosan értesül a legújabb termékfrissítéseinkről, ha rendszeresen felkeresi a Újdonságok oldalt.
Az Asszisztensek használatbavételével és használatával kapcsolatos tudnivalókért tekintse meg a fogalmi, rövid útmutatót és útmutatókat. Az Azure OpenAI Assistants-kódmintákat a GitHubon is megtekintheti.
A közzétett webalkalmazást testre szabhatja az Azure Portalon. A közzétett webalkalmazás forráskódja elérhető a GitHubon, ahol információkat talál az alkalmazás előtérének módosításáról, valamint az alkalmazás létrehozásának és üzembe helyezésének utasításairól.
Az alkalmazás frissítésekor az alkalmazás kódja nem lesz felülírva. Az alkalmazás frissítve lesz az Azure OpenAI-erőforrás, az Azure AI Search index (ha az Azure OpenAI-t használja az adatain) és az Azure AI Studióban kiválasztott modellbeállítások a megjelenés és a funkciók módosítása nélkül.
Az Azure OpenAI az adatokon az Azure OpenAI-szolgáltatások egyik funkciója, amellyel a szervezetek testre szabott elemzéseket, tartalmakat és kereséseket hozhatnak létre a kijelölt adatforrások használatával. Az Azure OpenAI OpenAI-modelljeinek képességeivel együttműködve pontosabb és relevánsabb válaszokat biztosít a felhasználói lekérdezésekre természetes nyelven. Az adatokon futó Azure OpenAI integrálható az ügyfél meglévő alkalmazásaival és munkafolyamataival, betekintést nyújt a fő teljesítménymutatókba, és zökkenőmentesen kezelheti a felhasználókat.
Minden Azure OpenAI-ügyfél használhatja az Azure OpenAI-t az adatain az Azure AI Studióval és a Rest API-val.
Az adatokon futó Azure OpenAI támogatja az Azure AI Searchből, az Azure Blob Storage-ból való betöltést és a helyi fájlok feltöltését. Az Azure OpenAI-ról az elméleti cikkből és a rövid útmutatóból tudhat meg többet az adatairól.
Ha az Azure OpenAI-t használja az adatain, költségekkel jár az Azure AI Search, az Azure Blob Storage, az Azure Web App Service, a szemantikai keresés és az OpenAI-modellek használata. Az Azure AI Studióban az "adatok" funkció használata nem jár további költségekkel.
Az indexet a GitHubon megadott szkripttel készítheti elő. Ezzel a szkripttel létrehoz egy Azure AI Search-indexet az adatok jobb használatához szükséges összes információval, a dokumentumokat kezelhető adattömbökre bontva. A futtatás részleteiért tekintse meg a README-fájlt az adatelőkészítési kóddal.
Ütemezhet automatikus indexfrissítést, vagy további adatokat tölthet fel az Azure Blob-tárolóba, és adatforrásként használhatja az új index létrehozásakor. Az új index a tárolóban lévő összes adatot tartalmazza.
A támogatott fájltípusokról további információt az Adatok használata című témakörben talál.
Igen, az adatokon található Azure OpenAI az Azure OpenAI szolgáltatás része, és az Azure OpenAI-ban elérhető modellekkel működik együtt. Az Azure OpenAI tartalomszűrési és visszaélésfigyelési funkciói továbbra is érvényesek. További információkért tekintse meg az Azure OpenAI-modellek felelős AI-eljárásainak áttekintését, valamint az Azure OpenAI átláthatósági megjegyzését az Azure OpenAI felelősségteljes használatával kapcsolatban.
Igen, a rendszerüzenet jogkivonat-korlátja 400. Ha a rendszerüzenet több mint 400 jogkivonatot tartalmaz, a rendszer figyelmen kívül hagyja az első 400-nál több jogkivonatot. Ez a korlátozás csak az Azure OpenAI-ra vonatkozik az adatfunkción.
Az adatokon futó Azure OpenAI jelenleg nem támogatja a függvényhívást.
A lekérdezéseket az adatok azonos nyelvén kell elküldenie. Az adatok az Azure AI Search által támogatott nyelvek bármelyikében lehetnek.
Ha a Szemantic Search engedélyezve van az Azure AI Search-erőforráshoz, a rendszer automatikusan alkalmazza az Azure OpenAI-ra az Azure AI Studióban tárolt adataira?
Amikor adatforrásként az "Azure AI Search" lehetőséget választja, választhatja a szemantikai keresés alkalmazását. Ha adatforrásként az "Azure Blob Container" vagy a "Upload Files" (Fájlok feltöltése) lehetőséget választja, a szokásos módon létrehozhatja az indexet. Ezt követően az "Azure AI Search" beállítással újra betölti az adatokat, hogy ugyanazt az indexet jelölje ki, és alkalmazza a Szemantikai keresést. Ezután készen áll arra, hogy a szemantikai keresés alkalmazásával csevegjen az adataival.
Amikor adatforrásként az "Azure Blob Container", az "Azure AI Search" vagy a "Upload files" (Fájlok feltöltése) lehetőséget választja, kiválaszthatja az adatok betöltésekor használni kívánt Ada-beágyazási modell üzembe helyezését is. Ez létrehoz egy Azure AI Search-indexet vektoros beágyazásokkal.
Az index létrehozása sikertelen lehet, ha beágyazásokat ad hozzá az indexhez, ha az Ada beágyazási modell üzembe helyezésének sebességkorlátja túl alacsony, vagy ha nagyon nagy dokumentumkészlettel rendelkezik. A GitHubon megadott szkripttel manuálisan hozhatja létre az indexet beágyazással.
Az ügyféloldali szerzői jogi kötelezettségvállalás a Microsoft termékfeltételeinek 2023. december 1-jét tartalmazó rendelkezése, amely leírja a Microsoft azon kötelezettségét, hogy megvédje az ügyfeleket a kimeneti tartalommal kapcsolatos bizonyos külső szellemi tulajdonjogokkal szemben. Ha a jogcím tárgya az Azure OpenAI szolgáltatásból létrehozott kimeneti tartalom (vagy bármely más olyan érintett termék, amely lehetővé teszi az ügyfelek számára a biztonsági rendszerek konfigurálását), akkor a lefedettség fogadásához az ügyfélnek végre kell hajtania az Azure OpenAI szolgáltatás dokumentációja által megkövetelt összes kockázatcsökkentést a kimeneti tartalmat tartalmazó ajánlatban. A szükséges kockázatcsökkentéseket itt dokumentáljuk, és folyamatosan frissítjük. Új szolgáltatások, szolgáltatások, modellek vagy használati esetek esetén új CCC-követelmények lesznek közzétéve, és az ilyen szolgáltatás, szolgáltatás, modell vagy használati eset elindításakor vagy azt követően lépnek érvénybe. Ellenkező esetben az ügyfeleknek a közzététel időpontjától számított hat hónapjuk lesz arra, hogy új kockázatcsökkentéseket hajtsanak végre a CCC hatálya alá tartozó lefedettség fenntartása érdekében. Ha egy ügyfél igényt nyújt be, az ügyfélnek igazolnia kell a vonatkozó követelményeknek való megfelelést. Ezekre a kockázatcsökkentésekre olyan érintett termékek esetében van szükség, amelyek lehetővé teszik az ügyfelek számára a biztonsági rendszerek konfigurálását, beleértve az Azure OpenAI szolgáltatást is; nem befolyásolják a más érintett termékeket használó ügyfelek lefedettségét.