Ha ebben a dokumentumban nem talál választ a kérdéseire, és segítségre van szüksége, tekintse meg az Azure AI-szolgáltatások támogatási beállításainak útmutatóját. Az Azure OpenAI az Azure AI-szolgáltatások része.
Az Azure OpenAI nem használja az ügyféladatokat a modellek újratanítására. További információért lásd az Azure OpenAI-adatok, adatvédelem és biztonsági útmutató témakört.
Támogatja az Azure OpenAI az egyéni API-fejléceket? További egyéni fejléceket fűzünk az API-kérésekhez, és HTTP 431-es hibahibák jelennek meg.
A jelenlegi API-k legfeljebb 10 egyéni fejlécet engedélyeznek, amelyeket a rendszer a folyamaton keresztül ad vissza. Észrevettük, hogy egyes ügyfelek túllépik ezt a fejlécszámot, és HTTP 431-et eredményeznek. Erre a hibára nincs más megoldás, mint a fejlécmennyiség csökkentése. A jövőbeni API-verziókban már nem fogunk átmenni az egyéni fejléceken. Azt javasoljuk, hogy az ügyfelek ne függenek az egyéni fejlécek a jövőbeli rendszerarchitektúrákban.
Az Azure OpenAI-t az OpenAI Python-kódtár legújabb kiadása (version>=1.0) támogatja. Fontos azonban megjegyezni, hogy a kódbázis migrálása openai migrate
nem támogatott, és nem működik az Azure OpenAI-t megcélozó kóddal.
A GPT-4 Turbo Preview az gpt-4
(1106-előzetes verziójú) modell. A modell üzembe helyezéséhez válassza a gpt-4 modellt az Üzembe helyezések csoportban. Modellverzió esetén válassza az 1106-os előzetes verziót. A modell elérhető régióinak ellenőrzéséhez tekintse meg a modellek oldalát.
Az Azure OpenAI a legújabb GPT-4 modelleket támogatja. A GPT-4 és a GPT-4-32K protokollt is támogatja.
Az Azure OpenAI szolgáltatás fejlett nyelvi AI-t biztosít az ügyfeleknek az OpenAI GPT-3, Codex és DALL-E modellekkel, az Azure biztonsági és vállalati ígéretével. Az Azure OpenAI kódfejezi az API-kat az OpenAI-val, biztosítva a kompatibilitást és az egyikről a másikra való zökkenőmentes átmenetet.
Az Azure OpenAI-val az ügyfelek a Microsoft Azure biztonsági képességeit kapják, miközben ugyanazokat a modelleket futtatják, mint az OpenAI.
Igen, az Azure AI-szolgáltatások részeként az Azure OpenAI támogatja a VNET-eket és a privát végpontokat. További információért tekintse meg az Azure AI-szolgáltatások virtuális hálózatkezelési útmutatóját.
Nem, a GPT-4-et az OpenAI multimodálisnak tervezte, de jelenleg csak a szöveges bemenet és a kimenet támogatott.
Korábban az új használati esetek hozzáadásának folyamata miatt az ügyfeleknek újra kellett alkalmazniuk a szolgáltatást. Most egy új folyamatot adunk ki, amely lehetővé teszi új használati esetek gyors hozzáadását a szolgáltatás használatához. Ez a folyamat az Azure AI-szolgáltatásokban létrehozott korlátozott hozzáférésű folyamatot követi. A meglévő ügyfelek itt bármilyen új használati esetet tanúsíthatnak. Vegye figyelembe, hogy erre akkor van szükség, ha olyan új használati esethez szeretné használni a szolgáltatást, amelyre eredetileg nem jelentkezett.
Beágyazásokat próbálok használni, és a következő hibaüzenetet kaptam: "InvalidRequestError: Túl sok bemenet. A bemenetek maximális száma 16." Hogyan oldhatom meg ezt a problémát?
Ez a hiba általában akkor fordul elő, ha egy kötegnyi szöveget próbál meg tömbként beágyazni egyetlen API-kérelembe. Az Azure OpenAI jelenleg csak a 2. verziójú modellhez több bemenettel text-embedding-ada-002
rendelkező beágyazási tömböket támogat. Ez a modellverzió egy API-kérésenként legfeljebb 16 bemenetből álló tömböt támogat. A tömb legfeljebb 8191 token hosszúságú lehet a text-embedding-ada-002 (2. verzió) modell használatakor.
Hol olvashatok az Azure OpenAI használatának jobb módjairól a kívánt válaszok lekéréséhez a szolgáltatásból?
Tekintse meg a gyors tervezésről való bevezetést. Bár ezek a modellek hatékonyak, viselkedésük is nagyon érzékeny a felhasználótól kapott kérésekre. Emiatt fontos, fejlesztendő képesség a bemenő szöveges üzenet elkészítése. A bevezetés befejezése után tekintse meg a rendszerüzenetekre vonatkozó cikkünket.
Amikor megkérdezem a GPT-4-et, hogy melyik modell fut, azt mondja, hogy a GPT-3-at futtatja. Miért történik ez?
Az Azure OpenAI-modellek (beleértve a GPT-4-et is) nem tudják megfelelően azonosítani, hogy melyik modell fut, az elvárt viselkedés.
Miért történik ez?
Végső soron a modell a következő token-előrejelzést hajtja végre a kérdésére válaszul. A modell nem rendelkezik natív képességgel arra, hogy lekérdezhesse a jelenleg futtatott modellverziót a kérdés megválaszolásához. A kérdés megválaszolásához bármikor megnyithatja az Azure AI Foundry>Management>üzembe helyezését>, és a modellnév oszlopban ellenőrizheti, hogy melyik modell van jelenleg társítva egy adott üzembehelyezési névvel.
A "Melyik modellt futtatja?" vagy a "Mi a legújabb modell az OpenAI-ból?" kérdések hasonló minőségi eredményeket adnak, hogy megkérdezik a modelltől, milyen lesz ma az időjárás. Lehet, hogy a helyes eredményt adja vissza, de csak véletlenül. A modell önmagában nem rendelkezik olyan valós információkkal, mint ami a betanítási/betanítási adatok részét képezte. A GPT-4 esetében 2023 augusztusától a mögöttes betanítási adatok csak 2021 szeptemberére nyúlnak vissza. A GPT-4 csak 2023 márciusában jelent meg, ezért ha az OpenAI nem ad ki egy új verziót frissített betanítási adatokkal, vagy egy olyan új verziót, amely finomhangolva van az adott kérdések megválaszolásához, a GPT-4 várhatóan reagál arra, hogy a GPT-3 az OpenAI legújabb modellkiadása.
Ha segíteni szeretne egy GPT-alapú modellnek, hogy pontosan válaszoljon a "melyik modellt futtatja?" kérdésre, ezt az információt olyan technikákkal kell megadnia a modellnek, mint például a modell rendszerüzenetének gyors tervezése, az Azure OpenAI által az adatokon használt módszer, ahol a rendszerüzenetbe lekérdezéskor a rendszerüzenetbe kerülnek a legfrissebb információk. vagy finomhangolással, ahol finomhangolhatja a modell egyes verzióit, hogy a modellverzió alapján bizonyos módon válaszoljon a kérdésre.
A GPT-modellek betanítása és működése érdekében javasoljuk, hogy nézze meg Andrej Karpathy előadását a 2023-es buildből a GPT állapotáról.
Győződjön meg arról, hogy a kérés világos és konkrét a nyelvi követelményekre vonatkozóan. Ha a probléma továbbra is fennáll, fontolja meg további környezet hozzáadását vagy a kérés újraírását a nyelvi utasítás megerősítéséhez.
Példakérések:
- "Kérjük, válaszoljon angolul és csak angolul."
- "Válaszoljon a következő kérdésre angolul: Milyen az időjárás Fresnóban?"
Megkérdeztem a modellt, hogy mikor van a tudása, és más választ adott nekem, mint ami az Azure OpenAI-modell oldalán található. Miért történik ez?
Ez az elvárt működés. A modellek nem tudják megválaszolni a saját magukkal kapcsolatos kérdéseket. Ha tudni szeretné, hogy mikor van a modell betanítási adatainak ismeretkizártása, tekintse meg a modellek oldalát.
Megkérdeztem a modell egy kérdést, hogy valami történt a közelmúltban, mielőtt a tudás leépítése, és ez kapta a választ rossz. Miért történik ez?
Ez az elvárt működés. Először sincs garancia arra, hogy minden legutóbbi esemény a modell betanítási adatainak része volt. És még akkor is, ha az információk a betanítási adatok részét képezték, anélkül, hogy további technikákat használna, például a retrieveal augmented generation (RAG) a modell válaszainak megalapozásához, mindig fennáll az esélye annak, hogy a válaszok nem jelennek meg. Az Azure OpenAI az adatfunkciót használja, a Bing Chat pedig az Azure OpenAI-modelleket és a kibővített lekéréses generációt használja a modell további válaszainak további megalapozásához.
Az a gyakoriság, hogy egy adott információ megjelent a betanítási adatokban, szintén befolyásolhatja annak valószínűségét, hogy a modell bizonyos módon válaszol.
Megkérdezi a legújabb GPT-4 Turbo Preview modell valami, ami megváltozott a közelmúltban, mint a "Ki a miniszterelnök Új-Zéland?", valószínűleg eredményezte a kitalált választ Jacinda Ardern
. Azonban a modell megkérdezése: "Mikor mondott Jacinda Ardern
le miniszterelnökként?" Általában pontos választ ad, amely bemutatja, hogy a betanítási adatok ismerete legalább 2023 januárjában fog elmenni.
Így bár a modell megvizsgálható kérdésekkel, hogy kitalálja a betanítási adatok ismeretének leépítését, a modell oldala a legjobb hely a modell tudáscsökkentésének ellenőrzéséhez.
Hol érhetem el az örökölt modellek díjszabási információit, amelyek már nem érhetők el az új üzembe helyezésekhez?
Az örökölt díjszabási információk letölthető PDF-fájlon keresztül érhetők el. Az összes többi modell esetében tekintse meg a hivatalos díjszabási oldalt.
Hogyan internalServerError javítása – 500 – Nem sikerült létrehozni a befejezést, mivel a modell érvénytelen Unicode-kimenetet hozott létre?
A hibák előfordulását minimalizálhatja úgy, hogy a kérések hőmérsékletét 1-nél kisebbre csökkenti, és biztosítja, hogy újrapróbálkozással rendelkező ügyfelet használjon. A kérés újbóli megismétlése gyakran sikeres választ eredményez.
Észrevettük, hogy az API-hívásokhoz kapcsolódó díjak nem teljesek a 400-as állapotkóddal. Miért generálnak díjat a sikertelen API-hívások?
Ha a szolgáltatás feldolgozást végez, akkor is díjat számítunk fel, ha az állapotkód nem sikeres (nem 200). Ilyenek például a tartalomszűrő vagy a bemeneti korlát miatti 400-ás hiba, illetve az időtúllépés miatti 408-ás hiba. A díjak akkor is felmerülnek, ha a status 200
rendszer a következővel finish_reason
content_filter
érkezik: Ebben az esetben a kérés nem tartalmazott problémákat, de a modell által generált befejezést a rendszer úgy észlelte, hogy megsérti a tartalomszűrési szabályokat, ami a befejezés szűrését eredményezi.
Ha a szolgáltatás nem végez feldolgozást, nem számítunk fel díjat. Például egy 401-et a hitelesítés miatt, vagy egy 429-et a sebességkorlát túllépése miatt.
A legtöbb Azure OpenAI-modell eléréséhez nincs szükség korlátozott hozzáférésű regisztrációs űrlapra. További információ az Azure OpenAI Korlátozott hozzáférésű lapon.
A vendégfiókom hozzáféréssel rendelkezik egy Azure OpenAI-erőforráshoz, de nem tudom elérni ezt az erőforrást az Azure AI Foundry portálon. Hogyan engedélyezi a hozzáférést?
Ez a viselkedés az Azure AI Foundry alapértelmezett bejelentkezési felületének használatakor várható.
Az Azure AI Foundry elérése olyan vendégfiókból, amely hozzáférést kapott egy Azure OpenAI-erőforráshoz:
- Nyisson meg egy privát böngésző munkamenetet, majd lépjen a következőre https://ai.azure.com: .
- A vendégfiók hitelesítő adatainak azonnali megadása helyett válassza a
Sign-in options
- Most válassza a Bejelentkezés egy szervezetbe lehetőséget
- Adja meg annak a szervezetnek a tartománynevét, amely hozzáférést adott a vendégfióknak az Azure OpenAI-erőforráshoz.
- Most jelentkezzen be a vendégfiók hitelesítő adataival.
Most már az Azure AI Foundry portálon keresztül is hozzáférhet az erőforráshoz.
Ha az Azure OpenAI-erőforrás Áttekintés paneljén jelentkezett be az Azure Portalra, az Azure AI Foundry megnyitása lehetőséget választva automatikusan bejelentkezhet a megfelelő szervezeti környezettel.
Hol szerezhetek be képzést a tanulás megkezdéséhez és a készségeim fejlesztéséhez az Azure OpenAI-ban?
Az Azure OpenAI az Azure AI-szolgáltatások része. Az Azure AI-szolgáltatások összes támogatási lehetőségéről a támogatási és súgóbeállítások útmutatójában tájékozódhat.
Tekintse meg az Azure OpenAI-modell rendelkezésre állási útmutatójában.
A régióban való elérhetőségről az Azure OpenAI-modellek rendelkezésre állási útmutatójából tájékozódhat.
Rendelkezésre állási SLA-t kínálunk minden erőforráshoz, és késési SLA-t a kiépített felügyelt üzemelő példányokhoz. Az Azure OpenAI szolgáltatás SLA-jával kapcsolatos további információkért tekintse meg az online szolgáltatásokhoz készült szolgáltatásiszint-szerződések (SLA) oldalát.
Hogyan engedélyezi a finomhangolást? Az egyéni modell létrehozása szürkítve látható az Azure AI Foundry portálon.
A finomhangolás sikeres eléréséhez a Cognitive Services OpenAI-közreműködője szükséges. Még a magas szintű szolgáltatásadminisztrátori engedélyekkel rendelkezőknek is explicit módon kell beállítaniuk ezt a fiókot a finomhangolás eléréséhez. További információkért tekintse át a szerepköralapú hozzáférés-vezérlési útmutatót.
Az alapmodell olyan modell, amely nem lett testre szabva vagy finomhangolva egy adott használati esethez. A finomhangolt modellek az alapmodellek testreszabott verziói, amelyekben a modell súlyainak betanítása egyedi kérések halmazán alapul. A finomhangolt modellek lehetővé teszik, hogy jobb eredményeket érjen el több tevékenység esetében anélkül, hogy részletes példákat kellene megadnia a környezeten belüli tanuláshoz a befejezési kérés részeként. További információért tekintse át a finomhangolási útmutatót.
100
Ha egy testre szabott (finomhangolt) modell több mint 15 napig van üzembe helyezve, amely alatt nem történik befejezési vagy csevegés-befejezési hívás, a rendszer automatikusan törli az üzembe helyezést (és az üzembe helyezésért nem merülnek fel további üzemeltetési költségek). A mögöttes testreszabott modell továbbra is elérhető marad, és bármikor újra üzembe helyezheti. További információért tekintse meg az útmutatót.
Jelenleg két különböző REST API van, amelyek lehetővé teszik a modell üzembe helyezését. A legújabb modelltelepítési funkciókhoz, például a modellverzió megadásához az üzembe helyezés során olyan modellek esetében, mint a text-embedding-ada-002 2. verziója, használja a Központi telepítések – REST API-hívás létrehozása vagy frissítése lehetőséget.
Nem, a kvóta jogkivonatok percenkénti (TPM) kiosztása nem kapcsolódik a modell maximális bemeneti jogkivonat-korlátjaihoz. A modell bemeneti jogkivonatának korlátai a modelltáblában vannak meghatározva, és nem érintik a TPM módosításai.
Nem, jelenleg nem támogatjuk a GPT-4 képi képességeinek finomhangolását.
Nem, a képek létrehozásához és gpt-4-vision-preview
a képek megértéséhez használhatódall-e-3
.
Jelenleg a PNG (.png), a JPEG (.jpeg és .jpg), a WEBP (.webp) és a nem animált GIF (.gif) támogatottak.
Igen, a képfeltöltéseket képenként 20 MB-ra korlátozzuk.
Nem, a modell feldolgozása után automatikusan töröljük a rendszerképet.
A rendszerképeket a jogkivonat szintjén dolgozzuk fel, így a feldolgozott képek száma a tokenek percenkénti (TPM) korlátja felé tart. A képenkénti jogkivonatok számának meghatározásához használt képlet részleteiért tekintse meg az Áttekintés Kép jogkivonatok szakaszát.
Nem, a modell nem kapja meg a kép metaadatait.
Ha egy kép nem egyértelmű vagy nem egyértelmű, a modell a lehető legjobban értelmezi azt. Előfordulhat azonban, hogy az eredmények kevésbé pontosak. Jó hüvelykujjszabály, hogy ha egy átlagos ember nem látja az adatokat egy képen az alacsony/magas res módban használt felbontásokon, akkor a modell sem.
Tekintse meg a GPT-4 Turbo with Vision alapfogalmakra vonatkozó útmutatójának korlátait ismertető szakaszt.
Folyamatosan csonkolt válaszokat kapok, amikor GPT-4 Turbo vision modelleket használok. Miért történik ez?
Alapértelmezés szerint a GPT-4 vision-preview
és a GPT-4 turbo-2024-04-09
max_tokens
értéke 16. A kéréstől függően ez az érték gyakran túl alacsony, és csonkolt válaszokhoz vezethet. A probléma megoldásához adjon át egy nagyobb max_tokens
értéket a csevegés befejezésének API-kérései részeként. A GPT-4o alapértelmezés szerint 4096 max_tokens.
Igen. A Csevegés befejezése API-val ellentétben az Azure OpenAI Assistants egy állapotalapú API, ami azt jelenti, hogy megőrzi az adatokat. Az Assistants API-ban kétféle adat található:
- Állapotalapú entitások: A Segédek használata során létrehozott szálak, üzenetek és futtatások.
- Fájlok: Feltöltés az Asszisztensek beállítása során vagy egy üzenet részeként.
Az adatok tárolása biztonságos, Microsoft által felügyelt tárfiókban történik, amely logikailag elválasztva van egymástól.
Az összes használt adat megmarad ebben a rendszerben, kivéve, ha ön kifejezetten törli ezeket az adatokat. Használja a törlési függvényt a törölni kívánt szál szálazonosítójával. A Futtatás törlése az Asszisztensek játszótéren nem törli a szálakat, a törlési funkcióval történő törlés azonban nem fogja listázni őket a száloldalon.
Szám Az Asszisztensek jelenleg csak az Asszisztensek által felügyelt tárolóba feltöltött helyi fájlokat támogatják. A privát tárfiókot nem használhatja az Assistants szolgáltatással.
Ma támogatjuk a CMK for Threads and Files in Assistants szolgáltatást. Tekintse meg a funkcióhoz elérhető régiók újdonságainak lapját .
Szám A Microsoft nem használ betanítási modellekhez nem használt adatokat. További információért tekintse meg a Felelős AI dokumentációját .
Az Azure OpenAI Assistants-végpontok regionálisak, és az adatok a végpontkal azonos régióban vannak tárolva. További információkért tekintse meg az Azure-beli adattárolás dokumentációját.
- Az egyes asszisztensekhez használt alapmodell (például gpt-4-0125) következtetési költsége (bemenete és kimenete). Ha több asszisztenst hozott létre, az egyes asszisztensekhez csatolt alapmodellért díjat számítunk fel.
- Ha engedélyezte a Kódértelmező eszközt. Ha például az asszisztens két különböző szálon egyszerre hívja meg a Kódértelmeztetőt, ez két kódértelmeztető munkamenetet hozna létre, amelyek mindegyike díjat számít fel. Minden munkamenet alapértelmezés szerint egy órán át aktív, ami azt jelenti, hogy ezt a díjat csak egyszer fizetné meg, ha a felhasználó egy órán át folyamatosan utasításokat ad a Kódértelmezési szolgáltatásnak ugyanabban a szálban.
- A fájlkeresés számlázása a használt vektortároló alapján történik.
További tájékoztatás a díjszabási oldalon olvasható.
Szám Minden kvóta az Asszisztensekkel rendelkező modellek használatára vonatkozik.
Az Assistants API csak az Azure OpenAI-modelleket támogatja.
A Assistants API jelenleg nyilvános előzetes verzióban érhető el. Folyamatosan értesül a legújabb termékfrissítéseinkről, ha rendszeresen felkeresi a Újdonságok oldalt.
Az Asszisztensek használatbavételével és használatával kapcsolatos tudnivalókért tekintse meg a fogalmi, rövid útmutatót és útmutatókat. Az Azure OpenAI Assistants-kódmintákat a GitHubon is megtekintheti.
A közzétett webalkalmazást testre szabhatja az Azure Portalon. A közzétett webalkalmazás forráskódja elérhető a GitHubon, ahol információkat talál az alkalmazás előtérének módosításáról, valamint az alkalmazás létrehozásának és üzembe helyezésének utasításairól.
Felülírja a webalkalmazásom, amikor újra üzembe helyezem az alkalmazást az Azure AI Foundry portálon?
Az alkalmazás frissítésekor az alkalmazás kódja nem lesz felülírva. Az alkalmazás frissül az Azure OpenAI-erőforrás, az Azure AI Search index (ha az Azure OpenAI-t használja az adatokon) és az Azure AI Foundry portálon kiválasztott modellbeállítások használatára anélkül, hogy a megjelenés vagy a funkció megváltozik.
Az Azure OpenAI az adatokon az Azure OpenAI-szolgáltatások egyik funkciója, amellyel a szervezetek testre szabott elemzéseket, tartalmakat és kereséseket hozhatnak létre a kijelölt adatforrások használatával. Az Azure OpenAI OpenAI-modelljeinek képességeivel együttműködve pontosabb és relevánsabb válaszokat biztosít a felhasználói lekérdezésekre természetes nyelven. Az adatokon futó Azure OpenAI integrálható az ügyfél meglévő alkalmazásaival és munkafolyamataival, betekintést nyújt a fő teljesítménymutatókba, és zökkenőmentesen kezelheti a felhasználókat.
Minden Azure OpenAI-ügyfél használhatja az Azure OpenAI-t az adatain az Azure AI Foundry portálon és a Rest API-n keresztül.
Az adatokon futó Azure OpenAI támogatja az Azure AI Searchből, az Azure Blob Storage-ból való betöltést és a helyi fájlok feltöltését. Az Azure OpenAI-ról az elméleti cikkből és a rövid útmutatóból tudhat meg többet az adatairól.
Ha az Azure OpenAI-t használja az adatain, költségekkel jár az Azure AI Search, az Azure Blob Storage, az Azure Web App Service, a szemantikai keresés és az OpenAI-modellek használata. Az Azure AI Foundry portálon az "adatok" funkció használata nem jár további költségekkel.
Az indexet a GitHubon megadott szkripttel készítheti elő. Ezzel a szkripttel létrehoz egy Azure AI Search-indexet az adatok jobb használatához szükséges összes információval, a dokumentumokat kezelhető adattömbökre bontva. A futtatás részleteiért tekintse meg a README-fájlt az adatelőkészítési kóddal.
Ütemezhet automatikus indexfrissítést, vagy további adatokat tölthet fel az Azure Blob-tárolóba, és adatforrásként használhatja az új index létrehozásakor. Az új index a tárolóban lévő összes adatot tartalmazza.
A támogatott fájltípusokról további információt az Adatok használata című témakörben talál.
Igen, az adatokon található Azure OpenAI az Azure OpenAI szolgáltatás része, és az Azure OpenAI-ban elérhető modellekkel működik együtt. Az Azure OpenAI tartalomszűrési és visszaélésfigyelési funkciói továbbra is érvényesek. További információkért tekintse meg az Azure OpenAI-modellek felelős AI-eljárásainak áttekintését, valamint az Azure OpenAI átláthatósági megjegyzését az Azure OpenAI felelősségteljes használatával kapcsolatban.
Igen, a rendszerüzenet jogkivonat-korlátja 400. Ha a rendszerüzenet több mint 400 jogkivonatot tartalmaz, a rendszer figyelmen kívül hagyja az első 400-nál több jogkivonatot. Ez a korlátozás csak az Azure OpenAI-ra vonatkozik az adatfunkción.
Az adatokon futó Azure OpenAI jelenleg nem támogatja a függvényhívást.
A lekérdezéseket az adatok azonos nyelvén kell elküldenie. Az adatok az Azure AI Search által támogatott nyelvek bármelyikében lehetnek.
Ha a Szemantic Search engedélyezve van az Azure AI Search-erőforrásomhoz, a rendszer automatikusan alkalmazza az Azure OpenAI-ra az Adatok az Azure AI Foundry portálon?
Amikor adatforrásként az "Azure AI Search" lehetőséget választja, választhatja a szemantikai keresés alkalmazását. Ha adatforrásként az "Azure Blob Container" vagy a "Upload Files" (Fájlok feltöltése) lehetőséget választja, a szokásos módon létrehozhatja az indexet. Ezt követően az "Azure AI Search" beállítással újra betölti az adatokat, hogy ugyanazt az indexet jelölje ki, és alkalmazza a Szemantikai keresést. Ezután készen áll arra, hogy a szemantikai keresés alkalmazásával csevegjen az adataival.
Amikor adatforrásként az "Azure Blob Container", az "Azure AI Search" vagy a "Upload files" (Fájlok feltöltése) lehetőséget választja, kiválaszthatja az adatok betöltésekor használni kívánt Ada-beágyazási modell üzembe helyezését is. Ez létrehoz egy Azure AI Search-indexet vektoros beágyazásokkal.
Az index létrehozása sikertelen lehet, ha beágyazásokat ad hozzá az indexhez, ha az Ada beágyazási modell üzembe helyezésének sebességkorlátja túl alacsony, vagy ha nagyon nagy dokumentumkészlettel rendelkezik. A GitHubon megadott szkripttel manuálisan hozhatja létre az indexet beágyazással.
Az ügyféloldali szerzői jogi kötelezettségvállalás a Microsoft termékfeltételeinek 2023. december 1-jét tartalmazó rendelkezése, amely leírja a Microsoft azon kötelezettségét, hogy megvédje az ügyfeleket a kimeneti tartalommal kapcsolatos bizonyos külső szellemi tulajdonjogokkal szemben. Ha a jogcím tárgya az Azure OpenAI szolgáltatásból létrehozott kimeneti tartalom (vagy bármely más olyan érintett termék, amely lehetővé teszi az ügyfelek számára a biztonsági rendszerek konfigurálását), akkor a lefedettség fogadásához az ügyfélnek végre kell hajtania az Azure OpenAI szolgáltatás dokumentációja által megkövetelt összes kockázatcsökkentést a kimeneti tartalmat tartalmazó ajánlatban. A szükséges kockázatcsökkentéseket itt dokumentáljuk, és folyamatosan frissítjük. Új szolgáltatások, szolgáltatások, modellek vagy használati esetek esetén új CCC-követelmények lesznek közzétéve, és az ilyen szolgáltatás, szolgáltatás, modell vagy használati eset elindításakor vagy azt követően lépnek érvénybe. Ellenkező esetben az ügyfeleknek a közzététel időpontjától számított hat hónapjuk lesz arra, hogy új kockázatcsökkentéseket hajtsanak végre a CCC hatálya alá tartozó lefedettség fenntartása érdekében. Ha egy ügyfél igényt nyújt be, az ügyfélnek igazolnia kell a vonatkozó követelményeknek való megfelelést. Ezekre a kockázatcsökkentésekre olyan érintett termékek esetében van szükség, amelyek lehetővé teszik az ügyfelek számára a biztonsági rendszerek konfigurálását, beleértve az Azure OpenAI szolgáltatást is; nem befolyásolják a más érintett termékeket használó ügyfelek lefedettségét.