Szerkesztés

Megosztás a következőn keresztül:


Gyakori kérdések – Azure OpenAI Service

Ha ebben a dokumentumban nem talál választ a kérdéseire, és segítségre van szüksége, tekintse meg az Azure AI-szolgáltatások támogatási beállításainak útmutatóját. Az Azure OpenAI az Azure AI-szolgáltatások része.

Adatok és adatvédelem

Használja a céges adataimat a modellek betanítása érdekében?

Az Azure OpenAI nem használja az ügyféladatokat a modellek újratanítására. További információért lásd az Azure OpenAI-adatok, adatvédelem és biztonsági útmutató témakört.

Általános

Támogatja az Azure OpenAI az egyéni API-fejléceket? További egyéni fejléceket fűzünk az API-kérésekhez, és HTTP 431-es hibahibák jelennek meg.

A jelenlegi API-k legfeljebb 10 egyéni fejlécet engedélyeznek, amelyeket a rendszer a folyamaton keresztül ad vissza. Észrevettük, hogy egyes ügyfelek túllépik ezt a fejlécszámot, és HTTP 431-et eredményeznek. Erre a hibára nincs más megoldás, mint a fejlécmennyiség csökkentése. A jövőbeni API-verziókban már nem fogunk átmenni az egyéni fejléceken. Azt javasoljuk, hogy az ügyfelek ne függenek az egyéni fejlécek a jövőbeli rendszerarchitektúrákban.

Működik az Azure OpenAI az OpenAI által kiadott legújabb Python-kódtárral (verzió>=1.0)?

Az Azure OpenAI-t az OpenAI Python-kódtár legújabb kiadása (version>=1.0) támogatja. Fontos azonban megjegyezni, hogy a kódbázis migrálása openai migrate nem támogatott, és nem működik az Azure OpenAI-t megcélozó kóddal.

Nem találom a GPT-4 Turbo Preview-t, hol van?

A GPT-4 Turbo Preview az gpt-4 (1106-előzetes verziójú) modell. A modell üzembe helyezéséhez válassza a gpt-4 modellt az Üzembe helyezések csoportban. Modellverzió esetén válassza az 1106-os előzetes verziót. A modell elérhető régióinak ellenőrzéséhez tekintse meg a modellek oldalát.

Támogatja az Azure OpenAI a GPT-4-et?

Az Azure OpenAI a legújabb GPT-4 modelleket támogatja. A GPT-4 és a GPT-4-32K protokollt is támogatja.

Hogyan viszonyulnak az Azure OpenAI képességei az OpenAI-hoz?

Az Azure OpenAI szolgáltatás fejlett nyelvi AI-t biztosít az ügyfeleknek az OpenAI GPT-3, Codex és DALL-E modellekkel, az Azure biztonsági és vállalati ígéretével. Az Azure OpenAI kódfejezi az API-kat az OpenAI-val, biztosítva a kompatibilitást és az egyikről a másikra való zökkenőmentes átmenetet.

Az Azure OpenAI-val az ügyfelek a Microsoft Azure biztonsági képességeit kapják, miközben ugyanazokat a modelleket futtatják, mint az OpenAI.

Támogatja az Azure OpenAI a VNET-eket és a privát végpontokat?

Igen, az Azure AI-szolgáltatások részeként az Azure OpenAI támogatja a VNET-eket és a privát végpontokat. További információért tekintse meg az Azure AI-szolgáltatások virtuális hálózatkezelési útmutatóját.

A GPT-4 modellek támogatják jelenleg a képbevitelt?

Nem, a GPT-4-et az OpenAI multimodálisnak tervezte, de jelenleg csak a szöveges bemenet és a kimenet támogatott.

Hogyan új használati esetekre?

Korábban az új használati esetek hozzáadásának folyamata miatt az ügyfeleknek újra kellett alkalmazniuk a szolgáltatást. Most egy új folyamatot adunk ki, amely lehetővé teszi új használati esetek gyors hozzáadását a szolgáltatás használatához. Ez a folyamat az Azure AI-szolgáltatásokban létrehozott korlátozott hozzáférésű folyamatot követi. A meglévő ügyfelek itt bármilyen új használati esetet tanúsíthatnak. Vegye figyelembe, hogy erre akkor van szükség, ha olyan új használati esethez szeretné használni a szolgáltatást, amelyre eredetileg nem jelentkezett.

Beágyazásokat próbálok használni, és a következő hibaüzenetet kaptam: "InvalidRequestError: Túl sok bemenet. A bemenetek maximális száma 16." Hogyan oldhatom meg ezt a problémát?

Ez a hiba általában akkor fordul elő, ha egy kötegnyi szöveget próbál meg tömbként beágyazni egyetlen API-kérelembe. Az Azure OpenAI jelenleg csak a 2. verziójú modellhez több bemenettel text-embedding-ada-002 rendelkező beágyazási tömböket támogat. Ez a modellverzió egy API-kérésenként legfeljebb 16 bemenetből álló tömböt támogat. A tömb legfeljebb 8191 token hosszúságú lehet a text-embedding-ada-002 (2. verzió) modell használatakor.

Hol olvashatok az Azure OpenAI használatának jobb módjairól a kívánt válaszok lekéréséhez a szolgáltatásból?

Tekintse meg a gyors tervezésről való bevezetést. Bár ezek a modellek hatékonyak, viselkedésük is nagyon érzékeny a felhasználótól kapott kérésekre. Emiatt fontos, fejlesztendő képesség a bemenő szöveges üzenet elkészítése. A bevezetés befejezése után tekintse meg a rendszerüzenetekre vonatkozó cikkünket.

A vendégfiókom hozzáféréssel rendelkezik egy Azure OpenAI-erőforráshoz, de nem tudom elérni az erőforrást az Azure AI Studióban. Hogyan engedélyezi a hozzáférést?

Ez a viselkedés az Azure AI Studio alapértelmezett bejelentkezési felületének használatakor várható.

Az Azure AI Studio elérése olyan vendégfiókból, amely hozzáférést kapott egy Azure OpenAI-erőforráshoz:

  1. Nyisson meg egy privát böngésző munkamenetet, majd lépjen a következőre https://ai.azure.com: .
  2. A vendégfiók hitelesítő adatainak azonnali megadása helyett válassza a Sign-in options
  3. Most válassza a Bejelentkezés egy szervezetbe lehetőséget
  4. Adja meg annak a szervezetnek a tartománynevét, amely hozzáférést adott a vendégfióknak az Azure OpenAI-erőforráshoz.
  5. Most jelentkezzen be a vendégfiók hitelesítő adataival.

Most már az Azure AI Studióban is hozzáférhet az erőforráshoz.

Ha az Azure OpenAI-erőforrás Áttekintés paneljén jelentkezett be az Azure Portalra, az Azure AI Studio megnyitása lehetőséget választva automatikusan bejelentkezhet a megfelelő szervezeti környezettel.

Amikor megkérdezem a GPT-4-et, hogy melyik modell fut, azt mondja, hogy a GPT-3-at futtatja. Miért történik ez?

Az Azure OpenAI-modellek (beleértve a GPT-4-et is) nem tudják megfelelően azonosítani, hogy melyik modell fut, az elvárt viselkedés.

Miért történik ez?

Végső soron a modell a következő token-előrejelzést hajtja végre a kérdésére válaszul. A modell nem rendelkezik natív képességgel arra, hogy lekérdezhesse a jelenleg futtatott modellverziót a kérdés megválaszolásához. A kérdés megválaszolásához bármikor megnyithatja az Azure AI Studio>Management>üzembe helyezését>, és a modellnév oszlopban ellenőrizheti, hogy melyik modell van jelenleg társítva egy adott üzembe helyezési névvel.

A "Melyik modellt futtatja?" vagy a "Mi a legújabb modell az OpenAI-ból?" kérdések hasonló minőségi eredményeket adnak, hogy megkérdezik a modelltől, milyen lesz ma az időjárás. Lehet, hogy a helyes eredményt adja vissza, de csak véletlenül. A modell önmagában nem rendelkezik olyan valós információkkal, mint ami a betanítási/betanítási adatok részét képezte. A GPT-4 esetében 2023 augusztusától a mögöttes betanítási adatok csak 2021 szeptemberére nyúlnak vissza. A GPT-4 csak 2023 márciusában jelent meg, ezért ha az OpenAI nem ad ki egy új verziót frissített betanítási adatokkal, vagy egy olyan új verziót, amely finomhangolva van az adott kérdések megválaszolásához, a GPT-4 várhatóan reagál arra, hogy a GPT-3 az OpenAI legújabb modellkiadása.

Ha segíteni szeretne egy GPT-alapú modellnek, hogy pontosan válaszoljon a "melyik modellt futtatja?" kérdésre, ezt az információt olyan technikákkal kell megadnia a modellnek, mint például a modell rendszerüzenetének gyors tervezése, az Azure OpenAI által az adatokon használt módszer, ahol a rendszerüzenetbe lekérdezéskor a rendszerüzenetbe kerülnek a legfrissebb információk. vagy finomhangolással, ahol finomhangolhatja a modell egyes verzióit, hogy a modellverzió alapján bizonyos módon válaszoljon a kérdésre.

A GPT-modellek betanítása és működése érdekében javasoljuk, hogy nézze meg Andrej Karpathy előadását a 2023-es buildből a GPT állapotáról.

Megkérdeztem a modellt, hogy mikor van a tudása, és más választ adott nekem, mint ami az Azure OpenAI-modell oldalán található. Miért történik ez?

Ez az elvárt működés. A modellek nem tudják megválaszolni a saját magukkal kapcsolatos kérdéseket. Ha tudni szeretné, hogy mikor van a modell betanítási adatainak ismeretkizártása, tekintse meg a modellek oldalát.

Megkérdeztem a modell egy kérdést, hogy valami történt a közelmúltban, mielőtt a tudás leépítése, és ez kapta a választ rossz. Miért történik ez?

Ez az elvárt működés. Először sincs garancia arra, hogy minden legutóbbi esemény a modell betanítási adatainak része volt. És még akkor is, ha az információk a betanítási adatok részét képezték, anélkül, hogy további technikákat használna, például a retrieveal augmented generation (RAG) a modell válaszainak megalapozásához, mindig fennáll az esélye annak, hogy a válaszok nem jelennek meg. Az Azure OpenAI az adatfunkciót használja, a Bing Chat pedig az Azure OpenAI-modelleket és a kibővített lekéréses generációt használja a modell további válaszainak további megalapozásához.

Az a gyakoriság, hogy egy adott információ megjelent a betanítási adatokban, szintén befolyásolhatja annak valószínűségét, hogy a modell bizonyos módon válaszol.

Megkérdezi a legújabb GPT-4 Turbo Preview modell valami, ami megváltozott a közelmúltban, mint a "Ki a miniszterelnök Új-Zéland?", valószínűleg eredményezte a kitalált választ Jacinda Ardern. Azonban a modell megkérdezése: "Mikor mondott Jacinda Ardern le miniszterelnökként?" Általában pontos választ ad, amely bemutatja, hogy a betanítási adatok ismerete legalább 2023 januárjában fog elmenni.

Így bár a modell megvizsgálható kérdésekkel, hogy kitalálja a betanítási adatok ismeretének leépítését, a modell oldala a legjobb hely a modell tudáscsökkentésének ellenőrzéséhez.

Hol érhetem el az örökölt modellek díjszabási információit, amelyek már nem érhetők el az új üzembe helyezésekhez?

Az örökölt díjszabási információk letölthető PDF-fájlon keresztül érhetők el. Az összes többi modell esetében tekintse meg a hivatalos díjszabási oldalt.

Hogyan internalServerError javítása – 500 – Nem sikerült létrehozni a befejezést, mivel a modell érvénytelen Unicode-kimenetet hozott létre?

A hibák előfordulását minimalizálhatja úgy, hogy a kérések hőmérsékletét 1-nél kisebbre csökkenti, és biztosítja, hogy újrapróbálkozással rendelkező ügyfelet használjon. A kérés újbóli megismétlése gyakran sikeres választ eredményez.

Észrevettük, hogy az API-hívásokhoz kapcsolódó díjak nem teljesek a 400-as állapotkóddal. Miért generálnak díjat a sikertelen API-hívások?

Ha a szolgáltatás feldolgozást végez, akkor is díjat számítunk fel, ha az állapotkód nem sikeres (nem 200). Ilyenek például a tartalomszűrő vagy a bemeneti korlát miatti 400-ás hiba, illetve az időtúllépés miatti 408-ás hiba. A díjak akkor is felmerülnek, ha a status 200 rendszer a következővel finish_reason content_filterérkezik: Ebben az esetben a kérés nem tartalmazott problémákat, de a modell által generált befejezést a rendszer úgy észlelte, hogy megsérti a tartalomszűrési szabályokat, ami a befejezés szűrését eredményezi. Ha a szolgáltatás nem végez feldolgozást, nem számítunk fel díjat. Például egy 401-et a hitelesítés miatt, vagy egy 429-et a sebességkorlát túllépése miatt.

Hozzáférés az Azure OpenAI szolgáltatáshoz

Hogyan hozzáférni az Azure OpenAI-hoz?

A legtöbb Azure OpenAI-modell eléréséhez nincs szükség korlátozott hozzáférésű regisztrációs űrlapra. További információ az Azure OpenAI Korlátozott hozzáférésű lapon.

További információ és a kérdések feltevésének helye

Hol olvashatok az Azure OpenAI legújabb frissítéseiről?

A havi frissítésekért tekintse meg az új lapunkat.

Hol szerezhetek be képzést a tanulás megkezdéséhez és a készségeim fejlesztéséhez az Azure OpenAI-ban?

Tekintse meg az Azure OpenAI bevezető tanfolyamát.

Hol tehetek fel kérdéseket, és hol tekinthetem meg a válaszokat más gyakori kérdésekre?

  • Javasoljuk, hogy kérdéseket tesz közzé a Microsoft Q&A-n.
  • Másik lehetőségként kérdéseket tehet fel a Stack Overflow-on.

Hol keressem meg az Azure OpenAI ügyfélszolgálatát?

Az Azure OpenAI az Azure AI-szolgáltatások része. Az Azure AI-szolgáltatások összes támogatási lehetőségéről a támogatási és súgóbeállítások útmutatójában tájékozódhat.

Modellek és finomhangolás

Milyen modellek érhetők el?

Tekintse meg az Azure OpenAI-modell rendelkezésre állási útmutatójában.

Hol deríthetem ki, hogy egy modell melyik régióban érhető el?

A régióban való elérhetőségről az Azure OpenAI-modellek rendelkezésre állási útmutatójából tájékozódhat.

Mik az SLA-k (szolgáltatásiszint-szerződések) az Azure OpenAI-ban?

Rendelkezésre állási SLA-t kínálunk minden erőforráshoz, és késési SLA-t a kiépített felügyelt üzemelő példányokhoz. Az Azure OpenAI szolgáltatás SLA-jával kapcsolatos további információkért tekintse meg az online szolgáltatásokhoz készült szolgáltatásiszint-szerződések (SLA) oldalát.

Hogyan engedélyezi a finomhangolást? Az egyéni modell létrehozása szürkítve lesz az Azure AI Studióban.

A finomhangolás sikeres eléréséhez a Cognitive Services OpenAI-közreműködője szükséges. Még a magas szintű szolgáltatásadminisztrátori engedélyekkel rendelkezőknek is explicit módon kell beállítaniuk ezt a fiókot a finomhangolás eléréséhez. További információkért tekintse át a szerepköralapú hozzáférés-vezérlési útmutatót.

Mi a különbség az alapmodell és a finomhangolt modell között?

Az alapmodell olyan modell, amely nem lett testre szabva vagy finomhangolva egy adott használati esethez. A finomhangolt modellek az alapmodellek testreszabott verziói, amelyekben a modell súlyainak betanítása egyedi kérések halmazán alapul. A finomhangolt modellek lehetővé teszik, hogy jobb eredményeket érjen el több tevékenység esetében anélkül, hogy részletes példákat kellene megadnia a környezeten belüli tanuláshoz a befejezési kérés részeként. További információért tekintse át a finomhangolási útmutatót.

Mi a maximálisan létrehozható finomhangolt modellek száma?

100

Miért törölték a finomhangolt modell üzembe helyezését?

Ha egy testre szabott (finomhangolt) modell több mint 15 napig van üzembe helyezve, amely alatt nem történik befejezési vagy csevegés-befejezési hívás, a rendszer automatikusan törli az üzembe helyezést (és az üzembe helyezésért nem merülnek fel további üzemeltetési költségek). A mögöttes testreszabott modell továbbra is elérhető marad, és bármikor újra üzembe helyezheti. További információért tekintse meg az útmutatót.

Hogyan üzembe helyezni egy modellt a REST API-val?

Jelenleg két különböző REST API van, amelyek lehetővé teszik a modell üzembe helyezését. A legújabb modelltelepítési funkciókhoz, például a modellverzió megadásához az üzembe helyezés során olyan modellek esetében, mint a text-embedding-ada-002 2. verziója, használja a Központi telepítések – REST API-hívás létrehozása vagy frissítése lehetőséget.

Használhatok kvótát a modell maximális jogkivonat-korlátjának növeléséhez?

Nem, a kvóta jogkivonatok percenkénti (TPM) kiosztása nem kapcsolódik a modell maximális bemeneti jogkivonat-korlátjaihoz. A modell bemeneti jogkivonatának korlátai a modelltáblában vannak meghatározva, és nem érintik a TPM módosításai.

GPT-4 Turbo és Vision

Finomhangolhatom a GPT-4 képképességeit?

Nem, jelenleg nem támogatjuk a GPT-4 képi képességeinek finomhangolását.

Használhatom a GPT-4-et képek létrehozásához?

Nem, a képek létrehozásához és gpt-4-vision-preview a képek megértéséhez használhatódall-e-3.

Milyen típusú fájlokat tölthetek fel?

Jelenleg a PNG (.png), a JPEG (.jpeg és .jpg), a WEBP (.webp) és a nem animált GIF (.gif) támogatottak.

Korlátozva van a feltölthető kép mérete?

Igen, a képfeltöltéseket képenként 20 MB-ra korlátozzuk.

Törölhetek egy feltöltött képet?

Nem, a modell feldolgozása után automatikusan töröljük a rendszerképet.

Hogyan működnek a GPT-4 Turbo és a Vision sebességkorlátozásai?

A rendszerképeket a jogkivonat szintjén dolgozzuk fel, így a feldolgozott képek száma a tokenek percenkénti (TPM) korlátja felé tart. A képenkénti jogkivonatok számának meghatározásához használt képlet részleteiért tekintse meg az Áttekintés Kép jogkivonatok szakaszát.

Képes a GPT-4 Turbo és a Vision megérteni a kép metaadatait?

Nem, a modell nem kapja meg a kép metaadatait.

Mi történik, ha a képem nem egyértelmű?

Ha egy kép nem egyértelmű vagy nem egyértelmű, a modell a lehető legjobban értelmezi azt. Előfordulhat azonban, hogy az eredmények kevésbé pontosak. Jó hüvelykujjszabály, hogy ha egy átlagos ember nem látja az adatokat egy képen az alacsony/magas res módban használt felbontásokon, akkor a modell sem.

Mik a GPT-4 Turbo és a Vision ismert korlátozásai?

Tekintse meg a GPT-4 Turbo with Vision alapfogalmakra vonatkozó útmutatójának korlátait ismertető szakaszt.

Folyamatosan csonkolt válaszokat kapok, amikor GPT-4 Turbo vision modelleket használok. Miért történik ez?

Alapértelmezés szerint a GPT-4 vision-preview és a GPT-4 turbo-2024-04-09 max_tokens értéke 16. A kéréstől függően ez az érték gyakran túl alacsony, és csonkolt válaszokhoz vezethet. A probléma megoldásához adjon át egy nagyobb max_tokens értéket a csevegés befejezésének API-kérései részeként. A GPT-4o alapértelmezés szerint 4096 max_tokens.

Segédek

Tárol bármilyen, az Assistants API-ban használt adatot?

Igen. A Csevegés befejezése API-val ellentétben az Azure OpenAI Assistants egy állapotalapú API, ami azt jelenti, hogy megőrzi az adatokat. Az Assistants API-ban kétféle adat található:

  • Állapotalapú entitások: A Segédek használata során létrehozott szálak, üzenetek és futtatások.
  • Fájlok: Feltöltés az Asszisztensek beállítása során vagy egy üzenet részeként.

Hol vannak tárolva ezek az adatok?

Az adatok tárolása biztonságos, Microsoft által felügyelt tárfiókban történik, amely logikailag elválasztva van egymástól.

Mennyi ideig tárolják ezeket az adatokat?

Az összes használt adat megmarad ebben a rendszerben, kivéve, ha ön kifejezetten törli ezeket az adatokat. Használja a törlési függvényt a törölni kívánt szál szálazonosítójával. A Futtatás törlése az Asszisztensek játszótéren nem törli a szálakat, a törlési funkcióval történő törlés azonban nem fogja listázni őket a száloldalon.

Használhatom a saját adattáramat az Asszisztensekkel?

Szám Az Asszisztensek jelenleg csak az Asszisztensek által felügyelt tárolóba feltöltött helyi fájlokat támogatják. A privát tárfiókot nem használhatja az Assistants szolgáltatással.

Támogatja az asszisztensek az ügyfél által felügyelt kulcstitkosítást (CMK)?

Ma támogatjuk a CMK for Threads and Files in Assistants szolgáltatást. Tekintse meg a funkcióhoz elérhető régiók újdonságainak lapját .

A Microsoft használja az adataimat betanítási modellekhez?

Szám A Microsoft nem használ betanítási modellekhez nem használt adatokat. További információért tekintse meg a Felelős AI dokumentációját .

Hol tárolják földrajzilag az adatokat?

Az Azure OpenAI Assistants-végpontok regionálisak, és az adatok a végpontkal azonos régióban vannak tárolva. További információkért tekintse meg az Azure-beli adattárolás dokumentációját.

Hogyan kell fizetni az asszisztensekért?

  • Az egyes asszisztensekhez használt alapmodell (például gpt-4-0125) következtetési költsége (bemenete és kimenete). Ha több asszisztenst hozott létre, az egyes asszisztensekhez csatolt alapmodellért díjat számítunk fel.
  • Ha engedélyezte a Kódértelmező eszközt. Ha például az asszisztens két különböző szálon egyszerre hívja meg a Kódértelmeztetőt, ez két kódértelmeztető munkamenetet hozna létre, amelyek mindegyike díjat számít fel. Minden munkamenet alapértelmezés szerint egy órán át aktív, ami azt jelenti, hogy ezt a díjat csak egyszer fizetné meg, ha a felhasználó egy órán át folyamatosan utasításokat ad a Kódértelmezési szolgáltatásnak ugyanabban a szálban.
  • A fájlkeresés számlázása a használt vektortároló alapján történik.

További tájékoztatás a díjszabási oldalon olvasható.

Van további díjszabás vagy kvóta az Asszisztensek használatához?

Szám Minden kvóta az Asszisztensekkel rendelkező modellek használatára vonatkozik.

Az Assistants API támogatja a nem Azure OpenAI-modelleket?

Az Assistants API csak az Azure OpenAI-modelleket támogatja.

Általánosan elérhető az Assistants API?

A Assistants API jelenleg nyilvános előzetes verzióban érhető el. Folyamatosan értesül a legújabb termékfrissítéseinkről, ha rendszeresen felkeresi a Újdonságok oldalt.

Milyen példákat vagy egyéb erőforrásokat használhatok az Asszisztensek megismeréséhez?

Az Asszisztensek használatbavételével és használatával kapcsolatos tudnivalókért tekintse meg a fogalmi, rövid útmutatót és útmutatókat. Az Azure OpenAI Assistants-kódmintákat a GitHubon is megtekintheti.

Webalkalmazás

Hogyan szabhatom testre a közzétett webalkalmazásomat?

A közzétett webalkalmazást testre szabhatja az Azure Portalon. A közzétett webalkalmazás forráskódja elérhető a GitHubon, ahol információkat talál az alkalmazás előtérének módosításáról, valamint az alkalmazás létrehozásának és üzembe helyezésének utasításairól.

Felülírja a webalkalmazásom, amikor újra üzembe helyezem az alkalmazást az Azure AI Studióban?

Az alkalmazás frissítésekor az alkalmazás kódja nem lesz felülírva. Az alkalmazás frissítve lesz az Azure OpenAI-erőforrás, az Azure AI Search index (ha az Azure OpenAI-t használja az adatain) és az Azure AI Studióban kiválasztott modellbeállítások a megjelenés és a funkciók módosítása nélkül.

Az adatok használata

Mi az Azure OpenAI az adatain?

Az Azure OpenAI az adatokon az Azure OpenAI-szolgáltatások egyik funkciója, amellyel a szervezetek testre szabott elemzéseket, tartalmakat és kereséseket hozhatnak létre a kijelölt adatforrások használatával. Az Azure OpenAI OpenAI-modelljeinek képességeivel együttműködve pontosabb és relevánsabb válaszokat biztosít a felhasználói lekérdezésekre természetes nyelven. Az adatokon futó Azure OpenAI integrálható az ügyfél meglévő alkalmazásaival és munkafolyamataival, betekintést nyújt a fő teljesítménymutatókba, és zökkenőmentesen kezelheti a felhasználókat.

Hogyan érhetem el az Azure OpenAI-t az adataidon?

Minden Azure OpenAI-ügyfél használhatja az Azure OpenAI-t az adatain az Azure AI Studióval és a Rest API-val.

Milyen adatforrásokat támogat az Azure OpenAI az adatokon?

Az adatokon futó Azure OpenAI támogatja az Azure AI Searchből, az Azure Blob Storage-ból való betöltést és a helyi fájlok feltöltését. Az Azure OpenAI-ról az elméleti cikkből és a rövid útmutatóból tudhat meg többet az adatairól.

Mennyibe kerül az Azure OpenAI használata az adatokon?

Ha az Azure OpenAI-t használja az adatain, költségekkel jár az Azure AI Search, az Azure Blob Storage, az Azure Web App Service, a szemantikai keresés és az OpenAI-modellek használata. Az Azure AI Studióban az "adatok" funkció használata nem jár további költségekkel.

Hogyan szabhatom testre vagy automatizálhatom az indexlétrehozás folyamatát?

Az indexet a GitHubon megadott szkripttel készítheti elő. Ezzel a szkripttel létrehoz egy Azure AI Search-indexet az adatok jobb használatához szükséges összes információval, a dokumentumokat kezelhető adattömbökre bontva. A futtatás részleteiért tekintse meg a README-fájlt az adatelőkészítési kóddal.

Hogyan frissíthetem az indexemet?

Ütemezhet automatikus indexfrissítést, vagy további adatokat tölthet fel az Azure Blob-tárolóba, és adatforrásként használhatja az új index létrehozásakor. Az új index a tárolóban lévő összes adatot tartalmazza.

Milyen fájltípusokat támogat az Azure OpenAI az adatokon?

A támogatott fájltípusokról további információt az Adatok használata című témakörben talál.

Az Azure OpenAI támogatja a felelős AI-t az adatain?

Igen, az adatokon található Azure OpenAI az Azure OpenAI szolgáltatás része, és az Azure OpenAI-ban elérhető modellekkel működik együtt. Az Azure OpenAI tartalomszűrési és visszaélésfigyelési funkciói továbbra is érvényesek. További információkért tekintse meg az Azure OpenAI-modellek felelős AI-eljárásainak áttekintését, valamint az Azure OpenAI átláthatósági megjegyzését az Azure OpenAI felelősségteljes használatával kapcsolatban.

Van jogkivonatkorlát a rendszerüzenetben?

Igen, a rendszerüzenet jogkivonat-korlátja 400. Ha a rendszerüzenet több mint 400 jogkivonatot tartalmaz, a rendszer figyelmen kívül hagyja az első 400-nál több jogkivonatot. Ez a korlátozás csak az Azure OpenAI-ra vonatkozik az adatfunkción.

Az Azure OpenAI hívja az adattámogatási függvényt?

Az adatokon futó Azure OpenAI jelenleg nem támogatja a függvényhívást.

A lekérdezési nyelvnek és az adatforrás nyelvének azonosnak kell lennie?

A lekérdezéseket az adatok azonos nyelvén kell elküldenie. Az adatok az Azure AI Search által támogatott nyelvek bármelyikében lehetnek.

Ha a Szemantic Search engedélyezve van az Azure AI Search-erőforráshoz, a rendszer automatikusan alkalmazza az Azure OpenAI-ra az Azure AI Studióban tárolt adataira?

Amikor adatforrásként az "Azure AI Search" lehetőséget választja, választhatja a szemantikai keresés alkalmazását. Ha adatforrásként az "Azure Blob Container" vagy a "Upload Files" (Fájlok feltöltése) lehetőséget választja, a szokásos módon létrehozhatja az indexet. Ezt követően az "Azure AI Search" beállítással újra betölti az adatokat, hogy ugyanazt az indexet jelölje ki, és alkalmazza a Szemantikai keresést. Ezután készen áll arra, hogy a szemantikai keresés alkalmazásával csevegjen az adataival.

Hogyan adhatok hozzá vektoros beágyazást az adataim indexelése során?

Amikor adatforrásként az "Azure Blob Container", az "Azure AI Search" vagy a "Upload files" (Fájlok feltöltése) lehetőséget választja, kiválaszthatja az adatok betöltésekor használni kívánt Ada-beágyazási modell üzembe helyezését is. Ez létrehoz egy Azure AI Search-indexet vektoros beágyazásokkal.

Miért hiúsul meg az index létrehozása beágyazási modell hozzáadása után?

Az index létrehozása sikertelen lehet, ha beágyazásokat ad hozzá az indexhez, ha az Ada beágyazási modell üzembe helyezésének sebességkorlátja túl alacsony, vagy ha nagyon nagy dokumentumkészlettel rendelkezik. A GitHubon megadott szkripttel manuálisan hozhatja létre az indexet beágyazással.

Az ügyfél szerzői jogi kötelezettségvállalása

Hogyan az ügyfél szerzői jogi kötelezettségvállalása alapján szerzi be a lefedettséget?

Az ügyféloldali szerzői jogi kötelezettségvállalás a Microsoft termékfeltételeinek 2023. december 1-jét tartalmazó rendelkezése, amely leírja a Microsoft azon kötelezettségét, hogy megvédje az ügyfeleket a kimeneti tartalommal kapcsolatos bizonyos külső szellemi tulajdonjogokkal szemben. Ha a jogcím tárgya az Azure OpenAI szolgáltatásból létrehozott kimeneti tartalom (vagy bármely más olyan érintett termék, amely lehetővé teszi az ügyfelek számára a biztonsági rendszerek konfigurálását), akkor a lefedettség fogadásához az ügyfélnek végre kell hajtania az Azure OpenAI szolgáltatás dokumentációja által megkövetelt összes kockázatcsökkentést a kimeneti tartalmat tartalmazó ajánlatban. A szükséges kockázatcsökkentéseket itt dokumentáljuk, és folyamatosan frissítjük. Új szolgáltatások, szolgáltatások, modellek vagy használati esetek esetén új CCC-követelmények lesznek közzétéve, és az ilyen szolgáltatás, szolgáltatás, modell vagy használati eset elindításakor vagy azt követően lépnek érvénybe. Ellenkező esetben az ügyfeleknek a közzététel időpontjától számított hat hónapjuk lesz arra, hogy új kockázatcsökkentéseket hajtsanak végre a CCC hatálya alá tartozó lefedettség fenntartása érdekében. Ha egy ügyfél igényt nyújt be, az ügyfélnek igazolnia kell a vonatkozó követelményeknek való megfelelést. Ezekre a kockázatcsökkentésekre olyan érintett termékek esetében van szükség, amelyek lehetővé teszik az ügyfelek számára a biztonsági rendszerek konfigurálását, beleértve az Azure OpenAI szolgáltatást is; nem befolyásolják a más érintett termékeket használó ügyfelek lefedettségét.