Megosztás a következőn keresztül:


Relevancia a vektorkeresésben

A vektoros lekérdezés végrehajtása során a keresőmotor hasonló vektorokat keres, hogy megtalálja a legjobb jelölteket a keresési eredményekben való visszatéréshez. Attól függően, hogy hogyan indexelte a vektortartalmat, a releváns egyezések keresése teljes körű, vagy a legközelebbi szomszédokra van korlátozva a gyorsabb feldolgozás érdekében. A jelöltek megtalálása után a rendszer a hasonlósági metrikákat használja az egyes eredmények pontozásához a találatok erőssége alapján.

Ez a cikk a releváns egyezések kereséséhez használt algoritmusokat és a pontozáshoz használt hasonlósági metrikákat ismerteti. Emellett tippeket is kínál a relevancia javításához, ha a keresési eredmények nem felelnek meg az elvárásoknak.

A vektorkeresési algoritmusok a következők:

A rendszer csak az indexben vagy searchFields a lekérdezésben megjelölt searchable vektormezőket használja a kereséshez és a pontozáshoz.

Tudnivalók a kimerítő KNN-ről

A teljes KNN kiszámítja az adatpontok párjai közötti távolságot, és megkeresi a lekérdezési pontok legközelebbi k szomszédjait. Mivel az algoritmus nem igényel gyors véletlenszerű hozzáférést az adatpontokhoz, a KNN nem használ vektorindex-méretkvótát . Azonban a legközelebbi szomszédok globális készletét biztosítja.

A teljes körű KNN számításigényes, ezért kis és közepes adathalmazokhoz használja, vagy ha a pontosság iránti igény meghaladja a lekérdezési teljesítmény szükségességét. Egy másik használati eset egy ANN-algoritmus visszahívásának kiértékelésére szolgáló adathalmaz létrehozása, mivel a teljes KNN-t a legközelebbi szomszédok alapigazsági készletének létrehozásához használhatja.

A HNSW ismertetése

A HNSW egy ann algoritmus, amely nagy visszahívású, alacsony késésű, ismeretlen vagy változékony adateloszlású alkalmazásokhoz van optimalizálva. Az indexelés során a HNSW további adatstruktúrákat hoz létre, amelyek hierarchikus gráfba rendezik az adatpontokat. A lekérdezés végrehajtása során a HNSW ezen a grafikonon navigálva megkeresi a legrelevánsabb találatokat, így hatékony szomszédkereséseket tesz lehetővé.

A HNSW megköveteli, hogy az összes adatpont a memóriában legyen a gyors véletlenszerű hozzáféréshez, amely vektorindex-méretkvótát használ fel. Ez a kialakítás kiegyensúlyozza a keresési pontosságot a számítási hatékonysággal, és alkalmassá teszi a HNSW-t a legtöbb forgatókönyvre, különösen nagyobb adathalmazok keresésekor.

A HNSW számos beállítható konfigurációs paramétert kínál a keresési alkalmazás átviteli sebességének, késésének és visszahívásának optimalizálásához. A HNSW-t megjelölő mezők például a teljes KNN-t is támogatják a lekérdezéskérési paraméterrel "exhaustive": true. Az indexelt exhaustiveKnn mezők azonban nem támogatják a HNSW-lekérdezéseket, mert a hatékony keresést lehetővé tevő további adatstruktúrák nem léteznek.

Tudnivalók az ANN-ről

Az ANN az algoritmusok osztálya a vektortérben található egyezések kereséséhez. Az algoritmusok ezen osztálya különböző adatstruktúrákat vagy adatparticionálási módszereket használ a keresési terület jelentős csökkentéséhez és a lekérdezések feldolgozásának felgyorsításához.

Az ANN-algoritmusok bizonyos pontosságot feláldoznak, de skálázható és gyorsabb lekérést biztosítanak a legközelebbi szomszédokhoz, így ideálisak a pontosság és a hatékonyság kiegyensúlyozására a modern információlekérési alkalmazásokban. Az algoritmus paramétereit úgy módosíthatja, hogy finomhangolja a keresési alkalmazás visszahívási, késési, memória- és lemezigényét.

Az Azure AI Search a HNSW-t használja ann algoritmusához.

A legközelebbi szomszédkeresés működése

A vektoros lekérdezések egy beágyazási területre hajtanak végre, amely ugyanabból a beágyazási modellből létrehozott vektorokból áll. A lekérdezési kérelem bemeneti értéke általában ugyanabba a gépi tanulási modellbe lesz betáplálva, amely beágyazásokat hozott létre a vektorindexben. A kimenet egy vektor ugyanabban a beágyazási térben. Mivel a hasonló vektorok közel vannak egymáshoz csoportosítva, az egyezések keresése egyenértékű a lekérdezésvektorhoz legközelebbi vektorok megkeresésével, és a kapcsolódó dokumentumok keresési eredményként való visszaadásával.

Ha például egy lekérdezési kérelem a szállodákról szól, a modell egy olyan vektorra képezi le a lekérdezést, amely valahol a szállodák dokumentumait képviselő vektorfürtben található. A lekérdezéshez leginkább hasonló vektorok azonosítása egy hasonlósági metrika alapján határozza meg, hogy mely dokumentumok a legrelevánsabbak.

Ha a vektormezők indexelve vannak a teljes KNN-hez, a lekérdezés "minden szomszédon" fut. A HNSW-hez indexelt mezők esetében a keresőmotor egy HNSW-gráf használatával keres a csomópontok egy részhalmazán a vektorindexen belül.

A HNSW-diagram létrehozása

Az indexelés során a keresési szolgáltatás felépíti a HNSW gráfot. Egy új vektor HNSW-gráfba való indexelésének célja, hogy a gráfszerkezethez úgy adja hozzá, hogy a legközelebbi szomszédkeresés hatékony legyen. A következő lépések összefoglalják a folyamatot:

  1. Inicializálás: Kezdje egy üres HNSW-gráfmal vagy a meglévő HNSW-gráfmal, ha az nem új index.

  2. Belépési pont: Ez a hierarchikus gráf legfelső szintje, és az indexelés kiindulópontjaként szolgál.

  3. Hozzáadás a gráfhoz: A különböző hierarchikus szintek a gráf különböző részletességeit jelölik, a magasabb szintek globálisabbak, az alacsonyabb szintek pedig részletesebbek. A gráf minden csomópontja egy vektorpontot jelöl.

    • Minden csomópont a közelben lévő szomszédokhoz m csatlakozik. Ez a m paraméter.

    • A jelölt kapcsolatoknak tekintett adatpontok számát a efConstruction paraméter szabályozza. Ez a dinamikus lista a meglévő gráf legközelebbi pontjainak készletét képezi az algoritmus számára. A magasabb efConstruction értékek több csomópontot eredményeznek, ami gyakran az egyes vektorok sűrűbb helyi szomszédságához vezet.

    • Ezek a kapcsolatok a konfigurált hasonlóságot metric használják a távolság meghatározásához. Egyes kapcsolatok "távolsági" kapcsolatok, amelyek különböző hierarchikus szinteken csatlakoznak, és olyan billentyűparancsokat hoznak létre a grafikonon, amelyek növelik a keresési hatékonyságot.

  4. Gráfmetszet és -optimalizálás: Ez az összes vektor indexelése után fordulhat elő, és javítja a HNSW-gráf navigálását és hatékonyságát.

A vektoros lekérdezések a hierarchikus gráfstruktúrában navigálnak az egyezések kereséséhez. Az alábbiakban összefoglaljuk a folyamat lépéseit:

  1. Inicializálás: Az algoritmus a hierarchikus gráf legfelső szintjén kezdeményezi a keresést. Ez a belépési pont azon vektorok készletét tartalmazza, amelyek kiindulópontként szolgálnak a kereséshez.

  2. Bejárás: Ezután szint szerint halad át a gráfszinten, a felső szinttől az alacsonyabb szintekig haladva kiválasztja a lekérdezésvektorhoz közelebb álló jelölt csomópontokat a konfigurált távolságmetrika alapján, például a koszinusz hasonlósága alapján.

  3. Metszés: A hatékonyság javítása érdekében az algoritmus csak azokat a csomópontokat veszi figyelembe, amelyek valószínűleg a legközelebbi szomszédokat tartalmazzák. Ez úgy érhető el, hogy fenntartja a potenciális jelöltek prioritási üzenetsorát, és frissíti azt a keresés előrehaladása során. Az üzenetsor hosszát a paraméter efSearchkonfigurálja.

  4. Pontosítás: Ahogy az algoritmus alacsonyabb, részletesebb szintre lép, a HNSW több szomszédot is figyelembe veszi a lekérdezés közelében, ami lehetővé teszi a vektorok jelölt készletének pontosítását, és javítja a pontosságot.

  5. Befejezés: A keresés akkor fejeződik be, ha a legközelebbi szomszédok kívánt számát azonosították, vagy ha más leállítási feltételek teljesülnek. A legközelebbi szomszédok kívánt számát a lekérdezési idő paraméter kszabályozza.

A közelség mérésére használt hasonlósági metrikák

Az algoritmus a hasonlóság kiértékeléséhez keres jelölt vektorokat. A feladat végrehajtásához a hasonlóságmetrika számítása összehasonlítja a jelölt vektort a lekérdezésvektorral, és méri a hasonlóságot. Az algoritmus nyomon követi a talált legtöbb hasonló vektor rendezett készletét, amely az algoritmus befejezésekor a rangsorolt eredményhalmazt alkotja.

Metrika Leírás
cosine Ez a metrika két vektor szögét méri, és nem befolyásolja a különböző vektorhosszok. Matematikailag kiszámítja a két vektor közötti szöget. A Cosine az Azure OpenAI beágyazási modelljei által használt hasonlósági metrika, ezért ha Azure OpenAI-t használ, adja meg cosine a vektorkonfigurációban.
dotProduct Ez a metrika az egyes két vektorpárok hosszát és a köztük lévő szöget méri. Matematikailag kiszámítja a vektorok nagyságának és a köztük lévő szögnek a termékeit. Normalizált vektorok esetén ez megegyezik a cosine hasonlósággal, de valamivel nagyobb teljesítményű.
euclidean (más néven l2 norm) Ez a metrika két vektor közötti vektorkülönbség hosszát méri. Matematikailag kiszámítja a két vektor közötti euklideszi távolságot, ami a két vektor különbségének l2-norma.

Feljegyzés

Ha két vagy több vektoros lekérdezést futtat párhuzamosan, vagy ha olyan hibrid keresést végez, amely ugyanabban a kérelemben egyesíti a vektoros és szöveges lekérdezéseket, akkor a kölcsönös rangsor fúzió (RRF) a végső keresési eredmények pontozására szolgál.

Pontszámok vektoros keresési eredményekben

A pontszámok kiszámítása és hozzárendelése az egyes egyezésekhez történik, és a legmagasabb találatok lesznek eredményként k visszaadva. A @search.score tulajdonság tartalmazza a pontszámot. Az alábbi táblázat azt a tartományt mutatja be, amelyen belül egy pontszám csökken.

Keresési módszer Paraméter Pontozási metrika Tartomány
vektor keresés @search.score Koszinusz 0.333 - 1.00

A metrika esetébencosine fontos megjegyezni, hogy a számított @search.score érték nem a lekérdezésvektor és a dokumentumvektorok koszinuszértéke. Ehelyett az Azure AI Search olyan átalakításokat alkalmaz, hogy a pontszámfüggvény monoton módon csökken, ami azt jelenti, hogy a pontszámértékek mindig csökkennek az értékben, ahogy a hasonlóság rosszabbá válik. Ez az átalakítás biztosítja, hogy a keresési pontszámok felhasználhatók legyenek rangsorolási célokra.

Vannak olyan árnyalatok, amelyek hasonlósági pontszámokkal vannak elbúvóak:

  • A koszinusz-hasonlóság a két vektor közötti szög koszinuszaként van definiálva.
  • A koszinusz távolsága a következőképpen 1 - cosine_similarityvan definiálva: .

Monoton módon csökkenő függvény létrehozásához a függvény a @search.score következőképpen van definiálva 1 / (1 + cosine_distance): .

Azok a fejlesztők, akiknek a szintetikus érték helyett koszinuszértékre van szükségük, képlet használatával visszakonvertálja a keresési pontszámot koszinusz távolságra:

double ScoreToSimilarity(double score)
{
    double cosineDistance = (1 - score) / score;
    return  -cosineDistance + 1;
}

Az eredeti koszinuszérték hasznos lehet olyan egyéni megoldásokban, amelyek küszöbértékeket állítottak be az alacsony minőségű eredmények eredményeinek vágásához.

Tippek a relevanciahangoláshoz

Ha nem kap releváns eredményeket, kísérletezzen a lekérdezés konfigurációjának módosításával. A vektoros lekérdezésekhez nincsenek konkrét hangolási funkciók, például pontozási profil vagy mező vagy kifejezésnövelés:

  • Kísérletezzen az adattömb méretével és átfedésével. Próbálja meg növelni az adattömb méretét, és gondoskodjon arról, hogy elegendő átfedés legyen az adattömbök környezetének vagy folytonosságának megőrzéséhez.

  • A HNSW esetében próbálkozzon különböző szinteken efConstruction a közelségi gráf belső összetételének módosításához. Az alapértelmezett érték 400. A tartomány 100 és 1000 között van.

  • A találatok növelésével k több keresési találatot adhat hozzá egy csevegési modellhez, ha használ egyet.

  • Próbáljon ki hibrid lekérdezéseket szemantikai rangsorolással. A teljesítményteszt-tesztelés során ez a kombináció következetesen a legrelevánsabb eredményeket hozta.

Következő lépések