Sdílet prostřednictvím


Rychlý start: Vektorové vyhledávání s využitím Node.js v Azure DocumentDB

Použití vektorového vyhledávání v Azure DocumentDB s klientskou knihovnou Node.js Efektivní ukládání a dotazování vektorových dat

Tento rychlý start používá ukázkovou hotelovou datovou sadu v souboru JSON s vektory z text-embedding-3-small modelu. Datová sada obsahuje názvy hotelů, umístění, popisy a vkládání vektorů.

Najděte vzorový kód na GitHubu.

Požadavky

  • Předplatné Azure

Vytvoření datového souboru s vektory

  1. Vytvořte nový datový adresář pro datový soubor hotelů:

    mkdir data
    
  2. Zkopírujte nezpracovaný Hotels_Vector.jsondatový soubor s vektory do adresáře data .

Vytvoření projektu Node.js

  1. Vytvořte pro svůj projekt nový adresář na stejné úrovni jako datový adresář a otevřete ho v editoru Visual Studio Code:

    mkdir vector-search-quickstart
    code vector-search-quickstart
    
  2. V terminálu inicializujete projekt Node.js:

    npm init -y
    npm pkg set type="module"
    
  3. Nainstalujte požadované balíčky:

    npm install mongodb @azure/identity openai @types/node
    
    • mongodb: Ovladač Node.js MongoDB
    • @azure/identity: Knihovna identit Azure pro ověřování bez hesla
    • openai: Klientská knihovna OpenAI pro vytváření vektorů
    • @types/node: Definice typů pro Node.js
  4. Vytvořte soubor v kořenovém .env adresáři projektu pro proměnné prostředí:

    # Identity for local developer authentication with Azure CLI
    AZURE_TOKEN_CREDENTIALS=AzureCliCredential
    
    # Azure OpenAI Embedding Settings
    AZURE_OPENAI_EMBEDDING_MODEL=text-embedding-3-small
    AZURE_OPENAI_EMBEDDING_API_VERSION=2023-05-15
    AZURE_OPENAI_EMBEDDING_ENDPOINT=
    EMBEDDING_SIZE_BATCH=16
    
    # MongoDB configuration
    MONGO_CLUSTER_NAME=
    
    # Data file
    DATA_FILE_WITH_VECTORS=../data/Hotels_Vector.json
    FIELD_TO_EMBED=Description
    EMBEDDED_FIELD=DescriptionVector
    EMBEDDING_DIMENSIONS=1536
    LOAD_SIZE_BATCH=100
    

    Zástupné hodnoty v .env souboru nahraďte vlastními informacemi:

    • AZURE_OPENAI_EMBEDDING_ENDPOINT: Adresa URL koncového bodu prostředku Azure OpenAI
    • MONGO_CLUSTER_NAME: Název vašeho prostředku
  5. tsconfig.json Přidejte soubor pro konfiguraci TypeScriptu:

    {
        "compilerOptions": {
            "target": "ES2020",
            "module": "NodeNext",
            "moduleResolution": "nodenext",
            "declaration": true,
            "outDir": "./dist",
            "strict": true,
            "esModuleInterop": true,
            "skipLibCheck": true,
            "noImplicitAny": false,
            "forceConsistentCasingInFileNames": true,
            "sourceMap": true,
            "resolveJsonModule": true,
        },
        "include": [
            "src/**/*"
        ],
        "exclude": [
            "node_modules",
            "dist"
        ]
    }
    

Vytváření skriptů npm

package.json Upravte soubor a přidejte tyto skripty:

Pomocí těchto skriptů zkompilujte soubory TypeScript a spusťte implementaci indexu DiskANN.

"scripts": { 
    "build": "tsc",
    "start:diskann": "node --env-file .env dist/diskann.js"
}

Vytvořte src adresář pro soubory TypeScriptu. Přidejte dva soubory: diskann.ts a utils.ts pro implementaci indexu DiskANN:

mkdir src    
touch src/diskann.ts
touch src/utils.ts

Do souboru vložte následující kód diskann.ts .

import path from 'path';
import { readFileReturnJson, getClientsPasswordless, insertData, printSearchResults } from './utils.js';

// ESM specific features - create __dirname equivalent
import { fileURLToPath } from "node:url";
import { dirname } from "node:path";
const __filename = fileURLToPath(import.meta.url);
const __dirname = dirname(__filename);

const config = {
    query: "quintessential lodging near running trails, eateries, retail",
    dbName: "Hotels",
    collectionName: "hotels_diskann",
    indexName: "vectorIndex_diskann",
    dataFile: process.env.DATA_FILE_WITH_VECTORS!,
    batchSize: parseInt(process.env.LOAD_SIZE_BATCH! || '100', 10),
    embeddedField: process.env.EMBEDDED_FIELD!,
    embeddingDimensions: parseInt(process.env.EMBEDDING_DIMENSIONS!, 10),
    deployment: process.env.AZURE_OPENAI_EMBEDDING_MODEL!,
};

async function main() {

    const { aiClient, dbClient } = getClientsPasswordless();

    try {

        if (!aiClient) {
            throw new Error('AI client is not configured. Please check your environment variables.');
        }
        if (!dbClient) {
            throw new Error('Database client is not configured. Please check your environment variables.');
        }

        await dbClient.connect();
        const db = dbClient.db(config.dbName);
        const collection = await db.createCollection(config.collectionName);
        console.log('Created collection:', config.collectionName);
        const data = await readFileReturnJson(path.join(__dirname, "..", config.dataFile));
        const insertSummary = await insertData(config, collection, data);
        console.log('Created vector index:', config.indexName);
        
        // Create the vector index
        const indexOptions = {
            createIndexes: config.collectionName,
            indexes: [
                {
                    name: config.indexName,
                    key: {
                        [config.embeddedField]: 'cosmosSearch'
                    },
                    cosmosSearchOptions: {
                        kind: 'vector-diskann',
                        dimensions: config.embeddingDimensions,
                        similarity: 'COS', // 'COS', 'L2', 'IP'
                        maxDegree: 20, // 20 - 2048,  edges per node
                        lBuild: 10 // 10 - 500, candidate neighbors evaluated
                    }
                }
            ]
        };
        const vectorIndexSummary = await db.command(indexOptions);

        // Create embedding for the query
        const createEmbeddedForQueryResponse = await aiClient.embeddings.create({
            model: config.deployment,
            input: [config.query]
        });

        // Perform the vector similarity search
        const searchResults = await collection.aggregate([
            {
                $search: {
                    cosmosSearch: {
                        vector: createEmbeddedForQueryResponse.data[0].embedding,
                        path: config.embeddedField,
                        k: 5
                    }
                }
            },
            {
                $project: {
                    score: {
                        $meta: "searchScore"
                    },
                    document: "$$ROOT"
                }
            }
        ]).toArray();

        // Print the results
        printSearchResults(insertSummary, vectorIndexSummary, searchResults);

    } catch (error) {
        console.error('App failed:', error);
        process.exitCode = 1;
    } finally {
        console.log('Closing database connection...');
        if (dbClient) await dbClient.close();
        console.log('Database connection closed');
    }
}

// Execute the main function
main().catch(error => {
    console.error('Unhandled error:', error);
    process.exitCode = 1;
});

Tento hlavní modul poskytuje tyto funkce:

  • Zahrnuje funkce nástrojů.
  • Vytvoří objekt konfigurace pro proměnné prostředí.
  • Vytvoří klienty pro Azure OpenAI a DocumentDB.
  • Připojí se k MongoDB, vytvoří databázi a kolekci, vloží data a vytvoří standardní indexy.
  • Vytvoří vektorový index pomocí IVF, HNSW nebo DiskANN.
  • Vytvoří vložení pro ukázkový text dotazu pomocí klienta OpenAI. Dotaz můžete změnit v horní části souboru.
  • Spustí vektorové vyhledávání pomocí vkládání a vytiskne výsledky.

Vytvoření funkcí nástroje

Vložte následující kód do utils.ts:

import { MongoClient, OIDCResponse, OIDCCallbackParams } from 'mongodb';
import { AzureOpenAI } from 'openai/index.js';
import { promises as fs } from "fs";
import { AccessToken, DefaultAzureCredential, TokenCredential, getBearerTokenProvider } from '@azure/identity';

// Define a type for JSON data
export type JsonData = Record<string, any>;

export const AzureIdentityTokenCallback = async (params: OIDCCallbackParams, credential: TokenCredential): Promise<OIDCResponse> => {
    const tokenResponse: AccessToken | null = await credential.getToken(['https://ossrdbms-aad.database.windows.net/.default']);
    return {
        accessToken: tokenResponse?.token || '',
        expiresInSeconds: (tokenResponse?.expiresOnTimestamp || 0) - Math.floor(Date.now() / 1000)
    };
};
export function getClients(): { aiClient: AzureOpenAI; dbClient: MongoClient } {
    const apiKey = process.env.AZURE_OPENAI_EMBEDDING_KEY!;
    const apiVersion = process.env.AZURE_OPENAI_EMBEDDING_API_VERSION!;
    const endpoint = process.env.AZURE_OPENAI_EMBEDDING_ENDPOINT!;
    const deployment = process.env.AZURE_OPENAI_EMBEDDING_MODEL!;
    const mongoConnectionString = process.env.MONGO_CONNECTION_STRING!;

    if (!apiKey || !apiVersion || !endpoint || !deployment || !mongoConnectionString) {
        throw new Error('Missing required environment variables: AZURE_OPENAI_EMBEDDING_KEY, AZURE_OPENAI_EMBEDDING_API_VERSION, AZURE_OPENAI_EMBEDDING_ENDPOINT, AZURE_OPENAI_EMBEDDING_MODEL, MONGO_CONNECTION_STRING');
    }

    const aiClient = new AzureOpenAI({
        apiKey,
        apiVersion,
        endpoint,
        deployment
    });
    const dbClient = new MongoClient(mongoConnectionString, {
        // Performance optimizations
        maxPoolSize: 10,         // Limit concurrent connections
        minPoolSize: 1,          // Maintain at least one connection
        maxIdleTimeMS: 30000,    // Close idle connections after 30 seconds
        connectTimeoutMS: 30000, // Connection timeout
        socketTimeoutMS: 360000, // Socket timeout (for long-running operations)
        writeConcern: {          // Optimize write concern for bulk operations
            w: 1,                // Acknowledge writes after primary has written
            j: false             // Don't wait for journal commit
        }
    });

    return { aiClient, dbClient };
}

export function getClientsPasswordless(): { aiClient: AzureOpenAI | null; dbClient: MongoClient | null } {
    let aiClient: AzureOpenAI | null = null;
    let dbClient: MongoClient | null = null;

    // Validate all required environment variables upfront
    const apiVersion = process.env.AZURE_OPENAI_EMBEDDING_API_VERSION!;
    const endpoint = process.env.AZURE_OPENAI_EMBEDDING_ENDPOINT!;
    const deployment = process.env.AZURE_OPENAI_EMBEDDING_MODEL!;
    const clusterName = process.env.MONGO_CLUSTER_NAME!;

    if (!apiVersion || !endpoint || !deployment || !clusterName) {
        throw new Error('Missing required environment variables: AZURE_OPENAI_EMBEDDING_API_VERSION, AZURE_OPENAI_EMBEDDING_ENDPOINT, AZURE_OPENAI_EMBEDDING_MODEL, MONGO_CLUSTER_NAME');
    }

    console.log(`Using Azure OpenAI Embedding API Version: ${apiVersion}`);
    console.log(`Using Azure OpenAI Embedding Deployment/Model: ${deployment}`);

    const credential = new DefaultAzureCredential();

    // For Azure OpenAI with DefaultAzureCredential
    {
        const scope = "https://cognitiveservices.azure.com/.default";
        const azureADTokenProvider = getBearerTokenProvider(credential, scope);
        aiClient = new AzureOpenAI({
            apiVersion,
            endpoint,
            deployment,
            azureADTokenProvider
        });
    }

    // For DocumentDB with DefaultAzureCredential (uses signed-in user)
    {
        dbClient = new MongoClient(
            `mongodb+srv://${clusterName}.mongocluster.cosmos.azure.com/`, {
            connectTimeoutMS: 120000,
            tls: true,
            retryWrites: false,
            maxIdleTimeMS: 120000,
            authMechanism: 'MONGODB-OIDC',
            authMechanismProperties: {
                OIDC_CALLBACK: (params: OIDCCallbackParams) => AzureIdentityTokenCallback(params, credential),
                ALLOWED_HOSTS: ['*.azure.com']
            }
        }
        );
    }

    return { aiClient, dbClient };
}

export async function readFileReturnJson(filePath: string): Promise<JsonData[]> {

    console.log(`Reading JSON file from ${filePath}`);

    const fileAsString = await fs.readFile(filePath, "utf-8");
    return JSON.parse(fileAsString);
}
export async function writeFileJson(filePath: string, jsonData: JsonData): Promise<void> {
    const jsonString = JSON.stringify(jsonData, null, 2);
    await fs.writeFile(filePath, jsonString, "utf-8");

    console.log(`Wrote JSON file to ${filePath}`);
}
export async function insertData(config, collection, data) {
    console.log(`Processing in batches of ${config.batchSize}...`);
    const totalBatches = Math.ceil(data.length / config.batchSize);

    let inserted = 0;
    let updated = 0;
    let skipped = 0;
    let failed = 0;

    for (let i = 0; i < totalBatches; i++) {
        const start = i * config.batchSize;
        const end = Math.min(start + config.batchSize, data.length);
        const batch = data.slice(start, end);

        try {
            const result = await collection.insertMany(batch, { ordered: false });
            inserted += result.insertedCount || 0;
            console.log(`Batch ${i + 1} complete: ${result.insertedCount} inserted`);
        } catch (error: any) {
            if (error?.writeErrors) {
                // Some documents may have been inserted despite errors
                console.error(`Error in batch ${i + 1}: ${error?.writeErrors.length} failures`);
                failed += error?.writeErrors.length;
                inserted += batch.length - error?.writeErrors.length;
            } else {
                console.error(`Error in batch ${i + 1}:`, error);
                failed += batch.length;
            }
        }

        // Small pause between batches to reduce resource contention
        if (i < totalBatches - 1) {
            await new Promise(resolve => setTimeout(resolve, 100));
        }
    }
    const indexColumns = [
        "HotelId",
        "Category",
        "Description",
        "Description_fr"
    ];
    for (const col of indexColumns) {
        const indexSpec = {};
        indexSpec[col] = 1; // Ascending index
        await collection.createIndex(indexSpec);
    }

    return { total: data.length, inserted, updated, skipped, failed };
}

export function printSearchResults(insertSummary, indexSummary, searchResults) {


    if (!searchResults || searchResults.length === 0) {
        console.log('No search results found.');
        return;
    }

    searchResults.map((result, index) => {

        const { document, score } = result as any;

        console.log(`${index + 1}. HotelName: ${document.HotelName}, Score: ${score.toFixed(4)}`);
        //console.log(`   Description: ${document.Description}`);
    });

}

Tento modul nástroje poskytuje tyto funkce:

  • JsonData: Rozhraní pro datovou strukturu
  • scoreProperty: Umístění skóre ve výsledcích dotazu na základě metody vektorového vyhledávání
  • getClients: Vytvoří a vrátí klienty pro Azure OpenAI a Azure DocumentDB.
  • getClientsPasswordless: Vytvoří a vrátí klienty pro Azure OpenAI a Azure DocumentDB pomocí ověřování bez hesla. Povolte řízení přístupu na základě role pro oba prostředky a přihlaste se k Azure CLI
  • readFileReturnJson: Načte soubor JSON a vrátí jeho obsah jako pole JsonData objektů.
  • writeFileJson: Zapíše pole JsonData objektů do souboru JSON.
  • insertData: Vloží data po dávkách do MongoDB kolekce a vytvoří standardní indexy pro zadaná pole.
  • printSearchResults: Vytiskne výsledky vektorového hledání, včetně skóre a názvu hotelu.

Ověřování pomocí Azure CLI

Před spuštěním aplikace se přihlaste k Azure CLI, aby aplikace bezpečně přistupovala k prostředkům Azure.

az login

Kód používá místní ověřování vývojáře pro přístup k Azure DocumentDB a Azure OpenAI pomocí funkce getClientsPasswordless z utils.ts. Když nastavíte AZURE_TOKEN_CREDENTIALS=AzureCliCredential, toto nastavení řekne funkci, aby pro ověřování používala přihlašovací údaje Azure CLI. Funkce spoléhá na DefaultAzureCredential z @azure/identity a vyhledá vaše přihlašovací údaje Azure v prostředí. Přečtěte si další informace o ověřování javascriptových aplikací ve službách Azure pomocí knihovny identit Azure.

Sestavení a spuštění aplikace

Sestavte soubory TypeScript a spusťte aplikaci:

npm run build
npm run start:diskann

Protokolování a výstup aplikace ukazují:

  • Vytvoření kolekce a stav vložení dat
  • Vytvoření vektorových indexů
  • Výsledky hledání s názvy hotelů a skóre podobnosti
Using Azure OpenAI Embedding API Version: 2023-05-15
Using Azure OpenAI Embedding Deployment/Model: text-embedding-3-small-2
Created collection: hotels_diskann
Reading JSON file from \documentdb-samples\ai\data\Hotels_Vector.json
Processing in batches of 50...
Batch 1 complete: 50 inserted
Created vector index: vectorIndex_diskann
1. HotelName: Royal Cottage Resort, Score: 0.4991
2. HotelName: Country Comfort Inn, Score: 0.4785
3. HotelName: Nordick's Valley Motel, Score: 0.4635
4. HotelName: Economy Universe Motel, Score: 0.4461
5. HotelName: Roach Motel, Score: 0.4388
Closing database connection...
Database connection closed

Zobrazení a správa dat v editoru Visual Studio Code

  1. Výběrem rozšíření DocumentDB v editoru Visual Studio Code se připojte k účtu Azure DocumentDB.

  2. Zobrazte data a indexy v databázi Hotels.

    Snímek obrazovky s rozšířením DocumentDB zobrazující kolekci DocumentDB

Vyčistěte zdroje

Odstraňte skupinu prostředků, účet DocumentDB a prostředek Azure OpenAI, pokud je nepotřebujete, abyste se vyhnuli dodatečným nákladům.