Copilot létrehozása parancssori folyamattal

Befejeződött

Miután feltöltötte az adatokat az Azure AI Studióba, és létrehozott egy indexet az adatokon az Azure AI Search integrációjával, a RAG-mintát a Prompt Flow-val implementálhatja egy copilot-alkalmazás létrehozásához.

A Prompt Flow egy fejlesztési keretrendszer az LLM-ekkel való interakciókat vezénylő folyamatok meghatározásához.

Egy parancssori folyamat ábrája.

A folyamat egy vagy több bemenettel kezdődik, általában egy felhasználó által megadott kérdés vagy kérdés, és iteratív beszélgetések esetén a csevegési előzmények erre a pontra.

A folyamat ezután csatlakoztatott eszközök sorozataként van definiálva, amelyek mindegyike egy adott műveletet hajt végre a bemeneteken és más környezeti változókon. Többféle eszköztípust is használhat a parancssori folyamatba a következő feladatok végrehajtásához:

  • Egyéni Python-kód futtatása
  • Adatértékek keresése indexben
  • Parancssori változatok létrehozása – lehetővé teszi egy nagy nyelvi modell (LLM) több verziójának definiálását, a különböző rendszerüzeneteket vagy a parancssori szövegezést, és összehasonlíthatja és kiértékelheti az egyes változatok eredményeit.
  • Kérés küldése egy LLM-nek az eredmények létrehozásához.

Végül a folyamat egy vagy több kimenettel rendelkezik, amelyek általában egy LLM-ből származó generált eredményeket adnak vissza.

A RAG minta használata a parancssori folyamatban

A RAG-minta parancssori folyamatban való használatához az a kulcs, hogy egy indexkeresési eszközzel adatokat kér le egy indexből, hogy a folyamat későbbi eszközei az eredményeket használva bővíthassák az LLM-ből származó kimenet létrehozásához használt kérést.

Indexkeresési eszközzel rendelkező parancssori folyamat diagramja.

Csevegési folyamat létrehozása mintával

A parancssori folyamat különböző mintákat biztosít, amelyekkel kiindulópontként létrehozhat egy alkalmazást. Ha kombinálni szeretné a RAG-t és egy nyelvi modellt az alkalmazásban, klónozhatja a többfordulós Q&A-t az adatmintán .

A minta tartalmazza a RAG és a nyelvi modell használatához szükséges elemeket:

Képernyőkép a Q&A-mintával létrehozott csevegési folyamatról.

  1. Fűzze hozzá az előzményeket a csevegési bemenethez, hogy egy kérdés kontextusba helyezett formájában definiáljon egy kérdést.
  2. Keressen releváns információkat az adataiból a keresési index használatával.
  3. A kérdés kiegészítéséhez hozza létre a parancssori környezetet az indexből beolvasott adatok használatával.
  4. Hozzon létre parancssori változatokat egy rendszerüzenet hozzáadásával és a csevegési előzmények strukturálásával.
  5. Küldje el a kérést egy természetes nyelvi választ generáló nyelvi modellnek.

Vizsgáljuk meg részletesebben ezeket az elemeket.

Lekérdezés módosítása előzményekkel

A folyamat első lépése egy nagy nyelvi modell (LLM) csomópont, amely felveszi a csevegési előzményeket és a felhasználó utolsó kérdését, és létrehoz egy új kérdést, amely tartalmazza az összes szükséges információt. Ezzel tömörebb bemenetet hoz létre, amelyet a folyamat többi része feldolgoz.

Releváns információk keresése

Ezután az Indexkeresés eszközzel lekérdezheti az integrált Azure AI Search szolgáltatással létrehozott keresési indexet, és megkeresheti az adatforrásból származó releváns információkat.

Tipp.

További információ az Indexkeresés eszközről.

Parancssori környezet létrehozása

Az Indexkeresés eszköz kimenete az a lekért környezet, amelyet a felhasználónak adott válasz létrehozásakor használni szeretne. A kimenetet egy nyelvi modellnek küldött parancssorban szeretné használni, ami azt jelenti, hogy a kimenetet megfelelőbb formátumban szeretné elemezni.

Az Indexkeresés eszköz kimenete tartalmazhatja a legfelső n eredményt (a beállított paraméterektől függően). Amikor létrehozza a parancssori környezetet, egy Python-csomóponttal iterálhat a lekért dokumentumokon az adatforrásból, és egyetlen dokumentumsztringbe egyesítheti azok tartalmát és forrásait. A sztring a folyamat következő lépésében a nyelvi modellnek küldött üzenetben lesz használva.

Parancssori változatok definiálása

Amikor elkészíti a nyelvi modellnek elküldeni kívánt kérést, a különböző kérések tartalmának megjelenítéséhez különböző változatokat használhat.

Ha a RAG-ot a csevegési folyamatba is beépíti, a cél a csevegőrobot válaszainak lefedése. A releváns környezet adatforrásból való lekérése mellett a csevegőrobot válaszának megalapozottságát is befolyásolhatja, ha arra utasítja, hogy használja a kontextust, és törekedjen arra, hogy tényszerű legyen.

A parancssori változatokkal különböző rendszerüzeneteket jeleníthet meg a parancssorban, hogy felfedezze, melyik tartalom biztosítja a leginkább megalapozottságot.

Csevegés környezettel

Végül egy LLM-csomóponttal küldi el a kérést egy nyelvi modellnek, hogy az adatforrásból lekért megfelelő környezettel választ hozzon létre. A csomópont válasza a teljes folyamat kimenete is.

Miután konfigurálta a minta csevegőfolyamatot az indexelt adatok és az Ön által választott nyelvi modell használatára, üzembe helyezheti a folyamatot, és integrálhatja egy alkalmazással, hogy a felhasználók copilot-élményt nyújtsanak.