Úvod
Skutečná síla velkých jazykových modelů (LLM) spočívá v jejich aplikaci. Ať už chcete použít LLM ke klasifikaci webových stránek do kategorií, nebo k vytvoření chatovacího robota na vašich datech. Pokud chcete využít výkon dostupných LLM, musíte vytvořit aplikaci, která kombinuje zdroje dat s LLM a generuje požadovaný výstup.
Pokud chcete vyvíjet, testovat, ladit a nasazovat aplikace LLM, můžete použít tok výzvy, přístupný v studio Azure Machine Learning a v Azure AI Studiu.
Poznámka:
Tento modul se zaměřuje na pochopení a zkoumání toku výzvy prostřednictvím azure AI Studia. Všimněte si ale, že obsah se vztahuje na prostředí toku výzvy ve službě Azure Machine Učení i v Azure AI Studiu.
Tok výzvy použije jako vstup výzvu , která v kontextu LLM odkazuje na dotaz poskytnutý aplikaci LLM za účelem vygenerování odpovědi. Jedná se o text nebo sadu instrukcí zadaných aplikaci LLM a zobrazí výzvu k vygenerování výstupu nebo provedení konkrétní úlohy.
Pokud například chcete použít model generování textu, může se zobrazit výzva jako věta nebo odstavec, který zahájí proces generování. V kontextu modelu pro odpovědi na otázky může být dotaz, který žádá o informace o konkrétním tématu. Efektivita výzvy často závisí na tom, jak dobře vyjadřuje záměr uživatele a požadovaný výsledek.
Tok výzvy umožňuje vytvářet toky, které odkazují na posloupnost akcí nebo kroků provedených k dosažení konkrétní úlohy nebo funkčnosti. Tok představuje celkový proces nebo kanál, který zahrnuje interakci s LLM k vyřešení konkrétního případu použití. Tok zapouzdřuje celou cestu od příjmu vstupu do generování výstupu nebo provedení požadované akce.