Sdílet prostřednictvím


Přehled: Nasazení modelů, toků a webových aplikací pomocí Azure AI Studia

Důležité

Některé funkce popsané v tomto článku můžou být dostupné jenom ve verzi Preview. Tato verze Preview je poskytována bez smlouvy o úrovni služeb a nedoporučujeme ji pro produkční úlohy. Některé funkce se nemusí podporovat nebo mohou mít omezené možnosti. Další informace najdete v dodatečných podmínkách použití pro verze Preview v Microsoft Azure.

Azure AI Studio podporuje nasazení velkých jazykových modelů (LLM), toků a webových aplikací. Nasazení LLM nebo toku zpřístupňuje použití na webu, v aplikaci nebo v jiných produkčních prostředích. To obvykle zahrnuje hostování modelu na serveru nebo v cloudu a vytvoření rozhraní API nebo jiného rozhraní, které uživatelům umožní pracovat s modelem.

Často uslyšíte tuto interakci s modelem, který se označuje jako odvozování. Odvozování je proces použití nových vstupních dat na model k vygenerování výstupů. Odvozování lze použít v různých aplikacích. Model dokončování chatu se dá například použít k automatickému dokončování slov nebo frází, které osoba píše v reálném čase. Model chatu můžete použít k vygenerování odpovědi na "můžete vytvořit itinerář pro návštěvu jednoho dne v Seattlu?". Možnosti jsou nekonečné.

Nasazení modelů

Nejdřív se můžete zeptat:

  • "Jaké modely můžu nasadit?" Azure AI Studio podporuje nasazení některých z nejoblíbenějších modelů základních jazyků a obrazu kurátorovaných Microsoftem, Hugging Face a Meta.
  • "Návody zvolit správný model?" Azure AI Studio poskytuje katalog modelů, který umožňuje vyhledávat a filtrovat modely na základě vašeho případu použití. Model můžete také otestovat na ukázkovém hřišti před jeho nasazením do projektu.
  • "Odkud v Azure AI Studiu můžu nasadit model?" Model můžete nasadit z katalogu modelů nebo ze stránky nasazení projektu.

Azure AI Studio zjednodušuje nasazení. Jednoduchý výběr nebo řádek kódu nasadí model a vygeneruje koncový bod rozhraní API pro vaše aplikace, které budou využívat.

Modely Azure OpenAI

Azure OpenAI umožňuje získat přístup k nejnovějším modelům OpenAI s podnikovými funkcemi z Azure. Přečtěte si další informace o nasazení modelů OpenAI v AI Studiu.

Otevřené modely

Katalog modelů nabízí přístup k široké škále modelů napříč různými způsoby. Určité modely v katalogu modelů je možné nasadit jako službu s průběžnými platbami, což poskytuje způsob, jak je využívat jako rozhraní API, aniž byste je hostovali ve vašem předplatném, a přitom udržovat organizace zabezpečení a dodržování předpisů podniku potřebné.

Nasazení modelů s modelem jako službou (Maas)

Tato možnost nasazení nevyžaduje kvótu z vašeho předplatného. Nasadíte ho jako nasazení bezserverového rozhraní API a účtují se podle tokenu způsobem průběžných plateb. Zjistěte, jak nasadit a využívat modelovou řadu Llama 2 s modelem jako službou.

Nasazení modelů s hostovanými spravovanými infrastrukturami

Můžete také hostovat otevřené modely ve vlastním předplatném se spravovanou infrastrukturou, virtuálními počítači a počtem instancí pro správu kapacity. V současné době nabízí širokou škálu modelů od Azure AI, HuggingFace a Nvidia. Přečtěte si další informace o nasazení otevřených modelů do koncových bodů v reálném čase.

Fakturace pro nasazení a odvozování LLM v Azure AI Studiu

Následující tabulka popisuje, jak se vám účtuje nasazení a odvozování LLM v Azure AI Studiu. Další informace o sledování nákladů najdete v tématu Monitorování nákladů na modely nabízené v rámci Azure Marketplace .

Případ použití Modely Azure OpenAI Modely nasazené jako bezserverová rozhraní API (průběžné platby) Modely nasazené se spravovanými výpočetními prostředky
Nasazení modelu z katalogu modelů do projektu Ne, neúčtuje se vám nasazení modelu Azure OpenAI do projektu. Ano, fakturujete se podle infrastruktury koncového bodu1. Ano, účtuje se vám infrastruktura hostující model2.
Testování režimu chatu na Dětském hřišti po nasazení modelu do projektu Ano, účtuje se vám využití tokenu. Ano, účtuje se vám využití tokenu. Nezaokrouhlovat.
Testování modelu na ukázkovém hřišti v katalogu modelů (pokud je k dispozici) Nelze použít Nezaokrouhlovat. Nezaokrouhlovat.
Testování modelu v dětském prostředí v rámci projektu (pokud je to možné) nebo na kartě Test na stránce s podrobnostmi o nasazení v rámci projektu. Ano, účtuje se vám využití tokenu. Ano, účtuje se vám využití tokenu. Nezaokrouhlovat.

1 Minimální infrastruktura koncových bodů se účtuje za minutu. Za infrastrukturu hostující samotný model v průběžných platbách se vám neúčtuje. Po odstranění koncového bodu se neúčtují žádné další poplatky.

2 Fakturace se provádí za minutu v závislosti na SKU a počtu instancí použitých v nasazení od okamžiku vytvoření. Po odstranění koncového bodu se neúčtují žádné další poplatky.

Nasazení toků

Co je tok a proč byste ho chtěli nasadit? Tok je posloupnost nástrojů, které je možné použít k vytvoření aplikace generující umělé inteligence. Nasazení toku se liší od nasazení modelu, ve kterém můžete tok přizpůsobit vlastními daty a dalšími komponentami, jako jsou vkládání, vyhledávání vektorové databáze. a vlastní připojení. Průvodce postupy najdete v tématu Nasazení toků pomocí nástroje Azure AI Studio.

Můžete například vytvořit chatovacího robota, který používá vaše data k vygenerování informovaných a uzemněných odpovědí na dotazy uživatelů. Když přidáte data do dětského hřiště, automaticky se pro vás vygeneruje tok výzvy. Tok můžete nasadit tak, jak je, nebo ho dále přizpůsobit vlastními daty a dalšími komponentami. V Azure AI Studiu můžete také vytvořit vlastní tok od začátku.

Ať už se rozhodnete vytvořit tok v Azure AI Studiu, můžete ho rychle nasadit a vygenerovat koncový bod rozhraní API, který budou vaše aplikace využívat.

Nasazení webových aplikací

Model nebo tok, který nasadíte, se dá použít ve webové aplikaci hostované v Azure. Azure AI Studio nabízí rychlý způsob nasazení webové aplikace. Další informace najdete v kurzu Azure AI Enterprise Chat.

Plánování bezpečnosti AI pro nasazený model

Pro modely Azure OpenAI, jako je GPT-4, poskytuje Azure AI Studio během nasazování bezpečnostní filtr AI, aby se zajistilo zodpovědné použití AI. Bezpečnostní filtr obsahu AI umožňuje moderování škodlivého a citlivého obsahu pro zvýšení bezpečnosti aplikací s rozšířenými AI. Kromě filtru zabezpečení AI nabízí Azure AI Studio monitorování modelů pro nasazené modely. Monitorování modelů pro LLMs používá nejnovější jazykové modely GPT k monitorování a upozorňování, když výstupy modelu fungují špatně s nastavenými prahovými hodnotami bezpečnosti a kvality generování. Můžete například nakonfigurovat monitorování, které vyhodnotí, jak dobře vygenerované odpovědi modelu odpovídají informacím ze vstupního zdroje ("uzemnění") a úzce odpovídají základní větě nebo dokumentu pravdy ("podobnost").

Optimalizace výkonu nasazeného modelu

Optimalizace LLM vyžaduje pečlivé zvážení několika faktorů, včetně provozních metrik (např. latence), metrik kvality (např. přesnosti) a nákladů. Je důležité pracovat se zkušenými datovými vědci a inženýry, abyste měli jistotu, že je váš model optimalizovaný pro váš konkrétní případ použití.

Další kroky