Poznámka:
Přístup k této stránce vyžaduje autorizaci. Můžete se zkusit přihlásit nebo změnit adresáře.
Přístup k této stránce vyžaduje autorizaci. Můžete zkusit změnit adresáře.
Objevte výkon generující umělé inteligence pomocí JavaScriptu. Zjistěte, jak bezproblémově integrovat AI do webových, mobilních nebo desktopových aplikací.
JavaScript s AI?
I když je pravda, že Python je skvělý pro vytváření a trénování modelů AI, vytváření aplikací s těmito modely se liší. Většina modelů AI funguje prostřednictvím webových rozhraní API, takže jakýkoli jazyk, který může provádět volání HTTP, může používat AI. JavaScript je multiplatformní a snadno propojuje prohlížeče a servery, takže je pro aplikace AI silnou volbou.
Zábavný a interaktivní kurz
Připojte se k nám pro imerzivní výukové prostředí, včetně videí, projektů kódu a úplné implementace pro použití a seznámení s generováním umělé inteligence.
Tento kurz je skvělý způsob, jak se studenti a noví vývojáři dozvědět o umělé inteligenci zábavným interaktivním způsobem. Pro kariérní vývojáře se hlouběji ponořte do rozšiřování znalostí v oblasti AI.
V tomto kurzu:
- Seznamte se s AI a přineste si historické postavy do života pomocí generující umělé inteligence
- Použití přístupnosti pomocí integrovaných rozhraní API prohlížeče
- Použití generování textu a obrázku k integraci umělé inteligence do prostředí aplikace
- Seznámení se vzory architektury pro aplikace AI
Použijte průvodní aplikaci ke komunikaci s historickými charaktery
Co potřebujete vědět o LLM?
Velké jazykové modely (LLM) jsou hluboké neurální sítě natrénované na spoustě dat, aby porozuměly textu a vytvořily text. Trénování začíná velkými a různorodými datovými sadami k vytvoření základního modelu a následné použití speciálních dat k vyladění lepších výsledků. LLM fungují jako inteligentní nástroje automatického dokončování v editorech kódu nebo chatovacích aplikacích. Modely mají omezení, jako jsou kontextová okna (obvykle několik tisíc tokenů, i když novější modely podporují více) a můžou zobrazovat předsudky z trénovacích dat. Proto je zodpovědná AI důležitá – zaměřte se na nestrannost, spolehlivost, ochranu osobních údajů a odpovědnost, jak microsoft doporučuje.
Další informace najdete v relaci LLM kurzu.
Základní techniky navrhování výzev
Prompt engineering means designing prompts to get better AI results. K vedení modelu můžete použít učení s nulovým snímkem (žádné příklady) nebo učení s několika snímky (s příklady). Přidání pokynů, jako jsou podrobné pokyny, jasný kontext a výstupní formáty, pomáhá modelu poskytovat lepší odpovědi. Můžete také upravit tón a přizpůsobit odpovědi. Tyto základy vás nastavují pro pokročilé techniky, jako je RAG.
Další informace o navrhování promptů naleznete na sezení v kurzu.
Zlepšení přesnosti a spolehlivosti AI s využitím RAG
Použití funkce Retrieval Augmented Generation (RAG) k zajištění přesnější a spolehlivější umělé inteligence RAG kombinuje načítač, který najde up-to-date dokumenty s generátorem, který tyto dokumenty používá k zodpovězení otázek. Tento přístup poskytuje jasné, faktické odpovědi založené na důvěryhodných zdrojích, což usnadňuje kontrolu a nákladově efektivní výsledky. Například podpora nemovitostí společnosti Contoso používá RAG k poskytnutí podrobných odpovědí založených na dokumentech společnosti.
Další informace najdete v relaci RAG kurzu:
Zrychlení vývoje umělé inteligence pomocí LangChain.js
Urychlíte své projekty AI pomocí LangChain.js. Tato javascriptová knihovna usnadňuje práci s velkými jazykovými modely. Pomocí LangChain.js můžete vytvářet šablony výzvy, připojovat modely a vektorové databáze a vytvářet složité pracovní postupy. Rychle prototypujte aplikace, jako je rozhraní API, které načítá otázky a odpovídá na otázky z přepisů z YouTube. Až budete připraveni na produkční prostředí, prohoďte místní modely a úložiště vektorů pro služby Azure beze změny kódu.
Další informace najdete v LangChain.js lekci kurzu.
Spouštění modelů AI na místním počítači pomocí Ollama
Stáhněte a používejte místní modely AI s Ollama – opensourcovým nástrojem založeným na llama.cpp – k efektivnímu spouštění malých jazykových modelů, jako je Phi-3. Místní modely eliminují závislost na cloudové infrastruktuře, umožňují rychlý vývoj s offline funkcemi a nabízejí nákladově efektivní testování prostřednictvím rychlé vnitřní vývojové smyčky. Phi-3, který je známý pro vysoký výkon a zodpovědnou bezpečnost umělé inteligence, může běžet i na středně specificiálních zařízeních a je přístupný prostřednictvím rozhraní API kompatibilního s OpenAI, což usnadňuje integraci s pracovním postupem vývoje.
Další informace najdete v relaci kurzuOllama:
Začínáme s AI zdarma s využitím Phi-3
Vyzkoušejte modely AI s nástrojem Ollama a modelem Phi-3 v prohlížeči pomocí online dětského hřiště. Vytvořte GitHub Codespace pro použití VS Code v prohlížeči, spusťte příkazy, jako je "Ollama run phi3" pro chatování s modelem, a použijte poznámkový blok Jupyter k otestování přípravy, učení s několika snímky a RAG. Projekty AI můžete vytvářet a prozkoumávat online – nemusíte mít rychlé gpu ani místní nastavení.
Další informace najdete v sekci Phi-3 v rámci kurzu:
Úvod do Azure AI Foundry
Pomocí Azure AI Foundry můžete začít vytvářet generování aplikací AI pomocí JavaScriptu. Uspořádejte prostředky pomocí center a projektů, procházejte tisíce modelů a nasaďte model pro testování v dětském hřišti. Bez ohledu na to, jestli vyberete spravovaná výpočetní prostředí nebo bezserverová rozhraní API, použijte stejný postup k výběru, nasazení a použití modelu ve vašem pracovním postupu.
Další informace najdete v kurzu v sekciAzure AI Foundry.
Vytváření aplikací generující AI pomocí služby Azure Cosmos DB
Další informace najdete v relaci služby Azure Cosmos DB kurzu:
Nástroje Azure & služby pro hostování a ukládání aplikací AI
Objevte klíčové nástroje a služby Azure pro hostování a ukládání aplikací AI. Vytvářejte různé typy aplikací AI, jako jsou chatovací aplikace, RAG a autonomní agenti. K snadnému nasazení použijte Azure Developer CLI (AZD). Porovnejte bezserverové a kontejnerové možnosti a zjistěte, jak zajistit zabezpečení, škálovatelnost a monitorování rozhraní API pro skutečné použití.
Další informace najdete v rámci kurzu v sekci nástroje a služby Azure.
Streamování výstupu generující AI pomocí protokolu chatu AI
Streamování generování výstupu AI pomocí protokolu chatu AI Tento nástroj usnadňuje komunikaci mezi službou AI a klientskými aplikacemi v reálném čase. Vyzkoušejte dvě metody streamování: spusťte odvozování v prohlížeči nebo použijte server pro odvozování AI. Dávejte pozor na odhalení klíče rozhraní API, bezpečnost dat a výběr správného protokolu. Jednoduchý klient protokolu AI Chat umožňuje přidat do aplikace zabezpečené a efektivní streamování pomocí metod getCompletion a getStreamedCompletion, jak je znázorněno v našem bezserverovém RAG s LangChain.js příkladu.
Další informace najdete v relaci streamování kurzu.