Sdílet prostřednictvím


Přehled generativní umělé inteligence pro JavaScript

Objevte výkon generující umělé inteligence pomocí JavaScriptu. Zjistěte, jak bezproblémově integrovat AI do webových, mobilních nebo desktopových aplikací.

JavaScript s AI?

I když je pravda, že Python je skvělý pro vytváření a trénování modelů AI, vytváření aplikací s těmito modely se liší. Většina modelů AI funguje prostřednictvím webových rozhraní API, takže jakýkoli jazyk, který může provádět volání HTTP, může používat AI. JavaScript je multiplatformní a snadno propojuje prohlížeče a servery, takže je pro aplikace AI silnou volbou.

Zábavný a interaktivní kurz

Připojte se k nám pro imerzivní výukové prostředí, včetně videí, projektů kódu a úplné implementace pro použití a seznámení s generováním umělé inteligence.

Tento kurz je skvělý způsob, jak se studenti a noví vývojáři dozvědět o umělé inteligenci zábavným interaktivním způsobem. Pro kariérní vývojáře se hlouběji ponořte do rozšiřování znalostí v oblasti AI.

V tomto kurzu:

  • Seznamte se s AI a přineste si historické postavy do života pomocí generující umělé inteligence
  • Použití přístupnosti pomocí integrovaných rozhraní API prohlížeče
  • Použití generování textu a obrázku k integraci umělé inteligence do prostředí aplikace
  • Seznámení se vzory architektury pro aplikace AI

obrázek Leonarda Da Vinci vygenerovaný pomocí umělé inteligence, který se používá v doprovodné aplikaci ke komunikaci s historickými postavami.

Použijte průvodní aplikaci ke komunikaci s historickými charaktery

Co potřebujete vědět o LLM?

Velké jazykové modely (LLM) jsou hluboké neurální sítě natrénované na spoustě dat, aby porozuměly textu a vytvořily text. Trénování začíná velkými a různorodými datovými sadami k vytvoření základního modelu a následné použití speciálních dat k vyladění lepších výsledků. LLM fungují jako inteligentní nástroje automatického dokončování v editorech kódu nebo chatovacích aplikacích. Modely mají omezení, jako jsou kontextová okna (obvykle několik tisíc tokenů, i když novější modely podporují více) a můžou zobrazovat předsudky z trénovacích dat. Proto je zodpovědná AI důležitá – zaměřte se na nestrannost, spolehlivost, ochranu osobních údajů a odpovědnost, jak microsoft doporučuje.

Další informace najdete v relaci LLM kurzu.

Základní techniky navrhování výzev

Prompt engineering means designing prompts to get better AI results. K vedení modelu můžete použít učení s nulovým snímkem (žádné příklady) nebo učení s několika snímky (s příklady). Přidání pokynů, jako jsou podrobné pokyny, jasný kontext a výstupní formáty, pomáhá modelu poskytovat lepší odpovědi. Můžete také upravit tón a přizpůsobit odpovědi. Tyto základy vás nastavují pro pokročilé techniky, jako je RAG.

Další informace o navrhování promptů naleznete na sezení v kurzu.

Zlepšení přesnosti a spolehlivosti AI s využitím RAG

Použití funkce Retrieval Augmented Generation (RAG) k zajištění přesnější a spolehlivější umělé inteligence RAG kombinuje načítač, který najde up-to-date dokumenty s generátorem, který tyto dokumenty používá k zodpovězení otázek. Tento přístup poskytuje jasné, faktické odpovědi založené na důvěryhodných zdrojích, což usnadňuje kontrolu a nákladově efektivní výsledky. Například podpora nemovitostí společnosti Contoso používá RAG k poskytnutí podrobných odpovědí založených na dokumentech společnosti.

Další informace najdete v relaci RAG kurzu:

Zrychlení vývoje umělé inteligence pomocí LangChain.js

Urychlíte své projekty AI pomocí LangChain.js. Tato javascriptová knihovna usnadňuje práci s velkými jazykovými modely. Pomocí LangChain.js můžete vytvářet šablony výzvy, připojovat modely a vektorové databáze a vytvářet složité pracovní postupy. Rychle prototypujte aplikace, jako je rozhraní API, které načítá otázky a odpovídá na otázky z přepisů z YouTube. Až budete připraveni na produkční prostředí, prohoďte místní modely a úložiště vektorů pro služby Azure beze změny kódu.

Další informace najdete v LangChain.js lekci kurzu.

Spouštění modelů AI na místním počítači pomocí Ollama

Stáhněte a používejte místní modely AI s Ollama – opensourcovým nástrojem založeným na llama.cpp – k efektivnímu spouštění malých jazykových modelů, jako je Phi-3. Místní modely eliminují závislost na cloudové infrastruktuře, umožňují rychlý vývoj s offline funkcemi a nabízejí nákladově efektivní testování prostřednictvím rychlé vnitřní vývojové smyčky. Phi-3, který je známý pro vysoký výkon a zodpovědnou bezpečnost umělé inteligence, může běžet i na středně specificiálních zařízeních a je přístupný prostřednictvím rozhraní API kompatibilního s OpenAI, což usnadňuje integraci s pracovním postupem vývoje.

Další informace najdete v relaci kurzuOllama:

Začínáme s AI zdarma s využitím Phi-3

Vyzkoušejte modely AI s nástrojem Ollama a modelem Phi-3 v prohlížeči pomocí online dětského hřiště. Vytvořte GitHub Codespace pro použití VS Code v prohlížeči, spusťte příkazy, jako je "Ollama run phi3" pro chatování s modelem, a použijte poznámkový blok Jupyter k otestování přípravy, učení s několika snímky a RAG. Projekty AI můžete vytvářet a prozkoumávat online – nemusíte mít rychlé gpu ani místní nastavení.

Další informace najdete v sekci Phi-3 v rámci kurzu:

Úvod do Azure AI Foundry

Pomocí Azure AI Foundry můžete začít vytvářet generování aplikací AI pomocí JavaScriptu. Uspořádejte prostředky pomocí center a projektů, procházejte tisíce modelů a nasaďte model pro testování v dětském hřišti. Bez ohledu na to, jestli vyberete spravovaná výpočetní prostředí nebo bezserverová rozhraní API, použijte stejný postup k výběru, nasazení a použití modelu ve vašem pracovním postupu.

Další informace najdete v kurzu v sekciAzure AI Foundry.

Vytváření aplikací generující AI pomocí služby Azure Cosmos DB

Další informace najdete v relaci služby Azure Cosmos DB kurzu:

Nástroje Azure & služby pro hostování a ukládání aplikací AI

Objevte klíčové nástroje a služby Azure pro hostování a ukládání aplikací AI. Vytvářejte různé typy aplikací AI, jako jsou chatovací aplikace, RAG a autonomní agenti. K snadnému nasazení použijte Azure Developer CLI (AZD). Porovnejte bezserverové a kontejnerové možnosti a zjistěte, jak zajistit zabezpečení, škálovatelnost a monitorování rozhraní API pro skutečné použití.

Další informace najdete v rámci kurzu v sekci nástroje a služby Azure.

Streamování výstupu generující AI pomocí protokolu chatu AI

Streamování generování výstupu AI pomocí protokolu chatu AI Tento nástroj usnadňuje komunikaci mezi službou AI a klientskými aplikacemi v reálném čase. Vyzkoušejte dvě metody streamování: spusťte odvozování v prohlížeči nebo použijte server pro odvozování AI. Dávejte pozor na odhalení klíče rozhraní API, bezpečnost dat a výběr správného protokolu. Jednoduchý klient protokolu AI Chat umožňuje přidat do aplikace zabezpečené a efektivní streamování pomocí metod getCompletion a getStreamedCompletion, jak je znázorněno v našem bezserverovém RAG s LangChain.js příkladu.

Další informace najdete v relaci streamování kurzu.