Megosztás a következőn keresztül:


Generative AI for JavaScript – áttekintés

Fedezze fel a Generative AI és a JavaScript erejét. Megtudhatja, hogyan integrálhatja zökkenőmentesen az AI-t a webes, mobil- vagy asztali alkalmazásokba.

JavaScript mesterséges intelligenciával?

Bár igaz, hogy a Python valószínűleg a legjobb nyelv az AI-modellek létrehozásához, betanítása és finomhangolásához, ez egy másik történet, amikor alkalmazásokat kell létrehozni ezen AI-modellek használatával. A legtöbb AI-modell webes API-k használatával történik. Ez azt jelenti, hogy a HTTP-hívásokat kezdeményező nyelvek képesek a MI-re. Mivel a JavaScript platformfüggetlen, és zökkenőmentes integrációt biztosít a böngésző és a kiszolgálóoldali környezetek között, nagyszerű választás az AI-alkalmazások számára.

Szórakoztató és interaktív tanfolyam

Tartson velünk egy magával ragadó tanulási élményért, beleértve a videókat, a kódprojekteket és a teljes implementációt a generatív AI használatához és megismeréséhez.

Ez a kurzus nagyszerű módja annak, hogy a diákok és az új fejlesztők szórakoztató, interaktív módon ismerhetik meg az AI-t. A karrierépítők számára ismerkedjenek meg részletesebben a mesterséges intelligenciához való felskálázással.

Ebben a kurzusban:

  • Ismerje meg a mesterséges intelligenciát, miközben egy generatív mesterséges intelligenciával életre keltheti a történelmi személyiségeket.
  • Akadálymentesség alkalmazása a beépített böngésző API-kkal
  • Szöveg- és képlétrehozás használata az AI alkalmazásélménybe való integrálásához
  • Az AI-alkalmazások architekturális mintáinak megismerése

Egy AI által létrehozott kép Leonardo Da Vinciről, a társalkalmazásban a történelmi karakterekhez való beszélgetéshez.

A kísérőalkalmazás használata az előzménykarakterekhez való beszélgetéshez

Mit kell tudni az LLM-ekről?

A nagyméretű nyelvi modellek (LLM-ek) olyan mély neurális hálózatok, amelyek nagy mennyiségű adatra vannak betanítva, hogy jogkivonatos bemeneteken keresztül felismerjék és létrehozzanak szöveget. Az LLM-eket kezdetben változatos, széles körű adathalmazokra – egy költséges folyamatra – való betanítással készítik el, hogy létrehozzák az alapvető modellt, amelyet aztán speciális adatokkal finomhangolhatnak a jobb minőségű kimenet érdekében. A gyakorlatban ezek a modellek speciális automatikus kiegészítési rendszerekhez hasonlóan működnek, akár egy tipikus IDE-ben, akár a részletes utasításokat követő csevegőfelületeken keresztül. Azonban a kontextusablakok korlátozottak (általában néhány ezer token, bár az újabb modellek ennél sokkal többet is támogatnak), és a betanítási adatokból származó torzításokat is örökölhetnek. Ez kiemeli a felelős AI-gyakorlatok fontosságát, például a Microsoft által javasolt eljárásokat, amelyek a méltányosságot, a megbízhatóságot, az adatvédelemet és az elszámoltathatóságot hangsúlyozzák az AI-fejlesztés során.

További információ a tanfolyam LLM-munkamenetében:

Alapvető promptmérnöki technikák

A parancssori tervezés magában foglalja az AI-modellek kimeneteinek továbbfejlesztésére vonatkozó kérések tervezését és optimalizálását. Ebben a szekcióban olyan technikákkal vezetik be a koncepciót, mint a nulla lövésű tanulás, ahol a modell példák nélkül hoz létre válaszokat a betanítási adatokkal, és néhány lövéses tanulással, ahol példák irányítják a kívánt eredményt. Az előadó bemutatja, hogyan javíthatja jelentősen a modell válaszait az olyan jelek hozzáadása, mint a gondolatlánckifejezések, amelyek a lépésenkénti érvelést, az egyértelmű utasításokat, a kontextust és a kimeneti formátumok megadását támogatják. Ha egy forgatókönyvet használ a Contoso Shoes AI-asszisztensével, a módosítások, mint például a tónusmódosítások és a személyre szabás, további finomítást eredményeznek, és megalapozzák a következő lépést az olyan haladóbb technikák számára, mint a RAG a következő munkamenetben.

További információ a kurzus gyors mérnöki munkamenetében:

Az AI pontosságának és megbízhatóságának javítása a RAG használatával

Az AI pontosságának és megbízhatóságának javítása a Retrieveal Augmented Generation (RAG) használatával. A RAG a hagyományos nagy nyelvi modellek korlátait egy olyan lekérő kombinálásával oldja meg, amely releváns, up-to-date dokumentumokat kér le egy tudásbázisból egy generátorral, amely az adott kontextus alapján készíti el a válaszokat. Ez a módszer azáltal biztosítja a tényszerű, átlátható válaszokat, hogy megbízható forrásokban határozza meg a kimenetet, így költséghatékony és ellenőrizhető. A Contoso ingatlantámogatással kapcsolatos gyakorlati példa bemutatja, hogyan képes a RAG hatékonyan részletes, idézett válaszokat nyújtani a vállalati dokumentumok segítségével a válaszok biztonsági mentéséhez.

További információ a tanfolyam RAG-munkamenetében:

Gyorsítsa fel az AI-fejlesztést a LangChain.js segítségével

Felgyorsíthatja az AI-fejlesztést a LangChain.jshasználatával – ez egy JavaScript-kódtár, amely leegyszerűsíti a nagy nyelvi modellek használatát. LangChain.js magas szintű absztrakciókat biztosít a parancssori sablonok létrehozásához, a modell- és vektoradatbázis-összetevők kezeléséhez, valamint összetett munkafolyamatok létrehozásához. A keretrendszer gyors prototípus-készítést tesz lehetővé, például olyan API-t hoz létre, amely YouTube-átiratokat nyer ki és dolgoz fel a kérdések megválaszolásához, és leegyszerűsíti a helyi fejlesztésről az Azure-beli éles környezetre való áttérést azáltal, hogy lehetővé teszi az egyszerű összetevők cseréjét, például a helyi modellek és vektortárolók Azure-szolgáltatásokkal való cseréjét.

További információ a kurzusLangChain.js szekciójában:

AI-modellek futtatása a helyi gépen az Ollama használatával

Töltse le és használja a helyi AI-modelleket az Ollama nyílt forráskódú, llama.cpp alapuló eszközével, hogy hatékonyan futtathassa az olyan kis nyelvi modelleket, mint a Phi-3. A helyi modellek megszüntetik a felhőinfrastruktúrára való támaszkodást, lehetővé teszik a gyors fejlesztést offline képességekkel, és költséghatékony tesztelést tesznek lehetővé egy gyors belső fejlesztési cikluson keresztül. A Nagy teljesítményű és felelős AI-biztonságról ismert Phi-3 közepes teljesítményű eszközökön is futtatható, és OpenAI-kompatibilis API-n keresztül érhető el, így könnyen integrálható a fejlesztési munkafolyamattal.

További információ a kurzus Ollama munkamenetében:

Az AI használatának első lépései ingyenesen a Phi-3 használatával

Kísérletezzen AI-modellekkel az Ollama eszközzel és a Phi-3 modellel közvetlenül a böngészőből egy online játszótéren keresztül. A GitHub Codespace létrehozásával a böngészőben használhat egy ismerős VS Code-szerkesztőt, futtathat olyan parancsokat, mint az Ollama run phi3 a terminálban, hogy csevegjen a modellel, és egy interaktív Jupyter-jegyzetfüzetet használjon a gyors tervezést, a kevés lövéses tanulást és a kiterjesztett generáció lekérését egy OpenAI-kompatibilis API-val szemléltető kódblokkok végrehajtásához. Ez a beállítás lehetővé teszi az AI-projektek teljes online megismerését és fejlesztését – nincs szükség gyors GPU-ra vagy helyi infrastruktúrára.

További információ a kurzus Phi-3 szekciójában:

Az Azure AI Foundry bemutatása

Az Azure AI Foundry olyan, mint az átjáró, amely a generatív AI-alkalmazások JavaScripttel való létrehozásához szükséges. Ebben a szekcióban bemutatjuk, hogyan szervezi az Foundry az erőforrásokat központokon és projekteken keresztül, hogyan ismerkedhet meg egy gazdag modellkatalógussal, amely több ezer modellt tartalmaz különböző szolgáltatóktól, és hogyan helyezhet üzembe egy modellt egy interaktív játszótéren való teszteléshez. Függetlenül attól, hogy felügyelt számítási vagy kiszolgáló nélküli API-beállításokat választ, az alapvető fogalmak konzisztensek maradnak, amikor kiválasztja, üzembe helyezi és integrálja a modellt a fejlesztési munkafolyamatba.

További információ a kurzus Azure AI Foundry-munkamenetében:

Generatív AI-alkalmazások létrehozása az Azure Cosmos DB-vel

További információ a kurzus Azure Cosmos DB-munkamenetében:

Azure-eszközök & AI-alkalmazások üzemeltetéséhez és tárolásához

Ismerje meg az AI-alkalmazások üzemeltetéséhez és tárolásához szükséges alapvető Azure-eszközöket és szolgáltatásokat. Megismerjük az AI-alkalmazások különböző típusait– a csevegőalkalmazásoktól a kiterjesztett generációs és autonóm ügynökök lekérésén át – és bemutatjuk a szükséges eszközöket, beleértve az Azure Developer CLI-t (AZD) a zökkenőmentes üzembe helyezéshez. Megismerheti az architekturális lehetőségeket, a kiszolgáló nélküli és a tárolóalapú megközelítések mérlegelését, valamint az API-k éles környezetben való kezelését a biztonság, a skálázás és a monitorozás szempontjaival, így biztosítva, hogy az AI-alkalmazások robusztusak és valós használatra készek legyenek.

További információ a kurzus Azure-eszközök és -szolgáltatások szekciójában:

Generatív AI-kimenet streamelése az AI-csevegési protokollal

A streamelési generatív AI-kimenet megismerése az AI Chat Protocol használatával, amely leegyszerűsíti a valós idejű kommunikációt a háttérbeli AI-következtetési szolgáltatás és az ügyfélalkalmazások között. Áttekintünk két streamelési módszert – a böngészőben és egy AI-következtetési kiszolgálón keresztül – az API-kulcsok expozíciójának, az adattisztításnak és a protokoll kiválasztásának kihívásairól. Az AI Chat Protocol egyszerűsített ügyféllel és szinkron (getCompletion) és aszinkron (getStreamedCompletion) metódusaival egyszerűen integrálhatja a biztonságos, hatékony és jól strukturált streamelést az AI-alkalmazásba, amint azt a kiszolgáló nélküli RAG LangChain.js mintával szemlélteti.

További információ a tanfolyam streamelési munkamenetében: