Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Använd JavaScript för att skapa generativa AI-funktioner i dina webb-, mobil- och skrivbordsappar. Den här översikten beskriver grundläggande begrepp, verktyg och utbildningsresurser som hjälper dig att komma igång.
Varför ska du använda JavaScript för AI?
Python är ett vanligt val för att träna AI-modeller, men de flesta apputvecklare använder modeller via webb-API:er. Eftersom JavaScript körs mellan webbläsare och servrar och hanterar HTTP-anrop är det ett praktiskt val för att skapa AI-appar.
Gå den kompletterande kursen
Använd den kompletterande kursen för att lära dig genom videor, kodprojekt och ett fullständigt exempel från slutpunkt till slutpunkt.
Om du är student eller ny utvecklare ger den här kursen dig ett praktiskt sätt att lära dig AI. Om du redan skapar appar professionellt hjälper det dig att fördjupa dina AI-kunskaper.
I den här kursen:
- Lär dig AI medan du väcker historiska figurer till liv med generativ AI.
- Tillämpa tillgänglighet med hjälp av inbyggda webbläsar-API:er.
- Använd text- och bildgenerering för att integrera AI i appupplevelsen.
- Lär dig arkitekturmönster för AI-program.
Använd det tillhörande programmet för att prata med historiska tecken
Vad du bör veta om LLM:er
Stora språkmodeller (LLM) är neurala nätverk som tränats på stora datamängder för att förstå och generera text. Träningen börjar vanligtvis med en bred basmodell och lägger sedan till finjustering för specifika uppgifter. LLM:er kan hjälpa till med scenarier som slutförande av kod och chatt, men de har också begränsningar, inklusive kontextfönster och eventuell bias i träningsdata. Det är därför ansvarsfulla AI-metoder som rättvisa, tillförlitlighet, sekretess och ansvarsskyldighet spelar roll.
Läs mer i kursens LLM-session:
Använd tekniker för promptdesign
Prompt engineering är en metod för att skriva frågor som vägleder modellen mot bättre resultat. Använd zero-shot prompts när du inte behöver exempel, eller few-shot prompts när exempel hjälper. Tydliga instruktioner, relevant kontext och explicita utdataformat förbättrar ofta svaren och förbereder dig för mer avancerade mönster som RAG.
Läs mer i den tekniska sessionen för kursen:
Förbättra AI-noggrannheten och tillförlitligheten med RAG
Använd retrieval-augmented generation (RAG) för att basera modellsvar i aktuella, betrodda data. RAG kombinerar en retriever som hittar relevant innehåll med en generator som använder innehållet för att besvara frågor. Den här metoden kan förbättra noggrannheten, göra svar enklare att verifiera och kontrollera kostnader. Till exempel kan en fastighetssupportapp använda företagsdokument för att besvara detaljerade kundfrågor.
Läs mer i RAG-sessionen i kursen:
Påskynda DIN AI-utveckling med LangChain.js
Snabba upp dina AI-projekt med LangChain.js. Det här JavaScript-biblioteket hjälper dig att skapa promptmallar, ansluta modeller och vektorlager och skapa komplexa arbetsflöden. Det fungerar bra för snabba prototyper, till exempel ett API som svarar på frågor från YouTube-transkriptioner. När du är redo för produktion kan du byta lokala modeller och vektorlager mot Azure-tjänster utan att skriva om din app.
Läs mer i kursens LangChain.js session:
Köra AI-modeller på din lokala dator med Ollama
Använd Ollama för att köra lokala AI-modeller, inklusive Phi-3, på din dator. Lokala modeller minskar molnberoenden, stöder offlineutveckling och förkortar din inre loop medan du testar idéer. Eftersom Ollama exponerar ett OpenAI-kompatibelt API kan du integrera det i befintliga JavaScript-arbetsflöden med minimala ändringar.
Läs mer i kursens Ollama-session:
Kom igång med AI kostnadsfritt
Du kan köra AI kostnadsfritt med Hjälp av Foundry Local, som gör att du kan ladda ned AI-modeller och interagera med dem lokalt. Det finns även AI Toolkit för Visual Studio Code, ett tillägg som stöder nedladdning av modeller, finjustering med mera. Ollama är ett annat populärt val för att köra lokala modeller.
Du kan också prova modeller utan lokal konfiguration genom att skapa en GitHub Codespace och använda en Jupyter-notebook för att testa prompt engineering, få-exempel-inlärning och RAG.
Läs mer i Phi-3-sessionen i kursen:
Introduktion till Microsoft Foundry
Använd Microsoft Foundry för att börja skapa generativa AI-appar med JavaScript. Organisera resurser med hubbar och projekt, bläddra bland modeller och distribuera en modell för att testa på en lekplats. Oavsett om du använder hanterade beräknings- eller serverlösa API:er förblir arbetsflödet detsamma: välj en modell, distribuera den och integrera den i din app.
Läs mer i Foundry-sessionen i kursen:
Skapa generativa AI-appar med Azure Cosmos DB
Läs mer i Azure Cosmos DB-sessionen i kursen:
Azure-verktyg och -tjänster för att hantera och lagra AI-appar
Lär dig vilka Azure-verktyg och -tjänster som passar vanliga AI-apparkitekturer, inklusive chattappar, RAG-appar och autonoma agenter. Den här sessionen visar också hur du använder Azure Developer CLI (AZD) för att distribuera appar och jämföra serverlösa och containerbaserade värdalternativ.
Läs mer i azure-verktygs- och tjänstsessionen i kursen:
Strömma generativa AI-utdata med AI Chat Protocol
Använd AI Chat Protocol för att stödja realtidskommunikation mellan din AI-tjänst och klientappar. Du kan strömma svar från webbläsaren eller från en AI-slutsatsdragningsserver, beroende på din arkitektur. När du implementerar strömning planerar du för API-nyckelskydd, datasäkerhet och protokollval. Protokollklienten stöder metoder som getCompletion och getStreamedCompletion, som visas i den serverlösa RAG med LangChain.js exempel.
Läs mer i Streaming-sessionen i kursen: