Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Scopri la potenza dell'intelligenza artificiale generativa con JavaScript. Informazioni su come integrare facilmente l'intelligenza artificiale nelle applicazioni Web, per dispositivi mobili o desktop.
JavaScript con intelligenza artificiale?
Anche se è vero che Python è ideale per la creazione e il training di modelli di intelligenza artificiale, la creazione di app con questi modelli è diversa. La maggior parte dei modelli di intelligenza artificiale funziona tramite API Web, in modo che qualsiasi linguaggio in grado di effettuare chiamate HTTP possa usare l'intelligenza artificiale. JavaScript è multipiattaforma e connette facilmente browser e server, rendendo la scelta ideale per le app di intelligenza artificiale.
Corso divertente e interattivo
Unisciti a noi per un'esperienza di apprendimento immersiva, inclusi video, progetti di codice e una completa implementazione per utilizzare e imparare l'intelligenza artificiale generativa.
Questo corso è un ottimo modo per consentire agli studenti e ai nuovi sviluppatori di apprendere l'IA in modo divertente e interattivo. Per gli sviluppatori professionisti, approfondite le vostre competenze per migliorare nell'intelligenza artificiale.
In questo corso:
- Impara l'intelligenza artificiale mentre dai vita a figure storiche con l'IA generativa.
- Applicare l'accessibilità con le API del browser predefinite
- Usare la generazione di testo e immagini per integrare l'intelligenza artificiale nell'esperienza dell'app
- Informazioni sui modelli architetturali per le applicazioni di intelligenza artificiale
Usa l'applicazione associata per comunicare con i personaggi storici
Che cosa è necessario sapere sui moduli APM?
I modelli di linguaggio di grandi dimensioni sono reti neurali profonde con training su molti dati per comprendere e creare testo. Il training inizia con set di dati di grandi dimensioni e diversificati per creare un modello di base, quindi usa dati speciali per ottimizzare i risultati migliori. I llms funzionano come gli strumenti di completamento automatico intelligente negli editor di codice o nelle app di chat. I modelli hanno limiti, ad esempio le finestre di contesto (in genere poche migliaia di token, anche se i modelli più recenti supportano di più) e possono mostrare distorsioni dai dati di training. Ecco perché l'IA responsabile è importante: concentrarsi sull'equità, l'affidabilità, la privacy e la responsabilità, come consigliato da Microsoft.
Per altre informazioni, vedere la sessione LLM del corso:
Tecniche essenziali di ingegneria dei prompt
La progettazione dei prompt significa progettare richieste per ottenere risultati di intelligenza artificiale migliori. È possibile usare l'apprendimento zero-shot (senza esempi) o l'apprendimento con pochi scatti (con esempi) per guidare il modello.You can use zero-shot learning (no examples) or few-shot learning (with examples) to guide the model. L'aggiunta di segnali come istruzioni dettagliate, contesto chiaro e formati di output consente al modello di fornire risposte migliori. È anche possibile regolare il tono e personalizzare le risposte. Queste nozioni di base ti configurano per tecniche avanzate come RAG.
Scopri di più nella sessione di progettazione dei prompt del corso:
Migliorare l'accuratezza e l'affidabilità dell'intelligenza artificiale con RAG
Usare la generazione aumentata di recupero (RAG) per rendere l'intelligenza artificiale più accurata e affidabile. Rag combina un retriever che trova up-to-date documenti con un generatore che usa tali documenti per rispondere alle domande. Questo approccio offre risposte chiare e effettive basate su fonti attendibili, semplificando il controllo e la convenienza dei risultati. Ad esempio, il supporto immobiliare contoso usa rag per fornire risposte dettagliate supportate dai documenti aziendali.
Scopri di più nella sessione RAG del corso.
Velocizzare lo sviluppo di intelligenza artificiale con LangChain.js
Velocizzare i progetti di intelligenza artificiale con LangChain.js. Questa libreria JavaScript semplifica l'uso di modelli di linguaggio di grandi dimensioni. Usare LangChain.js per creare modelli di richiesta, connettere modelli e database vettoriali e creare flussi di lavoro complessi. Creare rapidamente prototipi di app, ad esempio un'API che esegue il pull e le risposte alle domande dalle trascrizioni di YouTube. Quando si è pronti per la produzione, scambiare modelli locali e archivi vettoriali per i servizi di Azure senza modificare il codice.
Per altre informazioni, vedere la sessioneLangChain.js del corso:
Eseguire modelli di intelligenza artificiale nel computer locale con Ollama
Scaricare e usare modelli di intelligenza artificiale locali con Ollama, uno strumento open source basato su llama.cpp, per eseguire in modo efficiente modelli linguistici di piccole dimensioni come Phi-3. I modelli locali eliminano la dipendenza dall'infrastruttura cloud, consentono lo sviluppo rapido con funzionalità offline e offrono test convenienti tramite un ciclo di sviluppo interno rapido. Phi-3, nota per le prestazioni elevate e la sicurezza dell'IA responsabile, può essere eseguito anche su dispositivi con specifiche moderate ed è accessibile tramite un'API compatibile con OpenAI, semplificando l'integrazione con il flusso di lavoro di sviluppo.
Per altre informazioni, vedere la sessione di Ollama del corso:
Introduzione all'intelligenza artificiale gratuitamente con Phi-3
Provare i modelli di intelligenza artificiale con lo strumento Ollama e il modello Phi-3 nel browser usando un playground online. Creare un GitHub Codespace per usare VS Code nel browser, eseguire comandi come "Ollama run phi3" per chattare con il modello e usare un notebook jupyter per testare la progettazione dei prompt, l'apprendimento con pochi scatti e RAG. È possibile compilare ed esplorare i progetti di intelligenza artificiale online, senza bisogno di una GPU veloce o di una configurazione locale.
Scopri di più nella sessione Phi-3 del corso:
Introduzione ad Azure AI Foundry
Usare Azure AI Foundry per iniziare a creare app di intelligenza artificiale generative con JavaScript. Organizzare le risorse con hub e progetti, esplorare migliaia di modelli e distribuire un modello da testare in un playground. Indipendentemente dal fatto che si selezionino API di calcolo gestite o serverless, seguire la stessa procedura per selezionare, distribuire e usare il modello nel flusso di lavoro.
Per altre informazioni, vedere la sessione di Azure AI Foundry del corso:
Creazione di app di intelligenza artificiale generative con Azure Cosmos DB
Per altre informazioni, vedere la sessione di Azure Cosmos DB del corso:
Strumenti di Azure & servizi per l'hosting e l'archiviazione di app di intelligenza artificiale
Individuare i principali strumenti e servizi di Azure per l'hosting e l'archiviazione delle app di intelligenza artificiale. Creare diversi tipi di app di intelligenza artificiale, ad esempio app di chat, RAG e agenti autonomi. Usare l'interfaccia della riga di comando per sviluppatori di Azure (AZD) per distribuire facilmente. Confrontare le opzioni serverless e basate su contenitori e informazioni su come mantenere le API sicure, scalabili e monitorate per l'uso reale.
Per altre informazioni, vedere la sessione degli strumenti e dei servizi di Azure del corso:
Streaming dell'output dell'intelligenza artificiale generativa con il protocollo di chat dell'IA
Generare l'output di intelligenza artificiale di flusso con il protocollo di chat di intelligenza artificiale. Questo strumento semplifica la comunicazione in tempo reale tra il servizio di intelligenza artificiale e le app client. Provare due metodi di streaming: eseguire l'inferenza nel browser o usare un server di inferenza di intelligenza artificiale. Prestare attenzione all'esposizione delle chiavi API, alla sicurezza dei dati e alla scelta del protocollo corretto. Il client semplice di AI Chat Protocol consente di aggiungere streaming sicuro ed efficiente all'app usando i metodi getCompletion e getStreamedCompletion, come illustrato nell'esempio rag serverless con LangChain.js esempio.
Per altre informazioni, vedere la sessione streaming del corso: