Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Usare JavaScript per creare funzionalità di intelligenza artificiale generative nelle app Web, per dispositivi mobili e desktop. Questa panoramica illustra i concetti di base, gli strumenti e le risorse di apprendimento per iniziare.
Perché usare JavaScript per l'intelligenza artificiale?
Python è una scelta comune per il training dei modelli di intelligenza artificiale, ma la maggior parte degli sviluppatori di app usa modelli tramite API Web. Poiché JavaScript viene eseguito tra browser e server e gestisce correttamente le chiamate HTTP, è una scelta pratica per la creazione di app di intelligenza artificiale.
Seguire il corso complementare
Usa il corso complementare per apprendere attraverso video, progetti di codice e un esempio completo ed esaustivo.
Se sei uno studente o un nuovo sviluppatore, questo corso offre un modo pratico per imparare l'IA. Se si creano già app professionalmente, è possibile approfondire le competenze di intelligenza artificiale.
In questo corso:
- Impara l'IA dando vita a figure storiche con l'intelligenza artificiale generativa.
- Applicare l'accessibilità usando le API del browser predefinite.
- Usare la generazione di testo e immagini per integrare l'intelligenza artificiale nell'esperienza dell'app.
- Informazioni sui modelli architetturali per le applicazioni di intelligenza artificiale.
Usa l'applicazione associata per comunicare con i personaggi storici
Informazioni sui moduli APM
I modelli di linguaggio di grandi dimensioni (LLM) sono reti neurali addestrate su set di dati di grandi dimensioni per comprendere e generare testo. Il training inizia in genere con un modello di base ampio e quindi aggiunge l'ottimizzazione per attività specifiche. I llms possono essere utili per scenari come il completamento del codice e la chat, ma hanno anche limiti, tra cui finestre di contesto e possibili distorsioni nei dati di training. Ecco perché le procedure di IA responsabili, ad esempio equità, affidabilità, privacy e responsabilità, sono importanti.
Per altre informazioni, vedere la sessione LLM del corso:
Usare tecniche di progettazione prompt
La progettazione dei prompt è la pratica di scrittura di richieste che guidano il modello verso risultati migliori. Usare richieste zero-shot quando non sono necessari esempi o richieste di pochi scatti quando gli esempi aiutano. Istruzioni chiare, contesto pertinente e formati di output espliciti spesso migliorano le risposte e preparano l'utente per modelli più avanzati, ad esempio RAG.
Scopri di più nella sessione di progettazione dei prompt del corso:
Migliorare l'accuratezza e l'affidabilità dell'intelligenza artificiale con RAG
Usare la generazione aumentata con recupero (RAG) per basare le risposte del modello su dati correnti e attendibili. Rag combina un retriever che trova contenuto pertinente con un generatore che usa tale contenuto per rispondere alle domande. Questo approccio può migliorare l'accuratezza, semplificare la verifica delle risposte e controllare i costi. Ad esempio, un'app di supporto immobiliare può usare i documenti aziendali per rispondere a domande dettagliate sui clienti.
Scopri di più nella sessione RAG del corso.
Velocizzare lo sviluppo di intelligenza artificiale con LangChain.js
Velocizzare i progetti di intelligenza artificiale con LangChain.js. Questa libreria JavaScript consente di creare modelli di richiesta, connettere modelli e archivi vettoriali e comporre flussi di lavoro complessi. Funziona bene per la creazione rapida di prototipi, ad esempio un'API che risponde alle domande delle trascrizioni di YouTube. Quando si è pronti per la produzione, è possibile scambiare modelli locali e archivi vettoriali per i servizi di Azure senza riscrivere l'app.
Per altre informazioni, vedere la sessioneLangChain.js del corso:
Eseguire modelli di intelligenza artificiale nel computer locale con Ollama
Usare Ollama per eseguire modelli di intelligenza artificiale locali, tra cui Phi-3, nel computer. I modelli locali riducono le dipendenze cloud, supportano lo sviluppo offline e riducono il ciclo interno mentre si testano idee. Poiché Ollama espone un'API compatibile con OpenAI, è possibile integrarla nei flussi di lavoro JavaScript esistenti con modifiche minime.
Per altre informazioni, vedere la sessione di Ollama del corso:
Introduzione all'intelligenza artificiale gratuitamente
È possibile eseguire gratuitamente l'intelligenza artificiale usando Foundry Local, che consente di scaricare i modelli di intelligenza artificiale e di interagire con essi in locale. È disponibile anche AI Toolkit per Visual Studio Code, un'estensione che supporta il download del modello, l'ottimizzazione e altro ancora. Ollama è un'altra scelta popolare per l'esecuzione di modelli locali.
È anche possibile provare i modelli senza alcuna configurazione locale creando un GitHub Codespace e usando un notebook di Jupyter per testare la progettazione dei prompt, l'apprendimento con pochi scatti e rag.
Scopri di più nella sessione Phi-3 del corso:
Introduzione a Microsoft Foundry
Usare Microsoft Foundry per iniziare a creare app di intelligenza artificiale generative con JavaScript. Organizzare le risorse con hub e progetti, esplorare i modelli e distribuire un modello da testare in un playground. Indipendentemente dal fatto che si usino API di calcolo gestite o serverless, il flusso di lavoro rimane invariato: scegliere un modello, distribuirlo e integrarlo nell'app.
Per altre informazioni, vedere la sessione Foundry del corso:
Creare app di intelligenza artificiale generative con Azure Cosmos DB
Per altre informazioni, vedere la sessione di Azure Cosmos DB del corso:
Strumenti e servizi di Azure per l'hosting e l'archiviazione di app di intelligenza artificiale
Informazioni sugli strumenti e i servizi di Azure adatti alle architetture comuni delle app di intelligenza artificiale, tra cui app di chat, app RAG e agenti autonomi. Questa sessione illustra anche come usare l'interfaccia della riga di comando per sviluppatori di Azure per distribuire le app e confrontare le opzioni di hosting serverless e basate su contenitori.
Per altre informazioni, vedere la sessione degli strumenti e dei servizi di Azure del corso:
Trasmetti l'output dell'intelligenza artificiale generativa con il Protocollo di Chat AI
Usare il protocollo ai chat per supportare la comunicazione in tempo reale tra il servizio di intelligenza artificiale e le app client. È possibile trasmettere le risposte dal browser o da un server di inferenza di intelligenza artificiale, a seconda dell'architettura. Quando si implementa lo streaming, pianificare la protezione delle chiavi API, la sicurezza dei dati e la scelta del protocollo. Il client del protocollo supporta metodi come getCompletion e getStreamedCompletion, come illustrato nell'esempio RAG serverless con LangChain.js esempio.
Per altre informazioni, vedere la sessione streaming del corso: