Condividi tramite


Intelligenza artificiale generativa per sviluppatori JavaScript

Usare JavaScript per creare funzionalità di intelligenza artificiale generative nelle app Web, per dispositivi mobili e desktop. Questa panoramica illustra i concetti di base, gli strumenti e le risorse di apprendimento per iniziare.

Perché usare JavaScript per l'intelligenza artificiale?

Python è una scelta comune per il training dei modelli di intelligenza artificiale, ma la maggior parte degli sviluppatori di app usa modelli tramite API Web. Poiché JavaScript viene eseguito tra browser e server e gestisce correttamente le chiamate HTTP, è una scelta pratica per la creazione di app di intelligenza artificiale.

Seguire il corso complementare

Usa il corso complementare per apprendere attraverso video, progetti di codice e un esempio completo ed esaustivo.

Se sei uno studente o un nuovo sviluppatore, questo corso offre un modo pratico per imparare l'IA. Se si creano già app professionalmente, è possibile approfondire le competenze di intelligenza artificiale.

In questo corso:

  • Impara l'IA dando vita a figure storiche con l'intelligenza artificiale generativa.
  • Applicare l'accessibilità usando le API del browser predefinite.
  • Usare la generazione di testo e immagini per integrare l'intelligenza artificiale nell'esperienza dell'app.
  • Informazioni sui modelli architetturali per le applicazioni di intelligenza artificiale.

Immagine generata dall'IA di Leonardo Da Vinci usata nell'app complementare per parlare con personaggi storici.

Usa l'applicazione associata per comunicare con i personaggi storici

Informazioni sui moduli APM

I modelli di linguaggio di grandi dimensioni (LLM) sono reti neurali addestrate su set di dati di grandi dimensioni per comprendere e generare testo. Il training inizia in genere con un modello di base ampio e quindi aggiunge l'ottimizzazione per attività specifiche. I llms possono essere utili per scenari come il completamento del codice e la chat, ma hanno anche limiti, tra cui finestre di contesto e possibili distorsioni nei dati di training. Ecco perché le procedure di IA responsabili, ad esempio equità, affidabilità, privacy e responsabilità, sono importanti.

Per altre informazioni, vedere la sessione LLM del corso:

Usare tecniche di progettazione prompt

La progettazione dei prompt è la pratica di scrittura di richieste che guidano il modello verso risultati migliori. Usare richieste zero-shot quando non sono necessari esempi o richieste di pochi scatti quando gli esempi aiutano. Istruzioni chiare, contesto pertinente e formati di output espliciti spesso migliorano le risposte e preparano l'utente per modelli più avanzati, ad esempio RAG.

Scopri di più nella sessione di progettazione dei prompt del corso:

Migliorare l'accuratezza e l'affidabilità dell'intelligenza artificiale con RAG

Usare la generazione aumentata con recupero (RAG) per basare le risposte del modello su dati correnti e attendibili. Rag combina un retriever che trova contenuto pertinente con un generatore che usa tale contenuto per rispondere alle domande. Questo approccio può migliorare l'accuratezza, semplificare la verifica delle risposte e controllare i costi. Ad esempio, un'app di supporto immobiliare può usare i documenti aziendali per rispondere a domande dettagliate sui clienti.

Scopri di più nella sessione RAG del corso.

Velocizzare lo sviluppo di intelligenza artificiale con LangChain.js

Velocizzare i progetti di intelligenza artificiale con LangChain.js. Questa libreria JavaScript consente di creare modelli di richiesta, connettere modelli e archivi vettoriali e comporre flussi di lavoro complessi. Funziona bene per la creazione rapida di prototipi, ad esempio un'API che risponde alle domande delle trascrizioni di YouTube. Quando si è pronti per la produzione, è possibile scambiare modelli locali e archivi vettoriali per i servizi di Azure senza riscrivere l'app.

Per altre informazioni, vedere la sessioneLangChain.js del corso:

Eseguire modelli di intelligenza artificiale nel computer locale con Ollama

Usare Ollama per eseguire modelli di intelligenza artificiale locali, tra cui Phi-3, nel computer. I modelli locali riducono le dipendenze cloud, supportano lo sviluppo offline e riducono il ciclo interno mentre si testano idee. Poiché Ollama espone un'API compatibile con OpenAI, è possibile integrarla nei flussi di lavoro JavaScript esistenti con modifiche minime.

Per altre informazioni, vedere la sessione di Ollama del corso:

Introduzione all'intelligenza artificiale gratuitamente

È possibile eseguire gratuitamente l'intelligenza artificiale usando Foundry Local, che consente di scaricare i modelli di intelligenza artificiale e di interagire con essi in locale. È disponibile anche AI Toolkit per Visual Studio Code, un'estensione che supporta il download del modello, l'ottimizzazione e altro ancora. Ollama è un'altra scelta popolare per l'esecuzione di modelli locali.

È anche possibile provare i modelli senza alcuna configurazione locale creando un GitHub Codespace e usando un notebook di Jupyter per testare la progettazione dei prompt, l'apprendimento con pochi scatti e rag.

Scopri di più nella sessione Phi-3 del corso:

Introduzione a Microsoft Foundry

Usare Microsoft Foundry per iniziare a creare app di intelligenza artificiale generative con JavaScript. Organizzare le risorse con hub e progetti, esplorare i modelli e distribuire un modello da testare in un playground. Indipendentemente dal fatto che si usino API di calcolo gestite o serverless, il flusso di lavoro rimane invariato: scegliere un modello, distribuirlo e integrarlo nell'app.

Per altre informazioni, vedere la sessione Foundry del corso:

Creare app di intelligenza artificiale generative con Azure Cosmos DB

Per altre informazioni, vedere la sessione di Azure Cosmos DB del corso:

Strumenti e servizi di Azure per l'hosting e l'archiviazione di app di intelligenza artificiale

Informazioni sugli strumenti e i servizi di Azure adatti alle architetture comuni delle app di intelligenza artificiale, tra cui app di chat, app RAG e agenti autonomi. Questa sessione illustra anche come usare l'interfaccia della riga di comando per sviluppatori di Azure per distribuire le app e confrontare le opzioni di hosting serverless e basate su contenitori.

Per altre informazioni, vedere la sessione degli strumenti e dei servizi di Azure del corso:

Trasmetti l'output dell'intelligenza artificiale generativa con il Protocollo di Chat AI

Usare il protocollo ai chat per supportare la comunicazione in tempo reale tra il servizio di intelligenza artificiale e le app client. È possibile trasmettere le risposte dal browser o da un server di inferenza di intelligenza artificiale, a seconda dell'architettura. Quando si implementa lo streaming, pianificare la protezione delle chiavi API, la sicurezza dei dati e la scelta del protocollo. Il client del protocollo supporta metodi come getCompletion e getStreamedCompletion, come illustrato nell'esempio RAG serverless con LangChain.js esempio.

Per altre informazioni, vedere la sessione streaming del corso: