Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Importante
Gli elementi contrassegnati (anteprima) in questo articolo sono attualmente disponibili in anteprima pubblica. Questa anteprima viene fornita senza un contratto di servizio e non è consigliabile per i carichi di lavoro di produzione. Alcune funzionalità potrebbero non essere supportate o potrebbero presentare funzionalità limitate. Per altre informazioni, vedere le Condizioni supplementari per l'uso delle anteprime di Microsoft Azure.
Prompt flow è uno strumento di sviluppo progettato per semplificare l'intero ciclo di sviluppo delle applicazioni di IA basate su Large Language Model (LLM). Prompt flow offre una soluzione completa che semplifica il processo di creazione di prototipi, la sperimentazione, l'iterazione e la distribuzione delle applicazioni di intelligenza artificiale.
Il flusso dei prompt è disponibile in modo indipendente come progetto open source su GitHub, con il proprio SDK e l'estensione di VS Code. Il flusso dei prompt è disponibile e consigliato anche da usare come funzionalità sia in Azure AI Foundry che in Azure Machine Learning Studio. Questo set di documentazione è incentrato sul flusso dei prompt nel portale di Azure AI Foundry.
Definizioni:
- Flusso di prompt è una funzione che può essere utilizzata per generare, personalizzare o eseguire un flusso.
- Un flusso è un set di istruzioni eseguibili che può implementare la logica di intelligenza artificiale. I flussi possono essere creati o eseguiti tramite più strumenti, ad esempio un canvas predefinito, LangChain e così via. Le iterazioni di un flusso possono essere salvate come asset. Dopo la distribuzione, un flusso diventa un'API. Non tutti i flussi sono prompt flow. Il prompt flow è invece un modo per creare un flusso.
- Un prompt è un pacchetto di input inviato a un modello, costituito dall'input dell'utente, dal messaggio di sistema e da qualsiasi esempio. L'input dell'utente è il testo inviato nella finestra della chat. Il messaggio di sistema è un set di istruzioni per il modello che definisce l'ambito dei relativi comportamenti e funzionalità.
- Un flusso di esempio è un flusso di orchestrazione semplice e predefinito che mostra il funzionamento dei flussi e può essere personalizzato.
- Un prompt di esempio è una richiesta definita per uno scenario specifico che può essere copiata da una libreria e usata as-is o modificata nella progettazione del prompt.
Vantaggi del flusso di richiesta
Con il flusso di prompt nel portale di Azure AI Foundry, è possibile:
- Orchestrare flussi eseguibili che collegano LLM, richieste e strumenti Python tramite un grafo visivo.
- Eseguire il debug, condividere e iterare i flussi con facilità tramite collaborazione in team.
- Creare varianti di richiesta e confrontarne le prestazioni.
Agilità dell'ingegneria dei prompt
- Esperienza di authoring interattiva: Il flusso di prompt fornisce una rappresentazione visiva della struttura del flusso, consentendo di comprendere ed esplorare facilmente i progetti.
- Varianti per l'adattamento dei prompt: è possibile creare e confrontare più varianti di prompt, semplificando un processo di perfezionamento iterativo.
- Valutazione: i flussi di valutazione predefiniti consentono di valutare la qualità e l'efficacia delle richieste e dei flussi.
- Risorse complete: Prompt flow include una libreria di strumenti integrati, esempi e modelli che fungono da punto di partenza per lo sviluppo, ispirano la creatività e accelerano il processo.
Preparazione aziendale
- Collaborazione: il flusso dei prompt supporta la collaborazione tra team, consentendo a più utenti di collaborare su progetti di progettazione dei prompt, condividere conoscenze e mantenere il controllo della versione.
- Piattaforma all-in-one: il flusso dei prompt semplifica l'intero processo di progettazione dei prompt, dallo sviluppo alla valutazione, fino alla distribuzione e al monitoraggio. È possibile distribuire facilmente i flussi come endpoint di Intelligenza artificiale di Azure e monitorarne le prestazioni in tempo reale, garantendo un funzionamento ottimale e un miglioramento continuo.
- Soluzioni di preparazione aziendale: il flusso dei prompt applica soluzioni Azure AI robuste per la preparazione aziendale, offrendo una base sicura, scalabile e affidabile per lo sviluppo, la sperimentazione e la distribuzione dei flussi.
Con il flusso di prompt nel portale di Azure AI Foundry, è possibile sfruttare l'agilità di ingegneria dei prompt, collaborare in modo efficace e applicare soluzioni di livello aziendale per lo sviluppo e la distribuzione di applicazioni basate su LLM.
Ciclo di vita di sviluppo del flusso
Il flusso dei prompt offre un processo ben definito che facilita lo sviluppo semplice di applicazioni di intelligenza artificiale. Usando questa funzionalità, è possibile progredire in modo efficace nelle fasi di sviluppo, test, ottimizzazione e distribuzione dei flussi, con conseguente creazione di applicazioni di intelligenza artificiale completa.
Il ciclo di vita è costituito dalle fasi seguenti:
- Inizializzazione: identificare il caso d'uso aziendale, raccogliere dati di esempio, imparare a creare un prompt di base e sviluppare un flusso che ne estenda le funzionalità.
- Sperimentazione: eseguire il flusso sui dati di esempio, valutare le prestazioni del prompt ed eseguire l'iterazione del flusso, se necessario. Continuare a sperimentare fino a raggiungere risultati soddisfacenti.
- Valutazione e perfezionamento: valutare le prestazioni del flusso eseguendola su un set di dati più grande, valutare l'efficacia della richiesta e perfezionarla in base alle esigenze. Procedere alla fase successiva se i risultati soddisfano i criteri desiderati.
- Produzione: ottimizzare il flusso per efficienza ed efficacia, distribuirlo, monitorare le prestazioni in un ambiente di produzione e raccogliere dati di utilizzo e feedback. Usare queste informazioni per migliorare il flusso e contribuire alle fasi precedenti per ulteriori iterazioni.
Seguendo questo approccio strutturato e metodico, il flusso di richiesta consente di sviluppare, testare rigorosamente, ottimizzare e distribuire flussi con fiducia, con conseguente creazione di applicazioni di intelligenza artificiale affidabili e sofisticate.
Tipi di flusso
Nel portale di Azure AI Foundry è possibile avviare un nuovo flusso selezionando un tipo di flusso o un modello dalla raccolta.
Ecco alcuni esempi di tipi di flusso:
- Flusso standard: progettato per lo sviluppo di applicazioni generali, il flusso standard consente di creare un flusso usando un'ampia gamma di strumenti predefiniti per lo sviluppo di applicazioni basate su LLM. Offre flessibilità e versatilità per lo sviluppo di applicazioni in domini diversi.
- Flusso di chat: personalizzato per lo sviluppo di applicazioni conversazionali, il flusso di chat si basa sulle funzionalità del flusso standard e offre supporto avanzato per input/output di chat e gestione della cronologia delle chat. Con la modalità di conversazione nativa e le funzionalità predefinite, è possibile sviluppare ed eseguire facilmente il debug delle applicazioni all'interno di un contesto di conversazione.
- Flusso di valutazione: progettato per gli scenari di valutazione, il flusso di valutazione consente di creare un flusso che accetta gli output del flusso precedente eseguito come input. Questo tipo di flusso consente di valutare le prestazioni dei risultati di esecuzione precedenti e di restituire metriche pertinenti, semplificando la valutazione e il miglioramento dei modelli o delle applicazioni.
Flussi
Un flusso in Flusso prompt funge da flusso di lavoro eseguibile che semplifica lo sviluppo dell'applicazione di intelligenza artificiale basata su LLM. Offre un framework completo per la gestione del flusso di dati e dell'elaborazione all'interno dell'applicazione.
All'interno di un flusso, i nodi prendono la fase centrale, rappresentando strumenti specifici con funzionalità univoche. Questi nodi gestiscono l'elaborazione dei dati, l'esecuzione delle attività e le operazioni algoritmiche, con input e output. Connettendo i nodi, si stabilisce una catena trasparente di operazioni che guida il flusso di dati attraverso l'applicazione.
Per facilitare la configurazione dei nodi e l'ottimizzazione, viene fornita una rappresentazione visiva della struttura del flusso di lavoro tramite un grafico DAG (Directed Acyclic Graph). Questo grafico illustra la connettività e le dipendenze tra nodi, fornendo una panoramica chiara dell'intero flusso di lavoro.
Con la funzionalità di flusso di Prompt, hai il potere di progettare, personalizzare e ottimizzare la logica della tua applicazione di intelligenza artificiale. La disposizione coesa dei nodi garantisce un'efficiente elaborazione dei dati e una gestione efficace del flusso, consentendo di creare applicazioni affidabili e avanzate.
Strumenti per il flusso di prompt
Gli strumenti sono i blocchi fondamentali di un flusso.
Nel portale di Azure AI Foundry le opzioni degli strumenti includono lo strumento LLM, lo strumento Prompt, lo strumento Python e altro ancora.
Ogni strumento è un'unità eseguibile semplice con una funzione specifica. Combinando diversi strumenti, è possibile creare un flusso che consenta di raggiungere un'ampia gamma di obiettivi. Ad esempio, è possibile usare lo strumento LLM per generare testo o riepilogare un articolo e lo strumento Python per elaborare il testo per informare il componente o il risultato del flusso successivo.
Uno dei vantaggi principali degli strumenti di flusso prompt è l'integrazione senza soluzione di continuità con le API di terze parti e i pacchetti open source Python. Ciò non solo migliora le funzionalità dei modelli linguistici di grandi dimensioni, ma rende anche il processo di sviluppo più efficiente per gli sviluppatori.
Se gli strumenti di flusso dei prompt nel portale di Azure AI Foundry non soddisfano i requisiti, è possibile sviluppare uno strumento personalizzato e renderlo un pacchetto di strumenti. Per scoprire altri strumenti personalizzati sviluppati dalla community open source, visitare gli strumenti personalizzati del flusso dei prompt.