Ecosistema del prompt flow
L'ecosistema del prompt flow mira a fornire un set completo di esercitazioni, strumenti e risorse per gli sviluppatori che vogliono sfruttare la potenza del prompt flow per ottimizzare in modo sperimentale i prompt e sviluppare un'applicazione basata su LLM in un ambiente esclusivamente locale, senza dipendenze dall'associazione di risorse di Azure. Questo articolo offre una panoramica dei componenti chiave dell'ecosistema, tra cui:
- Progetto open source di prompt flow in GitHub.
- SDK e interfaccia della riga di comando del prompt flow per l'esecuzione e l'integrazione senza problemi dei flussi nella pipeline CI/CD.
- Estensione di VS Code per creare e sviluppare facilmente flussi in un ambiente locale.
SDK e interfaccia della riga di comando deI prompt flow
L'SDK e l'interfaccia della riga di comando del prompt flow consentono agli sviluppatori di usare il codice, gestire le credenziali, inizializzare i flussi, sviluppare i flussi ed eseguire test batch e valutazioni dei prompt flow in locale.
Per la massima efficienza, è possibile attivare contemporaneamente valutazioni delle metriche e test dei flussi basati su set di dati di grandi dimensioni. L'SDK e l'interfaccia della riga di comando si integrano inoltre facilmente nella pipeline CI/CD, automatizzando il processo di test.
Per iniziare a usare l'SDK del prompt flow, leggere e seguire i passaggi nel notebook di avvio rapido per l'SDK.
Estensione di Visual Studio Code
L'ecosistema fornisce anche una potente estensione di VS Code progettata per consentire di sviluppare prompt flow, ottimizzare i prompt e testarli in modo semplice e interattivo con un'interfaccia utente intuitiva.
Per iniziare a usare l'estensione di VS Code per il prompt flow, passare al marketplace delle estensioni per installarla e leggere la scheda dei dettagli.
Transizione all'ambiente di produzione nel cloud
Dopo aver completato lo sviluppo e il test del prompt flow nell'ecosistema della community, il passaggio successivo potrebbe essere la transizione a un'applicazione LLM di produzione. Per sicurezza, efficienza e scalabilità ottimali in questa fase è consigliabile usare Azure Machine Learning.
È possibile spostare facilmente il flusso locale nella risorsa di Azure per sfruttare l'esecuzione e la gestione su larga scala nel cloud. A tale scopo, vedere Integrazione con GenAIOps.
Supporto della community
L'ecosistema della community si basa sulla collaborazione e sul supporto. Partecipando ai forum della community attivi è possibile entrare in contatto con altri sviluppatori e contribuire alla crescita dell'ecosistema.
Per domande o feedback, è possibile esporre il problema direttamente in GitHub oppure scrivere a pf-feedback@microsoft.com.
Passaggi successivi
L'ecosistema della community per il prompt flow consente agli sviluppatori di creare prompt interattivi e dinamici con facilità. Usando l'SDK e l'estensione di VS Code per il prompt flow, è possibile creare esperienze utente straordinarie e ottimizzare i prompt in un ambiente locale.
- Gli utenti sono invitati a partecipare alla community dedicata al prompt flow in GitHub.