Condividi tramite


Ecosistema del prompt flow

L'ecosistema del prompt flow mira a fornire un set completo di esercitazioni, strumenti e risorse per gli sviluppatori che vogliono sfruttare la potenza del prompt flow per ottimizzare in modo sperimentale i prompt e sviluppare un'applicazione basata su LLM in un ambiente esclusivamente locale, senza dipendenze dall'associazione di risorse di Azure. Questo articolo offre una panoramica dei componenti chiave dell'ecosistema, tra cui:

  • Progetto open source di prompt flow in GitHub.
  • SDK e interfaccia della riga di comando del prompt flow per l'esecuzione e l'integrazione senza problemi dei flussi nella pipeline CI/CD.
  • Estensione di VS Code per creare e sviluppare facilmente flussi in un ambiente locale.

SDK e interfaccia della riga di comando deI prompt flow

L'SDK e l'interfaccia della riga di comando del prompt flow consentono agli sviluppatori di usare il codice, gestire le credenziali, inizializzare i flussi, sviluppare i flussi ed eseguire test batch e valutazioni dei prompt flow in locale.

Per la massima efficienza, è possibile attivare contemporaneamente valutazioni delle metriche e test dei flussi basati su set di dati di grandi dimensioni. L'SDK e l'interfaccia della riga di comando si integrano inoltre facilmente nella pipeline CI/CD, automatizzando il processo di test.

Per iniziare a usare l'SDK del prompt flow, leggere e seguire i passaggi nel notebook di avvio rapido per l'SDK.

Estensione di Visual Studio Code

L'ecosistema fornisce anche una potente estensione di VS Code progettata per consentire di sviluppare prompt flow, ottimizzare i prompt e testarli in modo semplice e interattivo con un'interfaccia utente intuitiva.

Screenshot dell'estensione del prompt flow in VS Code che mostra l’interfaccia utente.

Per iniziare a usare l'estensione di VS Code per il prompt flow, passare al marketplace delle estensioni per installarla e leggere la scheda dei dettagli.

Screenshot dell'estensione del prompt flow nel marketplace di VS Code.

Transizione all'ambiente di produzione nel cloud

Dopo aver completato lo sviluppo e il test del prompt flow nell'ecosistema della community, il passaggio successivo potrebbe essere la transizione a un'applicazione LLM di produzione. Per sicurezza, efficienza e scalabilità ottimali in questa fase è consigliabile usare Azure Machine Learning.

È possibile spostare facilmente il flusso locale nella risorsa di Azure per sfruttare l'esecuzione e la gestione su larga scala nel cloud. A tale scopo, vedere Integrazione con GenAIOps.

Supporto della community

L'ecosistema della community si basa sulla collaborazione e sul supporto. Partecipando ai forum della community attivi è possibile entrare in contatto con altri sviluppatori e contribuire alla crescita dell'ecosistema.

Repository GitHub: promptflow

Per domande o feedback, è possibile esporre il problema direttamente in GitHub oppure scrivere a pf-feedback@microsoft.com.

Passaggi successivi

L'ecosistema della community per il prompt flow consente agli sviluppatori di creare prompt interattivi e dinamici con facilità. Usando l'SDK e l'estensione di VS Code per il prompt flow, è possibile creare esperienze utente straordinarie e ottimizzare i prompt in un ambiente locale.