Introduzione
La creazione di applicazioni di intelligenza artificiale generative efficaci richiede la selezione del modello di base appropriato per il caso d'uso specifico. Con migliaia di modelli disponibili, è necessario un approccio strutturato per individuare, confrontare, distribuire e verificare che un modello soddisfi i requisiti.
Si consideri uno scenario in cui si sta creando un chatbot di supporto clienti basato su intelligenza artificiale per una società di vendita al dettaglio. È necessario selezionare un modello linguistico in grado di comprendere le domande dei clienti, fornire risposte accurate e mantenere standard di tono e sicurezza appropriati. Ma come si sceglie dal vasto catalogo di modelli disponibili? Come si sa se un modello funziona correttamente per le esigenze specifiche? E dopo la distribuzione, come si misura e si migliorano le prestazioni?
Il portale di Microsoft Foundry offre una piattaforma completa per l'intero flusso di lavoro. È possibile esplorare oltre 1.900 modelli da provider come Microsoft, Anthropic, OpenAI, Meta e Hugging Face. È possibile confrontare i modelli usando benchmark standard del settore per qualità, sicurezza, costi e prestazioni. Dopo aver selezionato un modello, distribuirlo in un endpoint in cui l'applicazione può usarla. Infine, si valutano le prestazioni del modello usando metriche automatizzate e test manuali per assicurarsi che soddisfi i requisiti di qualità e sicurezza.
In questo modulo viene illustrato come usare il portale di Microsoft Foundry per selezionare, distribuire e valutare i modelli dal catalogo dei modelli. Si apprenderà come prendere decisioni informate sulla selezione del modello, comprendere diverse opzioni di distribuzione e valutare le prestazioni del modello usando vari approcci di valutazione.
Alla fine di questo modulo, sarai in grado di:
- Esplorare e filtrare i modelli nel catalogo dei modelli
- Confrontare i modelli usando le metriche di benchmark per qualità, sicurezza, costi e prestazioni
- Implementare un modello in un endpoint e testarlo nel playground
- Valutare le prestazioni del modello usando approcci manuali e automatizzati
- Comprendere le diverse metriche di valutazione e quando usarle