Riassunto
In questo modulo si è appreso come ottimizzare le prestazioni del modello di intelligenza artificiale generativa usando strategie complementari in Microsoft Foundry.
Ecco cosa hai imparato a fare:
- Applicare tecniche di progettazione dei prompt, inclusi i messaggi di sistema, l'apprendimento con pochi scatti e i parametri del modello per ottimizzare l'output del modello.
- Comprendere quando e come preparare un modello linguistico usando la generazione aumentata di recupero (RAG).
- Identificare quando l'ottimizzazione di un modello migliora la coerenza comportamentale.
- Confrontare le strategie di ottimizzazione e determinare quando combinarle.
L'aspetto chiave è che il prompt engineering, RAG e il fine-tuning non sono approcci concorrenti, ma strategie complementari che rispondono a diversi aspetti delle prestazioni del modello. Iniziare con il prompt engineering per guidare il comportamento del modello, aggiungere RAG quando l'accuratezza fattuale richiede dati specifici del dominio e prendere in considerazione il fine-tuning quando è necessario uno stile e un formato coerenti che il prompt engineering da solo non può ottenere in modo affidabile.
Per lo scenario dell'agenzia di viaggi, la soluzione più efficace può combinare tutte e tre: un modello ottimizzato che mantiene la voce del marchio, RAG che assegna alle risposte un fondamento nel catalogo alberghiero reale, e l'ingegneria dei prompt che aggiunge istruzioni specifiche della conversazione e protezioni di sicurezza.
Ulteriori informazioni
- Introduzione alla personalizzazione di un modello linguistico di grandi dimensioni (LLM)
- tecniche di ingegneria dei prompt
- progettazione dei messaggi di sistema
- Retrieval Augmented Generation in Microsoft Foundry
- Customizzare un modello con l'ottimizzazione
- Considerazioni sull'ottimizzazione di Microsoft Foundry
- Modelli di linguaggio di grandi dimensioni aumentati con RAG o messa a punto