Zusammenfassung
In diesem Modul haben Sie gelernt, wie Sie die leistung des generativen KI-Modells mithilfe komplementärer Strategien in Microsoft Foundry optimieren.
Sie haben gelernt, wie Sie:
- Wenden Sie Prompt-Engineering-Techniken wie Systemmeldungen, few-shot learning und Modellparameter an, um die Modellausgabe zu optimieren.
- Verstehen Sie, wann und wie Sie ein Sprachmodell mithilfe von Retrieval Augmented Generation (RAG) verankern können.
- Ermitteln, wann die Feinabstimmung eines Modells die Verhaltenskonsistenz verbessert.
- Vergleichen Sie Optimierungsstrategien, und bestimmen Sie, wann sie kombiniert werden sollen.
Die wichtigste Erkenntnis ist, dass prompt Engineering, RAG und Feinabstimmungen keine konkurrierenden Ansätze sind – sie sind komplementäre Strategien, die sich mit verschiedenen Dimensionen der Modellleistung befassen. Beginnen Sie mit dem Prompt-Engineering, um das Verhalten des Modells zu leiten, fügen Sie RAG hinzu, wenn eine faktenbezogene Genauigkeit domänen-spezifische Daten erfordert, und berücksichtigen Sie Feinabstimmungen, wenn Sie einen konsistenten Stil und ein konsistentes Format benötigen, das das Prompt-Engineering allein nicht zuverlässig erreichen kann.
Im Szenario eines Reisebüros könnte die effektivste Lösung alle drei kombinieren: ein fein abgestimmtes Modell, das die Markenstimme beibehält, ein Ampelsystem, das die Antworten auf den tatsächlichen Hotelkatalog stützt, und eine Prompt-Engineering-Lösung, die gesprächsspezifische Anweisungen und Sicherheitsvorkehrungen hinzufügt.
Erfahren Sie mehr
- Getting started durch Anpassen eines großen Sprachmodells (LLM)
- Prompt Engineering-Techniken
- System-Nachrichtenentwurf
- Retrieval Augmented Generation in Microsoft Foundry
- Customize a model with fine-tuning
- Microsoft Foundry Überlegungen zur Feinabstimmung
- Augment große Sprachmodelle mit RAG oder Feinabstimmung