Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Questo articolo fornisce indicazioni ai team del carico di lavoro che dispongono di investimenti di Machine Learning Operations (MLOps) esistenti e vogliono estendere tali investimenti per includere la tecnologia e i modelli di intelligenza artificiale generativi nel proprio carico di lavoro. Per rendere operative le funzionalità generative del carico di lavoro di intelligenza artificiale, è necessario estendere gli investimenti MLOps con operazioni di intelligenza artificiale generative (GenAIOps), talvolta note come LLMOps. Questo articolo descrive i modelli tecnici comuni sia ai carichi di lavoro tradizionali di Machine Learning che ai carichi di lavoro generativi di intelligenza artificiale e ai modelli univoci per l'intelligenza artificiale generativa. Comprendere dove è possibile applicare gli investimenti esistenti nell'operazionalizzazione e dove è necessario estendere tali investimenti.
La pianificazione e l'implementazione di MLOps e GenAIOps fanno parte di un'area di progettazione principale nei carichi di lavoro di intelligenza artificiale in Azure. Per altre informazioni sui motivi per cui questi carichi di lavoro richiedono operazioni specializzate, vedere MLOps e GenAIOps per i carichi di lavoro di intelligenza artificiale in Azure.
Modelli tecnici generativi di intelligenza artificiale
I carichi di lavoro generativi di intelligenza artificiale differiscono dai carichi di lavoro di Machine Learning tradizionali in diversi modi:
Concentrarsi sui modelli generativi. I carichi di lavoro di Machine Learning tradizionali si concentrano sul training di nuovi modelli per attività specifiche. I carichi di lavoro di intelligenza artificiale generativi usano e talvolta ottimizzano i modelli generativi che possono gestire un'ampia gamma di casi d'uso. Alcuni di questi modelli sono multimodali.
Concentrarsi sull'estensione dei modelli. L'asset chiave nell'apprendimento automatico tradizionale è il modello addestrato e distribuito. L'accesso al modello viene fornito al codice client in uno o più carichi di lavoro, ma in genere il carico di lavoro non fa parte del processo MLOps. Con le soluzioni di intelligenza artificiale generative, un aspetto chiave della soluzione è la richiesta fornita al modello generativo. Il prompt deve essere composto da istruzioni e spesso contiene dati di contesto da uno o più archivi dati. Il sistema che orchestra la logica, chiama i vari back-end o agenti, genera il prompt e chiama il modello generativo fa parte del sistema di intelligenza artificiale generativo che si gestisce con GenAIOps.
Alcune soluzioni di intelligenza artificiale generative usano procedure tradizionali di Machine Learning come il training dei modelli e l'ottimizzazione. Tuttavia, queste soluzioni introducono nuovi modelli da standardizzare. Esistono tre ampie categorie di modelli tecnici per le soluzioni di intelligenza artificiale generative:
- Pretraining e messa a punto
- Ingegneria del prompt
- Generazione aumentata tramite recupero (RAG)
Addestramento e messa a punto dei modelli linguistici
Molte soluzioni di intelligenza artificiale generative usano modelli di linguaggio di base esistenti che non richiedono l'ottimizzazione prima dell'uso. Tuttavia, alcuni casi d'uso possono trarre vantaggio dall'ottimizzazione di un modello di base o dal training di un nuovo modello di intelligenza artificiale generativa, ad esempio un piccolo modello linguistico (SLM).
Il training di un nuovo SLM e l'ottimizzazione di un modello di base generativo seguono gli stessi processi logici del training dei modelli di Machine Learning tradizionali. Questi processi devono usare gli investimenti MLOps esistenti.
Ingegneria del prompt
La progettazione dei prompt include tutti i processi inclusi nella progettazione di un prompt efficace inviato come input a un modello generativo. In genere è presente un agente di orchestrazione che controlla un flusso di lavoro che genera la richiesta. L'orchestratore può interagire con più archivi dati, direttamente o indirettamente tramite agenti, per raccogliere informazioni, inclusi i dati di riferimento. Applica quindi la logica necessaria per generare il prompt più efficace. L'agente di orchestrazione viene quindi distribuito come endpoint API a cui accede il codice client in un'applicazione intelligente.
Il diagramma seguente illustra un'architettura per la progettazione dei prompt.
Questa categoria di modelli tecnici può risolvere molti casi d'uso:
- Classificazione
- Traduzione
- Riepilogo
- STRACCIO
STRACCIO
Rag è un modello architetturale che usa la progettazione prompt per incorporare dati specifici del dominio come dati di base per un modello linguistico. Il training del modello linguistico viene eseguito in base a un set specifico di dati. Il carico di lavoro potrebbe richiedere un ragionamento sui dati specifici dell'azienda, dei clienti o del dominio. Nelle soluzioni RAG vengono eseguite query sui dati e i risultati più rilevanti vengono forniti al modello linguistico come parte della richiesta, in genere tramite un livello di orchestrazione.
Una tipica implementazione rag consiste nell'suddividere i dati di origine in blocchi e archiviarli in un archivio vettoriale insieme ai metadati. Gli archivi vettoriali, ad esempio Ricerca di intelligenza artificiale di Azure, consentono di eseguire ricerche di somiglianza testuale e vettoriale per restituire risultati contestualmente pertinenti. Le soluzioni RAG possono anche usare altri archivi dati per restituire dati di base.
Il diagramma seguente illustra un'architettura RAG che include i dati dei documenti.
Estendere MLOps per modelli tecnici di intelligenza artificiale generativi
Il processo MLOps risolve i processi del ciclo interno e del ciclo esterno. I modelli tecnici generativi di intelligenza artificiale hanno anche molte delle stesse attività. In alcuni casi, applichi i tuoi investimenti MLOps esistenti. In altri casi, è necessario estenderli:
Anello interno
Anello esterno
- Distribuzione
- inferenza e monitoraggio
- Ciclo di feedback
DataOps
Sia MLOps che GenAIOps applicano i concetti fondamentali delle operazioni sui dati (DataOps) per creare flussi di lavoro estendibili e riproducibili. Questi flussi di lavoro assicurano che i dati vengano puliti, trasformati e formattati correttamente per la sperimentazione e la valutazione. La riproducibilità del flusso di lavoro e il controllo delle versioni dei dati sono funzionalità importanti di DataOps per tutti i modelli tecnici. Le origini, i tipi e la finalità dei dati dipendono dal modello.
Training e ottimizzazione
Questo modello tecnico dovrebbe sfruttare appieno gli investimenti di DataOps esistenti nell'implementazione di MLOps. La riproducibilità e il controllo delle versioni dei dati consentono di sperimentare dati di progettazione delle funzionalità diversi, confrontare le prestazioni dei diversi modelli e riprodurre i risultati.
RAG e progettazione di prompt
Lo scopo per i dati nelle soluzioni RAG consiste nel fornire dati di base (o contesto) presentati al modello linguistico come parte di una richiesta. Le soluzioni RAG spesso richiedono l'elaborazione di documenti o set di dati di grandi dimensioni in una raccolta di blocchi di dimensioni corrette, semanticamente rilevanti e persistenza di tali blocchi in un archivio vettoriale. Per altre informazioni, vedere Progettare e sviluppare una soluzione RAG. Riproducibilità e controllo delle versioni dei dati per le soluzioni RAG consente di sperimentare diverse strategie di suddivisione in blocchi e incorporamento, confrontare le prestazioni e eseguire il rollback alle versioni precedenti.
Le pipeline di dati per la suddivisione in blocchi dei documenti non fanno parte di DataOps nelle operazioni MLOps tradizionali, quindi è necessario estendere l'architettura e le operazioni. Le pipeline di dati possono leggere i dati da origini diverse che includono dati strutturati e non strutturati. Possono anche scrivere i dati trasformati in destinazioni diverse. È necessario estendere le pipeline per includere gli archivi dati usati per i dati di base. Gli archivi dati tipici per questi modelli sono archivi vettoriali come Ricerca di intelligenza artificiale.
Proprio come il training e l'ottimizzazione, è possibile usare pipeline di Azure Machine Learning o altri strumenti di pipelining dei dati per orchestrare le fasi della suddivisione in blocchi.
Manutenzione dell'indice di ricerca
È inoltre necessario estendere le operazioni per mantenere l'aggiornamento e la validità degli indici di ricerca negli archivi dati. Potrebbe essere necessario ricompilare periodicamente questi indici se non è possibile aggiungere, rimuovere o aggiornare i dati in modo incrementale. Gli aggiornamenti degli indici devono soddisfare i requisiti aziendali per l'aggiornamento dei dati, i requisiti non funzionali, ad esempio le prestazioni e la disponibilità, e i requisiti di conformità, ad esempio il diritto di dimenticare le richieste. È necessario estendere il processo MLOps esistente per tenere conto della gestione e dell'aggiornamento degli indici di ricerca per garantire accuratezza, conformità e prestazioni ottimali.
Sperimentazione
La sperimentazione, una parte del ciclo interno, è il processo iterativo di creazione, valutaree perfezionare la soluzione. Le sezioni seguenti descrivono la sperimentazione per i modelli tecnici di intelligenza artificiale generativi tipici.
Training e ottimizzazione
Quando si ottimizza un modello linguistico esistente o si esegue il training di un SLM, è possibile sfruttare gli investimenti mlops correnti. Ad esempio, le pipeline di Machine Learning forniscono un toolkit per condurre esperimenti in modo efficiente ed efficace. Queste pipeline consentono di gestire l'intero processo di ottimizzazione, dalla pre-elaborazione dei dati al training e alla valutazione del modello.
RAG e progettazione di prompt
La sperimentazione con il prompt engineering e i carichi di lavoro RAG richiede di estendere i tuoi investimenti MLOps. Per questi modelli tecnici, il carico di lavoro non termina con il modello. Il carico di lavoro richiede un agente di orchestrazione, ovvero un sistema in grado di eseguire logica, chiamare archivi dati o agenti per informazioni necessarie, ad esempio i dati di base, generare richieste e chiamare modelli linguistici. Anche gli archivi dati e gli indici negli archivi fanno parte del carico di lavoro. È necessario estendere le operazioni per gestire questi aspetti del carico di lavoro.
È possibile sperimentare su più dimensioni per l'ingegneria dei prompt, tra cui istruzioni diverse, personaggi, esempi, vincoli e tecniche avanzate come il concatenamento di prompt. Quando si sperimentano soluzioni RAG, è anche possibile sperimentare con altre aree:
- Tecniche di raggruppamento
- Metodi per arricchire i blocchi
- Selezione del modello di incorporamento
- Configurazione dell'indice di ricerca
- Tipi di ricerche da eseguire, ad esempio vettore, full-text e ibrido
Come descritto in DataOps, la riproducibilità e il controllo delle versioni dei dati sono fondamentali per la sperimentazione. Un framework di sperimentazione valido consente di archiviare gli input, ad esempio le modifiche agli iperparametri o le richieste, insieme agli output da usare quando si valutare l'esperimento.
Proprio come nell'ambiente MLOps esistente, è possibile sfruttare i framework, ad esempio le pipeline di Machine Learning. Le pipeline di Machine Learning hanno funzionalità che supportano l'indicizzazione tramite l'integrazione con archivi vettoriali come Ricerca di intelligenza artificiale. L'ambiente GenAIOps può sfruttare queste funzionalità della pipeline e combinarle con le funzionalità del flusso di prompt che gestiscono l'ingegneria dei prompt e la logica di pre-elaborazione personalizzata.
Valutazione e sperimentazione
La valutazione è fondamentale nel processo di sperimentazione iterativa di creazione, valutazione e affinamento della soluzione. La valutazione delle tue modifiche fornisce il feedback necessario per apportare miglioramenti o verificare che l'iterazione corrente soddisfi i tuoi requisiti. Le sezioni seguenti descrivono la valutazione nella fase di sperimentazione per i modelli tecnici di intelligenza artificiale generativi tipici.
Training e ottimizzazione
Per la valutazione dei modelli di intelligenza artificiale ottimizzati o addestrati, è consigliabile sfruttare gli investimenti MLOps esistenti. Ad esempio, se si utilizzano pipeline di Apprendimento Automatico per orchestrare l'addestramento del modello di apprendimento automatico, è possibile utilizzare le stesse funzionalità di valutazione per ottimizzare i modelli linguistici di base o addestrare nuovi modelli linguistici specifici. Queste funzionalità includono il componente Evaluate Model, che calcola le metriche di valutazione standard del settore per tipi di modello specifici e confronta i risultati tra i modelli. Se il carico di lavoro usa Azure AI Foundry, è possibile estendere il processo MLOps per includere le funzionalità di valutazione disponibili in Evaluation SDK.
RAG e progettazione di prompt
È necessario estendere gli investimenti MLOps esistenti per valutare le soluzioni di intelligenza artificiale generative. È possibile usare strumenti come prompt flow, che fornisce un framework per la valutazione. Il flow di prompt consente ai team di definire la logica di valutazione personalizzata specificando criteri e metriche per valutare le prestazioni di varie varianti di prompt e modelli linguistici di grandi dimensioni. Questo approccio strutturato consente di confrontare diverse configurazioni affiancate, ad esempio iperparametri o varianti architetturali, per identificare la configurazione ottimale per attività specifiche.
I processi nel flusso di richiesta acquisiscono automaticamente sia i dati di input che di output durante il processo di sperimentazione per creare un record di valutazione completo. È possibile ottenere informazioni dettagliate e identificare configurazioni promettenti che possono informare le iterazioni future analizzando questi dati. È possibile accelerare lo sviluppo delle soluzioni di intelligenza artificiale generative usando flussi di richiesta per condurre esperimenti efficienti e sistematici.
Il processo di sperimentazione rimane coerente, indipendentemente dal caso d'uso per la soluzione di intelligenza artificiale generativa. Questi casi d'uso includono classificazione, riepilogo, traduzione e RAG. La differenza importante è la metrica usata per valutare i diversi casi d'uso. Considerare le metriche seguenti in base al caso d'uso:
- Traduzione: BLEU
- Riepilogo: ROUGE, BLEU, BERTScore, METEOR
- Classificazione: precisione, richiamo, accuratezza, entropia incrociata
- RAG: Fondamento, Rilevanza
Nota
Per altre informazioni su come valutare i modelli linguistici e le soluzioni RAG, vedere Valutazione end-to-end LLM.
Le soluzioni di intelligenza artificiale generative estendono in genere le responsabilità del team di Machine Learning dai modelli di training alla richiesta di progettazione e alla gestione dei dati di base. Poiché l'ingegneria del prompt e la sperimentazione e valutazione RAG non richiedono necessariamente data scientist, potresti essere tentato di usare altri ruoli, come ingegneri software e ingegneri dei dati, per eseguire queste funzioni. Potresti incontrare sfide se ometti i data scientist dal processo di sperimentazione con l'ingegneria dei prompt e le soluzioni RAG. Altri ruoli spesso non dispongono della formazione specializzata necessaria per valutare scientificamente i risultati in modo efficace come data scientist. Per altre informazioni, vedere Progettare e sviluppare una soluzione RAG.
Investire in soluzioni di intelligenza artificiale generative consente di alleviare alcuni dei carichi di lavoro nelle risorse di data science. Il ruolo dei software engineer si espande in queste soluzioni. Ad esempio, gli ingegneri del software sono risorse preziose per gestire la responsabilità dell'orchestrazione nelle soluzioni di intelligenza artificiale generativa e sono abili nella configurazione delle metriche di valutazione in strumenti come Prompt Flow. È importante che i data scientist esaminino questo lavoro. Hanno la formazione e l'esperienza per comprendere come valutare correttamente gli esperimenti.
Distribuzione
Alcune soluzioni di intelligenza artificiale generative includono la distribuzione di modelli con training personalizzato o l'ottimizzazione dei modelli esistenti. Per le soluzioni di intelligenza artificiale generative, è necessario includere le attività aggiuntive di distribuzione degli agenti di orchestrazione e degli archivi dati. Le sezioni seguenti descrivono la distribuzione per i modelli tecnici di intelligenza artificiale generativi tipici.
Training e ottimizzazione
È consigliabile usare gli investimenti MLOps esistenti, con alcune possibili modifiche, per distribuire modelli di intelligenza artificiale generativi e ottimizzare i modelli di base. Ad esempio, per ottimizzare un LLM nel servizio Azure OpenAI, è necessario assicurarsi che i set di dati di training e convalida siano in formato JSONL ed è necessario caricare i dati tramite un'API REST. È anche necessario creare un'attività di fine-tuning. Per distribuire un modello SLM addestrato, è possibile sfruttare gli investimenti MLOps esistenti.
RAG e progettazione di prompt
Per RAG e l'ingegneria dei prompt, altre considerazioni includono la logica di orchestrazione, le modifiche negli archivi di dati come indici e schemi, e gli adattamenti alla logica delle pipeline di dati. La logica di orchestrazione viene in genere incapsulata in framework come Prompt Flow, Semantic Kernel o LangChain. È possibile distribuire l'agente di orchestrazione in diverse risorse di calcolo, incluse le risorse in cui è possibile distribuire modelli personalizzati. Per ulteriori informazioni su come distribuire il flusso dei prompt agli endpoint online gestiti da Machine Learning o al servizio app di Azure, consultare Architettura di riferimento alla chat di Baseline AI Foundry. Per eseguire la distribuzione su App Service, l'architettura della chat di Azure OpenAI impacchetta il circuito e le sue dipendenze come contenitore. Questa pratica aumenta la portabilità e la coerenza in ambienti diversi.
Le distribuzioni di modifiche alle risorse del database, ad esempio le modifiche ai modelli di dati o agli indici, sono nuove attività che devono essere gestite in GenAIOps. Una pratica comune quando si usano LLM consiste nell'usare un gateway prima dell'LLM.
Molte architetture di intelligenza artificiale generativa che utilizzano modelli di linguaggio ospitati dalla piattaforma, come quelli forniti da Azure OpenAI, includono un gateway come Azure API Management. I casi d'uso del gateway includono il bilanciamento del carico, l'autenticazione e il monitoraggio. Il gateway può svolgere un ruolo nella distribuzione di modelli appena sottoposti a training o ottimizzati, che consente di implementare progressivamente nuovi modelli. L'uso di un gateway, insieme al controllo delle versioni del modello, consente di ridurre al minimo i rischi quando si distribuiscono le modifiche e di eseguire il rollback alle versioni precedenti in caso di problemi.
Le distribuzioni di elementi specifici per l'intelligenza artificiale generativa, ad esempio l'agente di orchestrazione, devono seguire le procedure operative appropriate:
- Test rigorosi, inclusi test unitari
- Test di integrazione
- Test A/B
- Test end-to-end
- Strategie di implementazione, ad esempio distribuzioni canary o distribuzioni blu-verde
Poiché le responsabilità di distribuzione per le applicazioni di intelligenza artificiale generative si estendono oltre la distribuzione del modello, potrebbero essere necessari ruoli di processo aggiuntivi per gestire la distribuzione e il monitoraggio di componenti come l'interfaccia utente, l'agente di orchestrazione e gli archivi dati. Questi ruoli sono spesso allineati ai set di competenze del tecnico DevOps.
Inferenza e monitoraggio
L'inferenza è il processo di trasmissione dell'input a un modello addestrato e distribuito, che genera quindi una risposta. È consigliabile monitorare le soluzioni tradizionali di Machine Learning e di intelligenza artificiale generative dalle prospettive di monitoraggio operativo, apprendimento dalla produzione e dalla gestione delle risorse.
Monitoraggio operativo
Il monitoraggio operativo è il processo di osservazione delle operazioni in corso del sistema, tra cui DataOps e l'addestramento del modello. Questo tipo di monitoraggio cerca deviazioni, inclusi errori, modifiche alle percentuali di errore e modifiche ai tempi di elaborazione.
Per l'addestramento e l'affinamento del modello, generalmente si utilizza DataOps per l'elaborazione dei dati delle caratteristiche, l'addestramento del modello e l'affinamento. Il monitoraggio di questi processi a ciclo interno dovrebbe sfruttare i vantaggi degli investimenti di MLOps e DataOps esistenti.
Per l'ingegneria dei prompt nelle soluzioni di intelligenza artificiale generativa, hai preoccupazioni aggiuntive di monitoraggio. È necessario monitorare le pipeline di dati che elaborano i dati di base o altri dati usati per generare richieste. Questa elaborazione può includere operazioni dell'archivio dati come la compilazione o la ricompilazione di indici.
In un sistema multi-agente è necessario monitorare la disponibilità, le caratteristiche delle prestazioni e la qualità della risposta e la coerenza degli agenti con cui si interfaccia l'agente di orchestrazione.
Imparare dall'ambiente di produzione
Un aspetto cruciale del monitoraggio durante la fase di inferenza è l'apprendimento dalla produzione. Il monitoraggio per i modelli di Machine Learning tradizionali tiene traccia delle metriche, ad esempio accuratezza, precisione e richiamo. Un obiettivo chiave è evitare la deriva della stima. Le soluzioni che usano modelli generativi per le stime, ad esempio un modello GPT per la classificazione, dovrebbero sfruttare gli investimenti di monitoraggio mlops esistenti.
Le soluzioni che utilizzano modelli generativi per ragionare sui dati di base impiegano metriche come solidità, completezza, utilizzo e pertinenza. L'obiettivo è garantire che il modello risponda completamente alla query e basi la risposta sul relativo contesto. In questa soluzione è necessario provare a evitare problemi come la deriva dei dati. Si vuole assicurarsi che i dati di base e il prompt che si fornisce al modello siano massimamente rilevanti per la query dell'utente.
Soluzioni che usano modelli generativi per attività non predittive, come le soluzioni RAG, spesso traggono vantaggio dal feedback umano degli utenti finali per valutare i sentimenti di utilità. Le interfacce utente possono acquisire commenti e suggerimenti, ad esempio pollici su o giù. È possibile usare questi dati per valutare periodicamente le risposte.
Un modello tipico per le soluzioni di intelligenza artificiale generative consiste nel distribuire un gateway davanti ai modelli generativi. Uno dei casi d'uso per il gateway consiste nel monitorare i modelli di base. È possibile usare il gateway per registrare le richieste di input e l'output del modello.
Un'altra area chiave da monitorare per le soluzioni generative è la sicurezza dei contenuti. L'obiettivo è moderare le risposte e rilevare contenuti dannosi o indesiderati. Microsoft Azure AI Content Safety Studio è uno strumento che è possibile usare per moderare il contenuto.
Gestione delle risorse
Le soluzioni generative che usano modelli esposti come servizio, ad esempio Azure OpenAI, presentano problemi di gestione delle risorse diversi rispetto ai modelli distribuiti manualmente. Per i modelli esposti come servizio, la gestione dell'infrastruttura non è un problema. Il focus è invece sulla velocità effettiva, la quota e la limitazione dei servizi. Azure OpenAI usa dei token per la fatturazione, la regolazione e i limiti. È consigliabile monitorare l'utilizzo delle quote per la gestione dei costi e l'efficienza delle prestazioni. Azure OpenAI offre anche funzionalità di registrazione per tenere traccia dell'utilizzo dei token.
Strumenti
Molti professionisti di MLOps usano un toolkit standardizzato per organizzare attività come automazione, rilevamento, distribuzione e sperimentazione. Questo approccio astrae i problemi comuni e i dettagli di implementazione, che rendono questi processi più efficienti e gestibili. Una piattaforma unificata diffusa è MLflow. Prima di cercare nuovi strumenti per supportare i modelli GenAIOps, è necessario esaminare gli strumenti MLOps esistenti per valutarne il supporto per l'intelligenza artificiale generativa. Ad esempio, MLflow supporta un'ampia gamma di funzionalità per i modelli linguistici.
È anche possibile esplorare i vantaggi e i compromessi dell'introduzione di nuovi strumenti nel flusso. Ad esempio, Azure AI Evaluation SDK per Python può essere un'opzione fattibile perché include il supporto nativo nel portale di Azure AI Foundry.
Modelli di maturità MLOps e GenAIOps
Potresti aver usato il modello di maturità MLOps per valutare la maturità delle tue operazioni MLOps attuali e dell'ambiente. Man mano che si estendono gli investimenti MLOps per carichi di lavoro generativi di intelligenza artificiale, è necessario usare il modello di maturità GenAIOps per valutare tali operazioni. È possibile combinare i due modelli di maturità, ma è consigliabile misurare ogni modello in modo indipendente perché MLOps e GenAIOps si evolvono separatamente. Ad esempio, si potrebbe essere al livello quattro nel modello di maturità MLOps, ma solo al livello 1 nel modello di maturità GenAIOps.
Utilizzare la valutazione del modello di maturità GenAIOps. Questa valutazione consente di comprendere il progresso degli investimenti in GenAIOps.
Riepilogo
Quando si inizia a estendere gli investimenti MLOps per includere l'IA generativa, è importante comprendere che non è necessario ricominciare da capo. È possibile usare gli investimenti MLOps esistenti per diversi modelli tecnici di intelligenza artificiale generativi. L'ottimizzazione dei modelli generativi è un ottimo esempio. Alcuni processi nelle soluzioni di intelligenza artificiale generative, ad esempio la progettazione dei prompt e la rag, sono nuovi. Poiché non fanno parte dei flussi di lavoro tradizionali di IA, è necessario estendere gli investimenti operativi esistenti e acquisire nuove competenze per usarle in modo efficace.
Collaboratori
Microsoft gestisce questo articolo. I collaboratori seguenti hanno scritto questo articolo.
- Luiz Braz | Specialista Tecnico Senior
- Marco Aurelio Cardoso | Senior Software Engineer
- Paulo Lacerda | Architetto delle Soluzioni Cloud
- Ritesh Modi | Ingegnere Software Principale
Per visualizzare i profili LinkedIn non pubblici, accedere a LinkedIn.