Per eseguire il training di un modello, avviare un processo di training. Solo i processi completati creano un modello. I processi di training scadono dopo sette giorni, dopo questa volta non sarà più possibile recuperare i dettagli del processo. Se il processo di training è stato completato correttamente e un modello è stato creato, non sarà interessato dalla scadenza del processo. È possibile avere un solo processo di training in esecuzione alla volta e non è possibile avviare altri processi nello stesso progetto.
I tempi di training possono essere ovunque da pochi secondi quando si gestiscono progetti semplici, fino a un paio di ore quando si raggiunge il limite massimo di espressioni.
La valutazione del modello viene attivata automaticamente dopo il completamento del training. Il processo di valutazione inizia usando il modello sottoposto a training per eseguire stime sulle espressioni nel set di test e confronta i risultati stimati con le etichette fornite (che stabilisce una baseline di verità). I risultati vengono restituiti in modo da poter esaminare le prestazioni del modello.
Prerequisiti
Un progetto creato correttamente con un account di archiviazione BLOB di Azure configurato
Prima di iniziare il processo di training, le espressioni etichettate nel progetto vengono suddivise in un set di training e in un set di test. Ognuno di essi svolge una funzione diversa.
Il set di training viene usato per il training del modello, ovvero il set da cui il modello apprende le espressioni etichettate.
Il set di test è un set cieco che non viene introdotto nel modello durante il training, ma solo durante la valutazione.
Dopo aver eseguito correttamente il training del modello, è possibile usare il modello per eseguire stime dalle espressioni nel set di test. Queste stime vengono usate per calcolare le metriche di valutazione.
È consigliabile assicurarsi che tutte le finalità siano adeguatamente rappresentate sia nel set di training che nel set di test.
Il flusso di lavoro di orchestrazione supporta due metodi per la suddivisione dei dati:
Suddivisione automatica del set di test dai dati di training: il sistema suddividerà i dati con tag tra i set di training e di test, in base alle percentuali scelte. La divisione percentuale consigliata è l'80% per il training e il 20% per i test.
Nota
Se si sceglie l'opzione Suddivisione automatica del set di test dai dati di training , solo i dati assegnati al set di training verranno suddivisi in base alle percentuali specificate.
Usare una suddivisione manuale dei dati di training e test: questo metodo consente agli utenti di definire quali espressioni devono appartenere a quale set. Questo passaggio è abilitato solo se sono state aggiunte espressioni al set di test durante l'etichettatura.
Nota
È possibile aggiungere espressioni solo nel set di dati di training solo per finalità non connesse.
Per avviare il training del modello dall'interno di Language Studio:
Selezionare Processi di training dal menu a sinistra.
Selezionare Avvia un processo di training dal menu in alto.
Selezionare Esegui training di un nuovo modello e digitare il nome del modello nella casella di testo. È anche possibile sovrascrivere un modello esistente selezionando questa opzione e scegliendo il modello da sovrascrivere dal menu a discesa. La sovrascrittura di un modello sottoposto a training è irreversibile, ma non influisce sui modelli distribuiti fino a quando non si distribuisce il nuovo modello.
Se il progetto è stato abilitato per suddividere manualmente i dati quando si contrassegnano le espressioni, verranno visualizzate due opzioni di suddivisione dei dati:
Suddivisione automatica del set di test dai dati di training: le espressioni con tag verranno suddivise in modo casuale tra i set di training e di test, in base alle percentuali scelte. La divisione percentuale predefinita è l'80% per il training e il 20% per i test. Per modificare questi valori, scegliere il set da modificare e digitare nel nuovo valore.
Nota
Se si sceglie l'opzione Suddivisione automatica del set di test dai dati di training , solo le espressioni nel set di training verranno suddivise in base alle percentuali specificate.
Usare una suddivisione manuale dei dati di training e test: assegnare ogni espressione al training o al set di test durante il passaggio di assegnazione di tag del progetto.
Nota
Usare una suddivisione manuale dei dati di training e test verrà abilitata solo se si aggiungono espressioni al set di test nella pagina dei dati dei tag. In caso contrario, verrà disabilitato.
Selezionare il pulsante Train (Esegui training ).
Nota
Solo i processi di training completati correttamente genereranno modelli.
Il training può richiedere tempo tra un paio di minuti e un paio di ore in base alle dimensioni dei dati con tag.
È possibile eseguire un solo processo di training alla volta. Non è possibile avviare altri processi di training con lo stesso progetto fino al completamento del processo in esecuzione.
Creare una richiesta POST usando l'URL, le intestazioni e il corpo JSON seguenti per inviare un processo di training.
URL richiesta
Usare l'URL seguente durante la creazione della richiesta API. Sostituire i valori segnaposto seguenti con i valori personalizzati.
Percentuale dei dati con tag da includere nel set di training. Il valore consigliato è 80.
80
testingSplitPercentage
20
Percentuale dei dati con tag da includere nel set di test. Il valore consigliato è 20.
20
Nota
E trainingSplitPercentagetestingSplitPercentage sono obbligatori solo se Kind è impostato su percentage e la somma di entrambe le percentuali deve essere uguale a 100.
Dopo aver inviato la richiesta API, si riceverà una 202 risposta che indica l'esito positivo. Nelle intestazioni di risposta estrarre il operation-location valore. Verrà formattato come segue:
Selezionare l'ID processo di training nell'elenco, verrà visualizzato un riquadro laterale in cui è possibile controllare lo stato del training, lo stato del processo e altri dettagli per questo processo.
Il training potrebbe richiedere tempo a seconda delle dimensioni dei dati di training e della complessità dello schema. È possibile usare la richiesta seguente per mantenere il polling dello stato del processo di training fino al completamento.
Usare la richiesta GET seguente per ottenere lo stato dello stato di avanzamento del training del modello. Sostituire i valori segnaposto seguenti con i valori personalizzati.
Nome del progetto. Per questo valore viene applicata la distinzione tra maiuscole e minuscole.
EmailApp
{JOB-ID}
ID per l'individuazione dello stato di training del modello. Si tratta del valore di location intestazione ricevuto quando è stato inviato il processo di training.
Usare l'intestazione seguente per autenticare la richiesta.
Chiave
Valore
Ocp-Apim-Subscription-Key
Chiave della risorsa. Usato per autenticare le richieste API.
Corpo della risposta
Dopo aver inviato la richiesta, si riceverà la risposta seguente. Continuare a eseguire il polling di questo endpoint fino a quando il parametro di stato non viene modificato in "succeeded".
Per annullare un processo di training da Language Studio, passare alla pagina Train model (Esegui training modello ). Selezionare il processo di training da annullare e selezionare Annulla dal menu in alto.
Creare una richiesta POST usando l'URL, le intestazioni e il corpo JSON seguenti per annullare un processo di training.
URL richiesta
Usare l'URL seguente durante la creazione della richiesta API. Sostituire i valori segnaposto seguenti con i valori personalizzati.
Usare l'intestazione seguente per autenticare la richiesta.
Chiave
Valore
Ocp-Apim-Subscription-Key
Chiave della risorsa. Usato per autenticare le richieste API.
Dopo aver inviato la richiesta API, si riceverà una risposta 202 che indica l'esito positivo, il che significa che il processo di training è stato annullato. Risultati di una chiamata con esito positivo con un'intestazione Operation-Location utilizzata per controllare lo stato del processo.
Presto disponibile: Nel corso del 2024 verranno gradualmente disattivati i problemi di GitHub come meccanismo di feedback per il contenuto e ciò verrà sostituito con un nuovo sistema di feedback. Per altre informazioni, vedere https://aka.ms/ContentUserFeedback.