TextClassificationMultilabelJob Classe

Configurazione per il processo multilabel di classificazione del testo AutoML.

Inizializza una nuova attività Di classificazione del testo AutoML Multilabel.

Ereditarietà
azure.ai.ml.entities._job.automl.nlp.automl_nlp_job.AutoMLNLPJob
TextClassificationMultilabelJob

Costruttore

TextClassificationMultilabelJob(*, target_column_name: str | None = None, training_data: Input | None = None, validation_data: Input | None = None, primary_metric: str | None = None, log_verbosity: str | None = None, **kwargs)

Parametri

target_column_name
Necessario

Nome della colonna di destinazione

training_data
Necessario

Dati di training da usare per il training

validation_data
Necessario

Dati di convalida da usare per la valutazione del modello sottoposto a training

primary_metric
Necessario

Metrica primaria da visualizzare.

log_verbosity
Necessario

Livello di verbosità log

kwargs
Necessario

Argomenti specifici del processo

Metodi

dump

Esegue il dump del contenuto del processo in un file in formato YAML.

extend_search_space

Aggiungere (a) spazi di ricerca per questo processo NLP autoML.

set_data
set_featurization
set_limits
set_sweep

Impostazioni di sweep per tutte le attività NLP autoML.

set_training_parameters

Correggere determinati parametri di training durante la procedura di training per tutti i candidati.

Passare. Questo deve essere un intero positivo. :keyword learning_rate: frequenza di apprendimento iniziale. Deve essere un float in (0, 1). :keyword learning_rate_scheduler: tipo di utilità di pianificazione della frequenza di apprendimento. Deve scegliere tra "lineare", "cosno", "cosine_with_restarts", "polinomiale", "costante" e "constant_with_warmup". :keyword model_name: il nome del modello da usare durante il training. Deve scegliere tra 'bert-base-cased', 'bert-base-uncased', 'bert-base-multilingue-cased', 'bert-base-german-cased', 'bert-large-cased', 'bert-large-uncased', 'distilbert-base-cased', 'distilbert-base-uncased', 'roberta-base', 'roberta-large', 'distilroberta-base', 'xlm-roberta-base', 'xlm-roberta-large', xlnet-base-cased', 'xlnet-large-cased', 'xlnet-large-cased'. :keyword number_of_epochs: numero di epoche da eseguire con. Deve essere un intero positivo. :keyword training_batch_size: dimensioni del batch durante il training. Deve essere un intero positivo. :keyword validation_batch_size: dimensione del batch durante la convalida. Deve essere un intero positivo. :keyword warmup_ratio: rapporto dei passaggi di training totali usati per un riscaldamento lineare da 0 a learning_rate. Deve essere un float in [0, 1]. :keyword weight_decay: valore del decadimento del peso quando optimizer è sgd, adam o adamw. Deve essere un float nell'intervallo [0, 1]. :return: Nessuno.

dump

Esegue il dump del contenuto del processo in un file in formato YAML.

dump(dest: str | PathLike | IO, **kwargs) -> None

Parametri

dest
Union[<xref:PathLike>, str, IO[AnyStr]]
Necessario

Percorso locale o flusso di file in cui scrivere il contenuto YAML. Se il massimo è un percorso di file, verrà creato un nuovo file. Se il massimo è un file aperto, il file verrà scritto direttamente.

kwargs
dict

Argomenti aggiuntivi da passare al serializzatore YAML.

Eccezioni

Generato se il numero massimo è un percorso di file e il file esiste già.

Generato se il massimo è un file aperto e il file non è scrivibile.

extend_search_space

Aggiungere (a) spazi di ricerca per questo processo NLP autoML.

extend_search_space(value: SearchSpace | List[SearchSpace]) -> None

Parametri

value
Union[SearchSpace, List[SearchSpace]]
Necessario

Un oggetto SearchSpace o un elenco di oggetti SearchSpace con parametri specifici della prevenzione della perdita dei dati.

Restituisce

Nessuno.

Eccezioni

Generato se il numero massimo è un percorso di file e il file esiste già.

Generato se il massimo è un file aperto e il file non è scrivibile.

set_data

set_data(*, training_data: Input, target_column_name: str, validation_data: Input) -> None

Eccezioni

Generato se il numero massimo è un percorso di file e il file esiste già.

Generato se il massimo è un file aperto e il file non è scrivibile.

set_featurization

set_featurization(*, dataset_language: str | None = None) -> None

Eccezioni

Generato se il numero massimo è un percorso di file e il file esiste già.

Generato se il massimo è un file aperto e il file non è scrivibile.

set_limits

set_limits(*, max_trials: int = 1, max_concurrent_trials: int = 1, max_nodes: int = 1, timeout_minutes: int | None = None, trial_timeout_minutes: int | None = None) -> None

Eccezioni

Generato se il numero massimo è un percorso di file e il file esiste già.

Generato se il massimo è un file aperto e il file non è scrivibile.

set_sweep

Impostazioni di sweep per tutte le attività NLP autoML.

set_sweep(*, sampling_algorithm: str | SamplingAlgorithmType, early_termination: EarlyTerminationPolicy | None = None)

Parametri

sampling_algorithm

Obbligatorio. Specifica il tipo di algoritmo di campionamento dell'iperparametro. I valori possibili includono: "Grid", "Random" e "Bayesian".

early_termination

Criteri di terminazione anticipata facoltativa per terminare i candidati di formazione con prestazioni scarse.

Restituisce

Nessuno

Eccezioni

Generato se il numero massimo è un percorso di file e il file esiste già.

Generato se il massimo è un file aperto e il file non è scrivibile.

set_training_parameters

Correggere determinati parametri di training durante la procedura di training per tutti i candidati.

Passare. Questo deve essere un intero positivo. :keyword learning_rate: frequenza di apprendimento iniziale. Deve essere un float in (0, 1). :keyword learning_rate_scheduler: tipo di utilità di pianificazione della frequenza di apprendimento. Deve scegliere tra "lineare", "cosno", "cosine_with_restarts", "polinomiale", "costante" e "constant_with_warmup". :keyword model_name: il nome del modello da usare durante il training. Deve scegliere tra 'bert-base-cased', 'bert-base-uncased', 'bert-base-multilingue-cased', 'bert-base-german-cased', 'bert-large-cased', 'bert-large-uncased', 'distilbert-base-cased', 'distilbert-base-uncased', 'roberta-base', 'roberta-large', 'distilroberta-base', 'xlm-roberta-base', 'xlm-roberta-large', xlnet-base-cased', 'xlnet-large-cased', 'xlnet-large-cased'. :keyword number_of_epochs: numero di epoche da eseguire con. Deve essere un intero positivo. :keyword training_batch_size: dimensioni del batch durante il training. Deve essere un intero positivo. :keyword validation_batch_size: dimensione del batch durante la convalida. Deve essere un intero positivo. :keyword warmup_ratio: rapporto dei passaggi di training totali usati per un riscaldamento lineare da 0 a learning_rate. Deve essere un float in [0, 1]. :keyword weight_decay: valore del decadimento del peso quando optimizer è sgd, adam o adamw. Deve essere un float nell'intervallo [0, 1]. :return: Nessuno.

set_training_parameters(*, gradient_accumulation_steps: int | None = None, learning_rate: float | None = None, learning_rate_scheduler: str | NlpLearningRateScheduler | None = None, model_name: str | None = None, number_of_epochs: int | None = None, training_batch_size: int | None = None, validation_batch_size: int | None = None, warmup_ratio: float | None = None, weight_decay: float | None = None) -> None

Parametri

gradient_accumulation_steps

numero di passaggi su cui accumulare sfumature prima di un'indietro

Eccezioni

Generato se il numero massimo è un percorso di file e il file esiste già.

Generato se il massimo è un file aperto e il file non è scrivibile.

Attributi

base_path

Percorso di base della risorsa.

Restituisce

Percorso di base della risorsa.

Tipo restituito

str

creation_context

Contesto di creazione della risorsa.

Restituisce

Metadati di creazione per la risorsa.

Tipo restituito

featurization

id

L'ID della risorsa.

Restituisce

ID globale della risorsa, ID di Azure Resource Manager (ARM).

Tipo restituito

inputs

limits

log_files

File di output del processo.

Restituisce

Dizionario di nomi e URL di log.

Tipo restituito

log_verbosity

outputs

primary_metric

search_space

status

Stato del processo.

I valori comuni restituiti includono "Running", "Completed" e "Failed". Tutti i valori possibili sono:

  • NotStarted: questo è uno stato temporaneo in cui gli oggetti Run lato client si trovano prima dell'invio nel cloud.

  • Avvio: l'esecuzione è stata avviata nell'elaborazione nel cloud. Il chiamante ha un ID di esecuzione a questo punto.

  • Provisioning: l'elaborazione su richiesta viene creata per un invio di processo specificato.

  • Preparazione: l'ambiente di esecuzione è in fase di preparazione ed è in una delle due fasi seguenti:

    • Compilazione di immagini Docker

    • configurazione dell'ambiente conda

  • Accodato: il processo viene accodato nella destinazione di calcolo. Ad esempio, in BatchAI il processo si trova in uno stato in coda

    in attesa che tutti i nodi richiesti siano pronti.

  • Esecuzione: il processo è stato avviato per l'esecuzione nella destinazione di calcolo.

  • Finalizzazione: l'esecuzione del codice utente è stata completata e l'esecuzione è in fasi di post-elaborazione.

  • CancelRequested: l'annullamento è stato richiesto per il processo.

  • Completato: l'esecuzione è stata completata correttamente. Ciò include sia l'esecuzione del codice utente che l'esecuzione

    fasi di post-elaborazione.

  • Impossibile: l'esecuzione non è riuscita. In genere la proprietà Error in un'esecuzione fornisce informazioni dettagliate sul motivo.

  • Annullata: segue una richiesta di annullamento e indica che l'esecuzione è stata annullata correttamente.

  • NotResponding: per le esecuzioni abilitate per Heartbeat, non è stato inviato di recente alcun heartbeat.

Restituisce

Stato del processo.

Tipo restituito

studio_url

Endpoint di Azure ML Studio.

Restituisce

URL della pagina dei dettagli del processo.

Tipo restituito

sweep

task_type

Ottenere il tipo di attività.

Restituisce

Tipo di attività da eseguire. I valori possibili includono: "classificazione", "regressione", "previsione".

Tipo restituito

str

test_data

Ottenere i dati di test.

Restituisce

Testare l'input dei dati

Tipo restituito

training_data

Ottenere i dati di training.

Restituisce

Input dati di training

Tipo restituito

training_parameters

type

Tipo del processo.

Restituisce

Tipo del processo.

Tipo restituito

validation_data

Ottenere i dati di convalida.

Restituisce

Input dati di convalida

Tipo restituito