ml Pacchetto
Pacchetti
automl |
Contiene classi di Machine Learning automatizzate per Azure Machine Learning SDKv2. Le aree principali includono la gestione delle attività AutoML. |
constants |
Questo pacchetto definisce le costanti usate in Azure Machine Learning SDKv2. |
data_transfer | |
dsl | |
entities |
Contiene entità e oggetti SDK per Azure Machine Learning SDKv2. Le aree principali includono la gestione delle destinazioni di calcolo, la creazione/gestione di aree di lavoro e processi e l'invio/accesso al modello, le esecuzioni e l'esecuzione di output/registrazione e così via. |
identity |
Contiene la configurazione delle identità per Azure Machine Learning SDKv2. |
operations |
Contiene operazioni supportate per Azure Machine Learning SDKv2. Le operazioni sono classi che contengono logica per interagire con i servizi back-end, in genere chiamate di operazioni generate automaticamente. |
parallel | |
sweep |
Moduli
exceptions |
Contiene un modulo di eccezione in Azure Machine Learning SDKv2. Sono incluse le enumerazioni e le classi per le eccezioni. |
Classi
AmlTokenConfiguration |
Configurazione dell'identità del token AzureML. |
Input |
Inizializzare un oggetto Input. |
MLClient |
Classe client per interagire con i servizi di Azure ML. Usare questo client per gestire le risorse di Azure ML, ad esempio aree di lavoro, processi, modelli e così via. |
ManagedIdentityConfiguration |
Configurazione delle credenziali dell'identità gestita. |
MpiDistribution |
Configurazione della distribuzione MPI. |
Output | |
PyTorchDistribution |
Configurazione della distribuzione di PyTorch. |
RayDistribution |
Nota Si tratta di una classe sperimentale e può cambiare in qualsiasi momento. Per altre informazioni, vedere https://aka.ms/azuremlexperimental. Configurazione della distribuzione ray. |
TensorFlowDistribution |
Configurazione della distribuzione tensorFlow. |
UserIdentityConfiguration |
Configurazione dell'identità utente. |
Funzioni
command
Crea un oggetto Command che può essere usato all'interno di una funzione dsl.pipeline o usato come processo command autonomo.
command(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, properties: Dict | None = None, display_name: str | None = None, command: str | None = None, experiment_name: str | None = None, environment: str | Environment | None = None, environment_variables: Dict | None = None, distribution: Dict | MpiDistribution | TensorFlowDistribution | PyTorchDistribution | RayDistribution | None = None, compute: str | None = None, inputs: Dict | None = None, outputs: Dict | None = None, instance_count: int | None = None, instance_type: str | None = None, locations: List[str] | None = None, docker_args: str | None = None, shm_size: str | None = None, timeout: int | None = None, code: PathLike | str | None = None, identity: ManagedIdentityConfiguration | AmlTokenConfiguration | UserIdentityConfiguration | None = None, is_deterministic: bool = True, services: Dict[str, JobService | JupyterLabJobService | SshJobService | TensorBoardJobService | VsCodeJobService] | None = None, job_tier: str | None = None, priority: str | None = None, **kwargs) -> Command
Parametri
Dizionario tag. I tag possono essere aggiunti, rimossi e aggiornati. Il valore predefinito è Nessuno.
Dizionario delle proprietà del processo. Il valore predefinito è Nessuno.
Nome visualizzato del processo. L'impostazione predefinita è un nome generato in modo casuale.
Nome dell'esperimento in cui verrà creato il processo. L'impostazione predefinita è il nome della directory corrente.
- environment
- Optional[Union[str, Environment]]
Ambiente in cui verrà eseguito il processo.
Dizionario di nomi e valori di variabili di ambiente. Queste variabili di ambiente vengono impostate nel processo in cui viene eseguito lo script utente. Il valore predefinito è Nessuno.
- distribution
- Optional[Union[dict, PyTorchDistribution, MpiDistribution, TensorFlowDistribution, RayDistribution]]
Configurazione per i processi distribuiti. Il valore predefinito è Nessuno.
La destinazione di calcolo in cui verrà eseguito il processo. L'impostazione predefinita è il calcolo predefinito.
Mapping dei nomi di input alle origini dati di input usate nel processo. Il valore predefinito è Nessuno.
Mapping dei nomi di output alle origini dati di output usate nel processo. Il valore predefinito è Nessuno.
Numero di istanze o nodi da usare dalla destinazione di calcolo. Assume il valore predefinito 1.
Argomenti aggiuntivi da passare al comando docker run. Verrà eseguito l'override di tutti i parametri già impostati dal sistema o in questa sezione. Questo parametro è supportato solo per i tipi di calcolo di Azure ML. Il valore predefinito è Nessuno.
Dimensioni del blocco di memoria condivisa del contenitore Docker. Deve essere nel formato (numero)(unità) in cui il numero deve essere maggiore di 0 e l'unità può essere uno di b(byte), k(kilobyte), m(megabyte) o g(gigabyte).
Codice sorgente per eseguire il processo. Può essere un percorso locale o "http:", "https:" o l'URL "azureml:" che punta a una posizione remota.
- identity
- Optional[Union[ ManagedIdentityConfiguration, AmlTokenConfiguration, UserIdentityConfiguration]]
Identità che verrà usata dal processo di comando durante l'esecuzione nel calcolo.
- is_deterministic
- bool
Specifica se il comando restituirà lo stesso output dato lo stesso input. Il valore predefinito è True. Se True, se un componente comando è deterministico ed è stato eseguito prima nell'area di lavoro corrente con le stesse impostazioni e input, riusa i risultati di un processo inviato in precedenza quando viene usato come nodo o passaggio in una pipeline. In questo scenario non verranno usate risorse di calcolo.
- services
- Optional[dict[str, Union[JobService, JupyterLabJobService, SshJobService, TensorBoardJobService, VsCodeJobService]]]
Servizi interattivi per il nodo. Il valore predefinito è Nessuno. Si tratta di un parametro sperimentale e può cambiare in qualsiasi momento. Per altre informazioni, vedere https://aka.ms/azuremlexperimental.
Livello di processo. I valori accettati sono "Spot", "Basic", "Standard" o "Premium".
Priorità del processo nell'ambiente di calcolo. I valori accettati sono "low", "medium" e "high". Il valore predefinito è "medium".
Restituisce
Oggetto Command.
Tipo restituito
Esempio
Creazione di un processo di comando usando il metodo del generatore command().
from azure.ai.ml import Input, Output, command
train_func = command(
environment="AzureML-sklearn-1.0-ubuntu20.04-py38-cpu:33",
command='echo "hello world"',
distribution={"type": "Pytorch", "process_count_per_instance": 2},
inputs={
"training_data": Input(type="uri_folder"),
"max_epochs": 20,
"learning_rate": 1.8,
"learning_rate_schedule": "time-based",
},
outputs={"model_output": Output(type="uri_folder")},
)
load_batch_deployment
Costruire un oggetto distribuzione batch dal file yaml.
load_batch_deployment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> BatchDeployment
Parametri
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Origine yaml locale di un oggetto distribuzione batch. Deve essere un percorso di un file locale o un file già aperto. Se l'origine è un percorso, verrà aperta e letta. Se il file non esiste, viene generata un'eccezione. Se l'origine è un file aperto, il file verrà letto direttamente e verrà generata un'eccezione se il file non è leggibile.
- relative_origin
- str
Origine da usare per dedurre i percorsi relativi dei file a cui si fa riferimento nel yaml analizzato. L'impostazione predefinita è la directory dell'origine di input se si tratta di un input di file o percorso file. Il valore predefinito è "./" se l'origine è un input del flusso senza alcun valore name.
Campi da sovrascrivere sopra il file yaml. Il formato è [{"field1": "value1"}, {"field2": "value2"}]
Restituisce
Oggetto di distribuzione batch costruito.
Tipo restituito
load_batch_endpoint
Costruire un oggetto endpoint batch dal file yaml.
load_batch_endpoint(source: str | PathLike | IO, relative_origin: str | None = None, **kwargs) -> BatchEndpoint
Parametri
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Origine yaml locale di un oggetto endpoint batch. Deve essere un percorso di un file locale o un file già aperto. Se l'origine è un percorso, verrà aperta e letta. Se il file non esiste, viene generata un'eccezione. Se l'origine è un file aperto, il file verrà letto direttamente e verrà generata un'eccezione se il file non è leggibile.
- relative_origin
- str
Origine da usare per dedurre i percorsi relativi dei file a cui si fa riferimento nel yaml analizzato. L'impostazione predefinita è la directory dell'origine di input se si tratta di un input di file o percorso file. Il valore predefinito è "./" se l'origine è un input del flusso senza alcun valore name.
Campi da sovrascrivere sopra il file yaml. Il formato è [{"field1": "value1"}, {"field2": "value2"}]
Restituisce
Oggetto endpoint batch costruito.
Tipo restituito
load_component
Caricare il componente da una funzione componente locale o remota.
load_component(source: str | PathLike | IO | None = None, *, relative_origin: str | None = None, **kwargs) -> CommandComponent | ParallelComponent | PipelineComponent
Parametri
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Origine yaml locale di un componente. Deve essere un percorso di un file locale o un file già aperto. Se l'origine è un percorso, verrà aperta e letta. Se il file non esiste, viene generata un'eccezione. Se l'origine è un file aperto, il file verrà letto direttamente e verrà generata un'eccezione se il file non è leggibile.
- relative_origin
- str
Origine da usare per dedurre i percorsi relativi dei file a cui si fa riferimento nel yaml analizzato. L'impostazione predefinita è la directory dell'origine di input se si tratta di un input di file o percorso file. Il valore predefinito è "./" se l'origine è un input del flusso senza alcun valore name.
Campi da sovrascrivere sopra il file yaml. Il formato è [{"field1": "value1"}, {"field2": "value2"}]
Restituisce
Oggetto Component
Tipo restituito
Esempio
Caricamento di un oggetto Component da un file YAML, override della relativa versione in "1.0.2" e registrazione remota.
from azure.ai.ml import load_component
component = load_component(
source="./sdk/ml/azure-ai-ml/tests/test_configs/components/helloworld_component.yml",
params_override=[{"version": "1.0.2"}],
)
registered_component = ml_client.components.create_or_update(component)
load_compute
Creare un oggetto di calcolo da un file yaml.
load_compute(source: str | PathLike | IO, *, relative_origin: str | None = None, params_override: List[Dict[str, str]] | None = None, **kwargs) -> Compute
Parametri
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Origine yaml locale di un ambiente di calcolo. Deve essere un percorso di un file locale o un file già aperto. Se l'origine è un percorso, verrà aperta e letta. Se il file non esiste, viene generata un'eccezione. Se l'origine è un file aperto, il file verrà letto direttamente e verrà generata un'eccezione se il file non è leggibile.
Origine da usare per dedurre i percorsi relativi dei file a cui si fa riferimento nel yaml analizzato. L'impostazione predefinita è la directory dell'origine di input se si tratta di un input di file o percorso file. Il valore predefinito è "./" se l'origine è un input del flusso senza alcun valore name.
Campi da sovrascrivere sopra il file yaml. Il formato è [{"field1": "value1"}, {"field2": "value2"}]
Restituisce
Oggetto di calcolo caricato.
Tipo restituito
Esempio
Caricamento di un oggetto Compute da un file YAML ed override della relativa descrizione.
from azure.ai.ml import load_compute
compute = load_compute(
"../tests/test_configs/compute/compute-vm.yaml",
params_override=[{"description": "loaded from compute-vm.yaml"}],
)
load_data
Costruire un oggetto dati dal file yaml.
load_data(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Data
Parametri
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Origine yaml locale di un oggetto dati. Deve essere un percorso di un file locale o un file già aperto. Se l'origine è un percorso, verrà aperta e letta. Se il file non esiste, viene generata un'eccezione. Se l'origine è un file aperto, il file verrà letto direttamente e verrà generata un'eccezione se il file non è leggibile.
- relative_origin
- str
Origine da usare per dedurre i percorsi relativi dei file a cui si fa riferimento nel yaml analizzato. L'impostazione predefinita è la directory dell'origine di input se si tratta di un input di file o percorso file. Il valore predefinito è "./" se l'origine è un input del flusso senza alcun valore name.
Campi da sovrascrivere sopra il file yaml. Il formato è [{"field1": "value1"}, {"field2": "value2"}]
Restituisce
Oggetto Data o DataImport costruito.
Tipo restituito
Eccezioni
Generato se i dati non possono essere convalidati correttamente. I dettagli verranno forniti nel messaggio di errore.
load_datastore
Creare un oggetto archivio dati da un file yaml.
load_datastore(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Datastore
Parametri
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Origine yaml locale di un archivio dati. Deve essere un percorso di un file locale o un file già aperto. Se l'origine è un percorso, verrà aperta e letta. Se il file non esiste, viene generata un'eccezione. Se l'origine è un file aperto, il file verrà letto direttamente e verrà generata un'eccezione se il file non è leggibile.
- relative_origin
- str
Origine da usare per dedurre i percorsi relativi dei file a cui si fa riferimento nel yaml analizzato. L'impostazione predefinita è la directory dell'origine di input se si tratta di un input di file o percorso file. Il valore predefinito è "./" se l'origine è un input del flusso senza alcun valore name.
Campi da sovrascrivere sopra il file yaml. Il formato è [{"field1": "value1"}, {"field2": "value2"}]
Restituisce
Oggetto archivio dati caricato.
Tipo restituito
Eccezioni
Generato se l'archivio dati non può essere convalidato correttamente. I dettagli verranno forniti nel messaggio di errore.
load_environment
Costruire un oggetto ambiente dal file yaml.
load_environment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Environment
Parametri
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Origine yaml locale di un ambiente. Deve essere un percorso di un file locale o un file già aperto. Se l'origine è un percorso, verrà aperta e letta. Se il file non esiste, viene generata un'eccezione. Se l'origine è un file aperto, il file verrà letto direttamente e verrà generata un'eccezione se il file non è leggibile.
- relative_origin
- str
Origine da usare per dedurre i percorsi relativi dei file a cui si fa riferimento nel yaml analizzato. L'impostazione predefinita è la directory dell'origine di input se si tratta di un input di file o percorso file. Il valore predefinito è "./" se l'origine è un input del flusso senza alcun valore name.
Campi da sovrascrivere sopra il file yaml. Il formato è [{"field1": "value1"}, {"field2": "value2"}]
Restituisce
Oggetto ambiente costruito.
Tipo restituito
Eccezioni
Generato se l'ambiente non può essere convalidato correttamente. I dettagli verranno forniti nel messaggio di errore.
load_job
Costruisce un oggetto Job da un file YAML.
load_job(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Job
Parametri
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Percorso di un file YAML locale o di un oggetto file già aperto contenente una configurazione del processo. Se l'origine è un percorso, verrà aperta e letta. Se l'origine è un file aperto, il file verrà letto direttamente.
Directory radice per YAML. Questa directory verrà usata come origine per dedurre i percorsi relativi dei file a cui si fa riferimento nel FILE YAML analizzato. L'impostazione predefinita è la stessa directory dell'origine se l'origine è un file o un input del percorso del file. Il valore predefinito è "./" se l'origine è un input del flusso senza alcun valore name.
Restituisce
Oggetto Job caricato.
Tipo restituito
Eccezioni
Generato se il processo non può essere convalidato correttamente. I dettagli verranno forniti nel messaggio di errore.
Esempio
Caricamento di un processo da un file di configurazione YAML.
from azure.ai.ml import load_job
job = load_job(source="./sdk/ml/azure-ai-ml/tests/test_configs/command_job/command_job_test_local_env.yml")
load_model
Costruisce un oggetto Model da un file YAML.
load_model(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Model
Parametri
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Percorso di un file YAML locale o di un oggetto file già aperto contenente una configurazione del processo. Se l'origine è un percorso, verrà aperta e letta. Se l'origine è un file aperto, il file verrà letto direttamente.
Directory radice per YAML. Questa directory verrà usata come origine per dedurre i percorsi relativi dei file a cui si fa riferimento nel FILE YAML analizzato. L'impostazione predefinita è la stessa directory dell'origine se l'origine è un file o un input del percorso del file. Il valore predefinito è "./" se l'origine è un input del flusso senza alcun valore name.
Restituisce
Oggetto Model caricato.
Tipo restituito
Eccezioni
Generato se il processo non può essere convalidato correttamente. I dettagli verranno forniti nel messaggio di errore.
Esempio
Caricamento di un modello da un file di configurazione YAML, override dei parametri nome e versione.
from azure.ai.ml import load_model
model = load_model(
source="./sdk/ml/azure-ai-ml/tests/test_configs/model/model_with_stage.yml",
params_override=[{"name": "new_model_name"}, {"version": "1"}],
)
load_model_package
Nota
Si tratta di un metodo sperimentale e può cambiare in qualsiasi momento. Per altre informazioni, vedere https://aka.ms/azuremlexperimental.
Costruisce un oggetto ModelPackage da un file YAML.
load_model_package(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> ModelPackage
Parametri
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Percorso di un file YAML locale o di un oggetto file già aperto contenente una configurazione del processo. Se l'origine è un percorso, verrà aperta e letta. Se l'origine è un file aperto, il file verrà letto direttamente.
Directory radice per YAML. Questa directory verrà usata come origine per dedurre i percorsi relativi dei file a cui si fa riferimento nel FILE YAML analizzato. L'impostazione predefinita è la stessa directory dell'origine se l'origine è un file o un input del percorso del file. Il valore predefinito è "./" se l'origine è un input del flusso senza alcun valore name.
Restituisce
Oggetto ModelPackage caricato.
Tipo restituito
Eccezioni
Generato se il processo non può essere convalidato correttamente. I dettagli verranno forniti nel messaggio di errore.
Esempio
Caricamento di un ModelPackage da un file di configurazione YAML.
from azure.ai.ml import load_model_package
model_package = load_model_package(
"./sdk/ml/azure-ai-ml/tests/test_configs/model_package/model_package_simple.yml"
)
load_online_deployment
Costruire un oggetto di distribuzione online dal file yaml.
load_online_deployment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> OnlineDeployment
Parametri
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Origine yaml locale di un oggetto di distribuzione online. Deve essere un percorso di un file locale o un file già aperto. Se l'origine è un percorso, verrà aperta e letta. Se il file non esiste, viene generata un'eccezione. Se l'origine è un file aperto, il file verrà letto direttamente e verrà generata un'eccezione se il file non è leggibile.
- relative_origin
- str
Origine da usare per dedurre i percorsi relativi dei file a cui si fa riferimento nel yaml analizzato. L'impostazione predefinita è la directory dell'origine di input se si tratta di un input di file o percorso file. Il valore predefinito è "./" se l'origine è un input del flusso senza alcun valore name.
Campi da sovrascrivere sopra il file yaml. Il formato è [{"field1": "value1"}, {"field2": "value2"}]
Restituisce
Oggetto di distribuzione online costruito.
Tipo restituito
Eccezioni
Generato se la distribuzione online non può essere convalidata correttamente. I dettagli verranno forniti nel messaggio di errore.
load_online_endpoint
Costruire un oggetto endpoint online dal file yaml.
load_online_endpoint(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> OnlineEndpoint
Parametri
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Origine yaml locale di un oggetto endpoint online. Deve essere un percorso di un file locale o un file già aperto. Se l'origine è un percorso, verrà aperta e letta. Se il file non esiste, viene generata un'eccezione. Se l'origine è un file aperto, il file verrà letto direttamente e verrà generata un'eccezione se il file non è leggibile.
- relative_origin
- str
Origine da usare per dedurre i percorsi relativi dei file a cui si fa riferimento nel yaml analizzato. L'impostazione predefinita è la directory dell'origine di input se si tratta di un input di file o percorso file. Il valore predefinito è "./" se l'origine è un input del flusso senza alcun valore name.
Campi da sovrascrivere sopra il file yaml. Il formato è [{"field1": "value1"}, {"field2": "value2"}]
Restituisce
Oggetto endpoint online costruito.
Tipo restituito
Eccezioni
Generato se l'endpoint online non può essere convalidato correttamente. I dettagli verranno forniti nel messaggio di errore.
load_registry
Caricare un oggetto del Registro di sistema da un file yaml.
load_registry(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Registry
Parametri
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Origine yaml locale di un registro. Deve essere un percorso di un file locale o un file già aperto. Se l'origine è un percorso, verrà aperta e letta. Se il file non esiste, viene generata un'eccezione. Se l'origine è un file aperto, il file verrà letto direttamente e verrà generata un'eccezione se il file non è leggibile.
- relative_origin
- str
Origine da usare per dedurre i percorsi relativi dei file a cui si fa riferimento nel yaml analizzato. L'impostazione predefinita è la directory dell'origine di input se si tratta di un input di file o percorso file. Il valore predefinito è "./" se l'origine è un input del flusso senza alcun valore name.
Campi da sovrascrivere sopra il file yaml. Il formato è [{"field1": "value1"}, {"field2": "value2"}]
Restituisce
Oggetto registro caricato.
Tipo restituito
load_workspace
Caricare un oggetto area di lavoro da un file yaml.
load_workspace(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Workspace
Parametri
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Origine yaml locale di un'area di lavoro. Deve essere un percorso di un file locale o un file già aperto. Se l'origine è un percorso, verrà aperta e letta. Se il file non esiste, viene generata un'eccezione. Se l'origine è un file aperto, il file verrà letto direttamente e verrà generata un'eccezione se il file non è leggibile.
- relative_origin
- str
Origine da usare per dedurre i percorsi relativi dei file a cui si fa riferimento nel yaml analizzato. L'impostazione predefinita è la directory dell'origine di input se si tratta di un input di file o percorso file. Il valore predefinito è "./" se l'origine è un input del flusso senza alcun valore name.
Campi da sovrascrivere sopra il file yaml. Il formato è [{"field1": "value1"}, {"field2": "value2"}]
Restituisce
Oggetto area di lavoro caricato.
Tipo restituito
load_workspace_connection
Costruire un oggetto connessione dell'area di lavoro dal file yaml.
load_workspace_connection(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> WorkspaceConnection
Parametri
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Origine yaml locale di un oggetto connessione dell'area di lavoro. Deve essere un percorso di un file locale o un file già aperto. Se l'origine è un percorso, verrà aperta e letta. Se il file non esiste, viene generata un'eccezione. Se l'origine è un file aperto, il file verrà letto direttamente e verrà generata un'eccezione se il file non è leggibile.
- relative_origin
- str
Origine da usare per dedurre i percorsi relativi dei file a cui si fa riferimento nel yaml analizzato. L'impostazione predefinita è la directory dell'origine di input se si tratta di un input di file o percorso file. Il valore predefinito è "./" se l'origine è un input del flusso senza alcun valore name.
Campi da sovrascrivere sopra il file yaml. Il formato è [{"field1": "value1"}, {"field2": "value2"}]
Restituisce
Oggetto connessione dell'area di lavoro costruito.
Tipo restituito
load_workspace_hub
Nota
Si tratta di un metodo sperimentale e può cambiare in qualsiasi momento. Per altre informazioni, vedere https://aka.ms/azuremlexperimental.
Caricare un oggetto WorkspaceHub da un file YAML.
load_workspace_hub(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> WorkspaceHub
Parametri
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Origine yaml locale di un oggetto WorkspaceHub. Deve essere un percorso di un file locale o un file già aperto. Se l'origine è un percorso, verrà aperta e letta. Se il file non esiste, viene generata un'eccezione. Se l'origine è un file aperto, il file verrà letto direttamente e verrà generata un'eccezione se il file non è leggibile.
- relative_origin
- str
Origine da usare per dedurre i percorsi relativi dei file a cui si fa riferimento nel yaml analizzato. L'impostazione predefinita è la directory dell'origine di input se si tratta di un input di file o percorso file. Il valore predefinito è "./" se l'origine è un input del flusso senza alcun valore name.
Campi da sovrascrivere sopra il file yaml. Il formato è [{"field1": "value1"}, {"field2": "value2"}]
Restituisce
Oggetto WorkspaceHub caricato.
Tipo restituito
spark
Crea un oggetto Spark che può essere usato all'interno di una funzione dsl.pipeline o usato come processo Spark autonomo.
spark(*, experiment_name: str | None = None, name: str | None = None, display_name: str | None = None, description: str | None = None, tags: Dict | None = None, code: PathLike | str | None = None, entry: Dict[str, str] | SparkJobEntry | None = None, py_files: List[str] | None = None, jars: List[str] | None = None, files: List[str] | None = None, archives: List[str] | None = None, identity: Dict[str, str] | ManagedIdentity | AmlToken | UserIdentity | None = None, driver_cores: int | None = None, driver_memory: str | None = None, executor_cores: int | None = None, executor_memory: str | None = None, executor_instances: int | None = None, dynamic_allocation_enabled: bool | None = None, dynamic_allocation_min_executors: int | None = None, dynamic_allocation_max_executors: int | None = None, conf: Dict[str, str] | None = None, environment: str | Environment | None = None, inputs: Dict | None = None, outputs: Dict | None = None, args: str | None = None, compute: str | None = None, resources: Dict | SparkResourceConfiguration | None = None, **kwargs) -> Spark
Parametri
Dizionario dei tag per il processo. I tag possono essere aggiunti, rimossi e aggiornati. Il valore predefinito è Nessuno.
- code
Codice sorgente per eseguire il processo. Può essere un percorso locale o "http:", "https:" o l'URL "azureml:" che punta a una posizione remota.
Elenco di file .zip, egg o py da inserire nelle app PYTHONPATH per Python. Il valore predefinito è Nessuno.
Elenco di . File JAR da includere nei classpath del driver e dell'executor. Il valore predefinito è Nessuno.
Elenco di file da inserire nella directory di lavoro di ogni executor. Il valore predefinito è Nessuno.
Elenco di archivi da estrarre nella directory di lavoro di ogni executor. Il valore predefinito è Nessuno.
- identity
- Optional[Union[ dict[str, str], ManagedIdentityConfiguration, AmlTokenConfiguration, UserIdentityConfiguration]]
Identità che verrà usata dal processo Spark durante l'esecuzione nel calcolo.
Numero di core da usare per il processo del driver, solo in modalità cluster.
Quantità di memoria da usare per il processo del driver, formattata come stringhe con suffisso di unità di dimensione ("k", "m", "g" o "t") (ad esempio "512m", "2g").
Quantità di memoria da usare per processo executor, formattata come stringhe con suffisso di unità di dimensione ("k", "m", "g" o "t") (ad esempio "512m", "2g").
Indica se usare l'allocazione dinamica delle risorse, che ridimensiona il numero di executor registrati con questa applicazione in base al carico di lavoro.
Limite inferiore per il numero di executor se è abilitata l'allocazione dinamica.
Limite superiore per il numero di executor se è abilitata l'allocazione dinamica.
Dizionario con chiave e valori di configurazione Spark predefiniti. Il valore predefinito è Nessuno.
- environment
- Optional[Union[str, Environment]]
Ambiente di Azure ML in cui eseguire il processo.
Mapping dei nomi di input ai dati di input usati nel processo. Il valore predefinito è Nessuno.
Mapping dei nomi di output ai dati di output usati nel processo. Il valore predefinito è Nessuno.
- resources
- Optional[Union[dict, SparkResourceConfiguration]]
Configurazione della risorsa di calcolo per il processo.
Restituisce
Oggetto Spark.
Tipo restituito
Esempio
Compilazione di una pipeline Spark con l'elemento Decorator della pipeline DSL
from azure.ai.ml import Input, Output, dsl, spark
from azure.ai.ml.constants import AssetTypes, InputOutputModes
# define the spark task
first_step = spark(
code="/src",
entry={"file": "add_greeting_column.py"},
py_files=["utils.zip"],
files=["my_files.txt"],
driver_cores=2,
driver_memory="1g",
executor_cores=1,
executor_memory="1g",
executor_instances=1,
inputs=dict(
file_input=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT)
),
args="--file_input ${{inputs.file_input}}",
resources={"instance_type": "standard_e4s_v3", "runtime_version": "3.2.0"},
)
second_step = spark(
code="/src",
entry={"file": "count_by_row.py"},
jars=["scala_project.jar"],
files=["my_files.txt"],
driver_cores=2,
driver_memory="1g",
executor_cores=1,
executor_memory="1g",
executor_instances=1,
inputs=dict(
file_input=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT)
),
outputs=dict(output=Output(type="uri_folder", mode=InputOutputModes.DIRECT)),
args="--file_input ${{inputs.file_input}} --output ${{outputs.output}}",
resources={"instance_type": "standard_e4s_v3", "runtime_version": "3.2.0"},
)
# Define pipeline
@dsl.pipeline(description="submit a pipeline with spark job")
def spark_pipeline_from_builder(data):
add_greeting_column = first_step(file_input=data)
count_by_row = second_step(file_input=data)
return {"output": count_by_row.outputs.output}
pipeline = spark_pipeline_from_builder(
data=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT),
)
Azure SDK for Python