Freigeben über


Estimator Klasse

Stellt einen generischen Schätzer zum Trainieren von Daten mit einem beliebigen angegebenen Framework dar.

VERALTET. Verwenden Sie das ScriptRunConfig-Objekt mit Ihrer eigenen definierten Umgebung oder einer zusammengestellten Azure ML-Umgebung. Eine Einführung in das Konfigurieren von Experimentausführungen mit „ScriptRunConfig“ finden Sie unter Konfigurieren und Übermitteln von Trainingsausführungen.

Diese Klasse ist zur Verwendung mit Machine Learning-Frameworks konzipiert, die noch nicht über einen vorkonfigurierten Azure Machine Learning-Schätzer verfügen. Vorkonfigurierte Schätzer sind für Chainer, PyTorch, TensorFlow und SKLearn vorhanden. Weitere Informationen zum Erstellen eines nicht vorkonfigurierten Schätzers finden Sie im Abschnitt zum Trainieren von Modellen mit Azure Machine Learning mithilfe eines Schätzers.

Die Schätzer-Klasse umschließt Information zur Laufzeitkonfiguration, um die Aufgaben zu vereinfachen, die sich auf das Angeben der Ausführung eines Skripts beziehen. Sie unterstützt die Ausführung mit einem und mit mehreren Knoten. Wenn Sie den Schätzer ausführen, wird ein Modell im Ausgabeverzeichnis erstellt, das in Ihrem Trainingsskript angegeben ist.

Initialisieren Sie den Schätzer.

azureml.core.environment._DEFAULT_SHM_SIZE wird verwendet. Weitere Informationen finden Sie in der Referenz zur Docker-Ausführung. :type shm_size: str :p aram resume_from: Der Datenpfad, der die Prüfpunkt- oder Modelldateien enthält, von denen aus das Experiment fortgesetzt werden soll. :type resume_from: azureml.data.datapath.DataPath :p aram max_run_duration_seconds: Die maximal zulässige Ausführungszeit. Azure ML versucht automatisch

Brechen Sie die Ausführung ab, wenn sie länger als dieser Wert dauert.

Vererbung
azureml.train.estimator._mml_base_estimator.MMLBaseEstimator
Estimator

Konstruktor

Estimator(source_directory, *, compute_target=None, vm_size=None, vm_priority=None, entry_script=None, script_params=None, node_count=1, process_count_per_node=1, distributed_backend=None, distributed_training=None, use_gpu=False, use_docker=True, custom_docker_base_image=None, custom_docker_image=None, image_registry_details=None, user_managed=False, conda_packages=None, pip_packages=None, conda_dependencies_file_path=None, pip_requirements_file_path=None, conda_dependencies_file=None, pip_requirements_file=None, environment_variables=None, environment_definition=None, inputs=None, source_directory_data_store=None, shm_size=None, resume_from=None, max_run_duration_seconds=None, _disable_validation=True, _show_lint_warnings=False, _show_package_warnings=False)

Parameter

Name Beschreibung
source_directory
Erforderlich
str

Ein lokales Verzeichnis mit Experimentkonfiguration und Codedateien, die für einen Trainingsauftrag erforderlich sind

compute_target
Erforderlich

Das Computeziel für das Training. Dies kann entweder ein Objekt oder die Zeichenfolge „local“ sein.

vm_size
Erforderlich
str

Die VM-Größe des Computeziels, das für das Training erstellt wird. Unterstützte Werte: beliebige Azure-VM-Größen.

vm_priority
Erforderlich
str

Die VM-Priorität des Computeziels, das für das Training erstellt wird. Wenn keine Angabe erfolgt, wird „dedicated“ verwendet.

Unterstützte Werte: 'dedicated' und 'lowpriority'.

Dies geschieht nur, wenn der Parameter vm_size in der Eingabe angegeben wird.

entry_script
Erforderlich
str

Der relative Pfad zu der Datei, die zum Starten des Trainings verwendet wird

script_params
Erforderlich

Ein Wörterbuch mit Befehlszeilenargumenten, die an das in entry_script angegebene Trainingsskript übergeben werden

node_count
Erforderlich
int

Die Anzahl der Knoten am Computeziel, die für das Training verwendet werden. Wenn der Wert größer als 1 ist, wird ein verteilter MPI-Auftrag ausgeführt.

process_count_per_node
Erforderlich
int

Die Anzahl der Prozesse (oder „Worker“), die auf jedem Knoten ausgeführt werden sollen. Wenn der Wert größer als 1 ist, wird ein verteilter MPI-Auftrag ausgeführt. Für verteilte Aufträge wird nur das Ziel AmlCompute unterstützt.

distributed_backend
Erforderlich
str

Das Kommunikations-Back-End für das verteilte Training

VERALTET. Verwenden Sie den Parameter distributed_training.

Unterstützte Werte: 'mpi'. 'mpi' stellt MPI/Horovod dar.

Dieser Parameter ist erforderlich, wenn node_count oder process_count_per_node> 1 ist.

Wenn node_count == 1 und process_count_per_node == 1 ist, wird nur dann ein Back-End verwendet, wenn es explizit festgelegt wird. Für das verteilte Training wird nur das Ziel AmlCompute unterstützt.

distributed_training
Erforderlich
Mpi

Parameter zum Ausführen eines verteilten Trainingsauftrags.

Verwenden Sie zum Ausführen eines verteilten Auftrags mit MPI-Back-End das Mpi-Objekt, um process_count_per_node anzugeben.

use_gpu
Erforderlich

Gibt an, ob die Umgebung, in der das Experiment ausgeführt werden soll, GPUs unterstützen soll „True“ gibt an, dass ein GPU-basiertes Docker-Standardimage in der Umgebung verwendet wird. Bei „False“ wird ein CPU-basiertes Image verwendet. Docker-Standardimages (CPU oder GPU) werden nur verwendet, wenn der Parameter custom_docker_image nicht festgelegt ist. Diese Einstellung wird nur bei Docker-fähigen Computezielen verwendet.

use_docker
Erforderlich

Gibt an, ob die Umgebung, in der das Experiment ausgeführt werden soll, Docker-basiert sein soll

custom_docker_base_image
Erforderlich
str

Der Name des Docker-Images, mit dem das für das Training zu verwendende Image erstellt wird.

VERALTET. Verwenden Sie den Parameter custom_docker_image.

Wenn diese Einstellung nicht festgelegt ist, wird als Basisimage ein CPU-basiertes Standardimage verwendet.

custom_docker_image
Erforderlich
str

Der Name des Docker-Images, mit dem das für das Training zu verwendende Image erstellt wird. Wenn diese Einstellung nicht festgelegt ist, wird als Basisimage ein CPU-basiertes Standardimage verwendet. Geben Sie nur Images an, die in öffentlichen Docker-Repositorys verfügbar sind (Docker Hub). Um ein Image aus einem privaten Docker-Repository zu verwenden, verwenden Sie stattdessen den environment_definition-Parameter des Konstruktors.

image_registry_details
Erforderlich

Die Details der Docker-Imageregistrierung

user_managed
Erforderlich

Gibt an, ob Azure Machine Learning eine vorhandene Python-Umgebung wiederverwendet „False“ gibt an, dass eine Python-Umgebung basierend auf der Conda-Abhängigkeitsspezifikation erstellt wird.

conda_packages
Erforderlich

Eine Liste von Zeichenfolgen, die Conda-Pakete darstellen, die der Python-Umgebung für das Experiment hinzugefügt werden sollen

pip_packages
Erforderlich

Eine Liste von Zeichenfolgen, die pip-Pakete darstellen, die der Python-Umgebung für das Experiment hinzugefügt werden sollen

conda_dependencies_file_path
Erforderlich
str

Der relative Pfad zur YAML-Datei mit den Conda-Abhängigkeiten. Falls angegeben, installiert Azure Machine Learning keine frameworkbezogenen Pakete.

VERALTET. Verwenden Sie den Parameter conda_dependencies_file.

Geben Sie entweder conda_dependencies_file_path oder conda_dependencies_file an. Wenn beide angegeben werden, wird conda_dependencies_file verwendet.

pip_requirements_file_path
Erforderlich
str

Der relative Pfad zur Textdatei mit den pip-Anforderungen.

VERALTET. Verwenden Sie den Parameter pip_requirements_file.

Der Parameter kann in Kombination mit dem Parameter pip_packages angegeben werden. Geben Sie entweder pip_requirements_file_path oder pip_requirements_file an. Wenn beide angegeben werden, wird pip_requirements_file verwendet.

conda_dependencies_file
Erforderlich
str

Der relative Pfad zur YAML-Datei mit den Conda-Abhängigkeiten Falls angegeben, installiert Azure Machine Learning keine frameworkbezogenen Pakete.

pip_requirements_file
Erforderlich
str

Der relative Pfad zur Textdatei mit den pip-Anforderungen. Der Parameter kann in Kombination mit dem Parameter pip_packages angegeben werden.

environment_variables
Erforderlich

Ein Wörterbuch mit Umgebungsvariablennamen und Werten Diese Umgebungsvariablen werden für den Prozess festgelegt, in dem das Benutzerskript ausgeführt wird.

environment_definition
Erforderlich

Die Umgebungsdefinition für das Experiment Sie enthält PythonSection, DockerSection und Umgebungsvariablen. Jede Umgebungsoption, die nicht direkt über andere Parameter für die Erstellung des Schätzers verfügbar gemacht wird, kann mit diesem Parameter festgelegt werden. Wenn dieser Parameter angegeben wird, hat er Vorrang vor anderen umgebungsbezogenen Parametern wie use_gpu, custom_docker_image, conda_packages oder pip_packages. Bei ungültigen Kombinationen werden Fehler gemeldet.

inputs
Erforderlich

Eine Liste von DataReference- oder DatasetConsumptionConfig-Objekten, die als Eingabe verwendet werden sollen

source_directory_data_store
Erforderlich

Der Sicherungsdatenspeicher für die Projektfreigabe

shm_size
Erforderlich
str

Größe des freigegebenen Speicherblocks des Docker-Containers. Wenn diese Einstellung nicht festgelegt ist, wird die Standardgröße „azureml.core.environment._DEFAULT_SHM_SIZE“ verwendet. Weitere Informationen finden Sie in der Referenz zur Docker-Ausführung.

resume_from
Erforderlich

Der Datenpfad, der die Prüfpunkt- oder Modelldateien enthält, aus denen das Experiment fortgesetzt werden soll

max_run_duration_seconds
Erforderlich
int

Die maximal zulässige Zeit für die Ausführung Azure Machine Learning versucht, die Ausführung automatisch abzubrechen, wenn sie länger dauert als dieser Wert angibt.

source_directory
Erforderlich
str

Ein lokales Verzeichnis mit Experimentkonfiguration und Codedateien, die für einen Trainingsauftrag erforderlich sind

compute_target
Erforderlich

Das Computeziel für das Training. Dies kann entweder ein Objekt oder die Zeichenfolge „local“ sein.

vm_size
Erforderlich
str

Die VM-Größe des Computeziels, das für das Training erstellt wird. Unterstützte Werte: beliebige Azure-VM-Größen.

vm_priority
Erforderlich
str

Die VM-Priorität des Computeziels, das für das Training erstellt wird. Wenn keine Angabe erfolgt, wird „dedicated“ verwendet.

Unterstützte Werte: 'dedicated' und 'lowpriority'.

Dies geschieht nur, wenn der Parameter vm_size in der Eingabe angegeben wird.

entry_script
Erforderlich
str

Der relative Pfad zu der Datei, die zum Starten des Trainings verwendet wird

script_params
Erforderlich

Ein Wörterbuch mit Befehlszeilenargumenten, die an das in entry_script angegebene Trainingsskript übergeben werden

node_count
Erforderlich
int

Die Anzahl der Knoten am Computeziel, die für das Training verwendet werden. Wenn größer als 1, wird ein MPI-verteilter Auftrag ausgeführt. Für verteilte Aufträge wird nur das Ziel AmlCompute unterstützt.

process_count_per_node
Erforderlich
int

Die Anzahl von Prozessen pro Knoten. Wenn größer als 1, wird ein MPI-verteilter Auftrag ausgeführt. Für verteilte Aufträge wird nur das Ziel AmlCompute unterstützt.

distributed_backend
Erforderlich
str

Das Kommunikations-Back-End für das verteilte Training

VERALTET. Verwenden Sie den Parameter distributed_training.

Unterstützte Werte: 'mpi'. 'mpi' stellt MPI/Horovod dar.

Dieser Parameter ist erforderlich, wenn node_count oder process_count_per_node> 1 ist.

Wenn node_count == 1 und process_count_per_node == 1 ist, wird nur dann ein Back-End verwendet, wenn es explizit festgelegt wird. Für das verteilte Training wird nur das Ziel AmlCompute unterstützt.

distributed_training
Erforderlich
Mpi

Parameter zum Ausführen eines verteilten Trainingsauftrags.

Verwenden Sie zum Ausführen eines verteilten Auftrags mit MPI-Back-End das Mpi-Objekt, um process_count_per_node anzugeben.

use_gpu
Erforderlich

Gibt an, ob die Umgebung, in der das Experiment ausgeführt werden soll, GPUs unterstützen soll. „True“ gibt an, dass ein GPU-basiertes Docker-Standardimage in der Umgebung verwendet wird. Bei „False“ wird ein CPU-basiertes Image verwendet. Docker-Standardimages (CPU oder GPU) werden nur verwendet, wenn der Parameter custom_docker_image nicht festgelegt ist. Diese Einstellung wird nur bei Docker-fähigen Computezielen verwendet.

use_docker
Erforderlich

Gibt an, ob die Umgebung, in der das Experiment ausgeführt werden soll, Docker-basiert sein soll.

custom_docker_base_image
Erforderlich
str

Der Name des Docker-Images, mit dem das für das Training zu verwendende Image erstellt wird.

VERALTET. Verwenden Sie den Parameter custom_docker_image.

Wenn diese Einstellung nicht festgelegt ist, wird als Basisimage ein CPU-basiertes Standardimage verwendet.

custom_docker_image
Erforderlich
str

Der Name des Docker-Images, mit dem das für das Training zu verwendende Image erstellt wird. Wenn diese Einstellung nicht festgelegt ist, wird als Basisimage ein CPU-basiertes Standardimage verwendet. Geben Sie nur Images an, die in öffentlichen Docker-Repositorys verfügbar sind (Docker Hub). Um ein Image aus einem privaten Docker-Repository zu verwenden, verwenden Sie stattdessen den environment_definition-Parameter des Konstruktors.

image_registry_details
Erforderlich

Die Details der Docker-Imageregistrierung

user_managed
Erforderlich

Gibt an, ob Azure Machine Learning eine vorhandene Python-Umgebung wiederverwendet „False“ gibt an, dass eine Python-Umgebung basierend auf der Conda-Abhängigkeitsspezifikation erstellt wird.

conda_packages
Erforderlich

Eine Liste von Zeichenfolgen, die Conda-Pakete darstellen, die der Python-Umgebung für das Experiment hinzugefügt werden sollen

pip_packages
Erforderlich

Eine Liste von Zeichenfolgen, die pip-Pakete darstellen, die der Python-Umgebung für das Experiment hinzugefügt werden sollen

conda_dependencies_file_path
Erforderlich

Der relative Pfad zur YAML-Datei mit den Conda-Abhängigkeiten. Falls angegeben, installiert Azure Machine Learning keine frameworkbezogenen Pakete.

VERALTET. Verwenden Sie den Parameter conda_dependencies_file.

Geben Sie entweder conda_dependencies_file_path oder conda_dependencies_file an. Wenn beide angegeben werden, wird conda_dependencies_file verwendet.

pip_requirements_file_path
Erforderlich

Der relative Pfad zur Textdatei mit den pip-Anforderungen.

VERALTET. Verwenden Sie den Parameter pip_requirements_file.

Dieser kann in Kombination mit dem Parameter pip_packages bereitgestellt werden. Geben Sie entweder pip_requirements_file_path oder pip_requirements_file an. Wenn beide angegeben werden, wird pip_requirements_file verwendet.

pip_requirements_file
Erforderlich
str

Der relative Pfad zur Textdatei mit den pip-Anforderungen. Dieser kann in Kombination mit dem Parameter pip_packages bereitgestellt werden.

environment_variables
Erforderlich

Ein Wörterbuch mit Umgebungsvariablennamen und Werten. Diese Umgebungsvariablen werden für den Prozess festgelegt, in dem das Benutzerskript ausgeführt wird.

environment_definition
Erforderlich

Die Umgebungsdefinition für das Experiment Sie enthält PythonSection, DockerSection und Umgebungsvariablen. Jede Umgebungsoption, die nicht direkt über andere Parameter für die Erstellung des Schätzers verfügbar gemacht wird, kann mit diesem Parameter festgelegt werden. Wenn dieser Parameter angegeben wird, hat er Vorrang vor anderen umgebungsbezogenen Parametern wie use_gpu, custom_docker_image, conda_packages oder pip_packages. Bei ungültigen Kombinationen werden Fehler gemeldet.

inputs
Erforderlich

Eine Liste von DataReference- oder DatasetConsumptionConfig-Objekten, die als Eingabe verwendet werden sollen

source_directory_data_store
Erforderlich

Der Sicherungsdatenspeicher für die Projektfreigabe

shm_size
Erforderlich

Größe des freigegebenen Speicherblocks des Docker-Containers. Wenn nicht festgelegt, ist die Standardeinstellung

_disable_validation
Erforderlich

Deaktivieren Sie die Skriptüberprüfung vor der Übermittlung. Der Standardwert ist True.

_show_lint_warnings
Erforderlich

Anzeigen von Skript-Lintingwarnungen. Die Standardeinstellung lautet „false“.

_show_package_warnings
Erforderlich

Paketvalidierungswarnungen anzeigen. Die Standardeinstellung lautet „false“.