Teilen über


AutoML-Klassifizierung

In diesem Artikel wird eine Komponente im Azure Machine Learning-Designer beschrieben.

Verwenden Sie diese Komponente, um ein Machine Learning-Modell zu erstellen, das auf der AutoML-Klassifizierung basiert.

Vorgehensweise zur Konfiguration

Diese Komponente erstellt ein Klassifizierungsmodell für Tabellendaten.

Für dieses Modell wird ein Trainingsdataset benötigt. Validierungs- und Testdatasets sind optional.

Automatisiertes ML erstellt parallel eine Reihe von Pipelines, die unterschiedliche Algorithmen und Parameter für Ihr Modell ausprobieren. Der Dienst durchläuft die ML-Algorithmen iterativ im Zusammenspiel mit der jeweiligen Featureauswahl, wobei für jede Iteration ein Modell mit einer Trainingsbewertung erzeugt wird. Sie können die Metrik auswählen, für die das Modell optimiert werden soll. Je besser der Score für die gewählte Metrik, desto besser passt das Modell zu Ihren Daten. Sie können ein Beendigungskriterium für das Experiment definieren. Das Beendigungskriterium ist ein Modell mit einem bestimmten Trainingsscore, das AutoML ermitteln soll. Die Ausführung wird beendet, sobald das definierte Beendigungskriterium erreicht wird. Anschließend gibt die Komponente das beste Modell aus, das am Ende der Ausführung für Ihr Dataset generiert wurde.

  1. Fügen Sie Ihrer Pipeline die Komponente AutoML-Klassifizierung hinzu.

  2. Geben Sie die Zielspalte für die Modellausgabe an.

  3. Für die Klassifizierung können Sie auch Deep Learning aktivieren.

Wenn Deep Learning aktiviert ist, ist die Überprüfung auf train_validation split beschränkt.

  1. (Optional:) Anzeigen weiterer Konfigurationseinstellungen: zusätzliche Einstellungen, mit denen Sie den Trainingsauftrag besser steuern können. Andernfalls werden die Standardwerte auf Basis der Experimentauswahl und -daten angewendet.

    Zusätzliche Konfigurationen BESCHREIBUNG
    Primary metric (Primäre Metrik) Die wichtigste Metrik, die für die Bewertung Ihres Modells verwendet wird. Weitere Informationen zur Modellmetriken.
    Debugmodell über das verantwortungsvolle KI-Dashboard Generieren Sie ein verantwortungsvolles KI-Dashboard, um eine ganzheitliche Bewertung und das Debuggen des empfohlenen besten Modells durchzuführen. Dies umfasst Erkenntnisse wie Modellerklärungen, Fairness- und Leistungs-Explorer, Daten-Explorer und Modellfehleranalyse. Erfahren Sie mehr darüber, wie Sie ein verantwortungsvolles KI-Dashboard generieren können.
    Blocked algorithm (Blockierter Algorithmus) Wählen Sie Algorithmen aus, die Sie aus den Trainingsauftrag ausschließen möchten.

    Das Zulassen von Algorithmen ist nur für SDK-Experimente verfügbar.
    Weitere Informationen finden Sie auf der Seite zu den unterstützten Algorithmen für einzelne Aufgabentypen.
    Beendigungskriterium Wenn eines dieser Kriterien erfüllt ist, wird der Trainingsauftrag beendet.
    Training job time (hours) Trainingsauftragszeit (Stunden): Gibt an, wie lange der Trainingsauftrag ausgeführt werden soll.
    Metrischer Bewertungsschwellenwert: Die Metrikmindestbewertung für alle Pipelines. Auf diese Weise wird sichergestellt, dass Sie nicht mehr Zeit für den Trainingsauftrag aufwenden als nötig, wenn Sie eine definierte Zielmetrik verwenden, die Sie erreichen möchten.
    Parallelität Max concurrent iterations (Maximale Anzahl gleichzeitiger Iterationen): Die maximale Anzahl von Pipelines (Iterationen), die im Trainingsauftrag getestet werden. Der Auftrag wird nicht häufiger als die angegebene Anzahl von Iterationen ausgeführt. Erfahren Sie mehr darüber, wie automatisiertes ML mehrere untergeordnete Aufträge in Clustern durchführt.
  2. Mit dem Formular [Optional] Validieren und testen können Sie Folgendes tun.

    1. Geben Sie die Art der Validierung an, die für Ihren Ausbildungsauftrag verwendet werden soll.

    2. Stellen Sie einen Testdatensatz (Vorschau) zur Verfügung, um das empfohlene Modell zu bewerten, das automatisierte ML am Ende Ihres Experiments für Sie erstellt. Wenn Sie Testdaten bereitstellen, wird am Ende Ihres Experiments automatisch einen Testauftrag ausgelöst. Dieser Testauftrag wird nur mit dem besten Modell durchgeführt, das vom automatischen ML empfohlen wurde.

      Wichtig

      Die Bereitstellung eines Testdatensatzes zur Bewertung der erstellten Modelle ist eine Previewfunktion. Diese Funktion ist eine experimentelle Previewfunktion, die jederzeit geändert werden kann.

      • Die Testdaten werden getrennt von den Trainings- und Validierungsdaten betrachtet, um die Ergebnisse des Testauftrags des empfohlenen Modells nicht zu verfälschen. Mehr über Verzerrungen bei der Modellvalidierung erfahren.
      • Sie können entweder Ihren eigenen Testdatensatz zur Verfügung stellen oder sich dafür entscheiden, einen Prozentsatz Ihres Trainingsdatensatzes zu verwenden. Testdaten müssen in Form eines Azure Machine Learning TabularDatasetvorliegen.
      • Das Schema des Testdatensatzes sollte mit dem Trainingsdatensatz übereinstimmen. Die Zielspalte ist optional, aber wenn keine Zielspalte angegeben wird, werden keine Testmetriken berechnet.
      • Das Testdataset sollte nicht dasselbe sein wie der Trainingsdataset oder das Validierungsdataset.

Nächste Schritte

Hier finden Sie die für Azure Machine Learning verfügbaren Komponenten.