Share via


Importieren aus Azure SQL-Datenbank

Wichtig

Der Support für Machine Learning Studio (klassisch) endet am 31. August 2024. Es wird empfohlen, bis zu diesem Datum auf Azure Machine Learning umzustellen.

Ab dem 1. Dezember 2021 können Sie keine neuen Ressourcen in Machine Learning Studio (klassisch) mehr erstellen. Bis zum 31. August 2024 können Sie die vorhandenen Ressourcen in Machine Learning Studio (klassisch) weiterhin verwenden.

Die Dokumentation zu ML Studio (klassisch) wird nicht mehr fortgeführt und kann künftig nicht mehr aktualisiert werden.

In diesem Artikel wird beschrieben, wie Sie das Import Data-Modul in Machine Learning Studio (klassisch) verwenden, um Daten aus einem Azure SQL-Datenbank oder Azure SQL Data Warehouse.

Hinweis

Gilt für: Machine Learning Studio (klassisch)

Ähnliche Drag & Drop-Module sind im Azure Machine Learning-Designer verfügbar.

Wenn Sie Daten aus einer Datenbank importieren möchten, müssen Sie sowohl den Servernamen als auch den Datenbanknamen und eine SQL-Anweisung angeben, die die Tabelle, Sicht oder Abfrage definiert.

Das Speichern von Daten in Azure-Datenbanken ist im Allgemeinen teurer als die Verwendung von Tabellen oder Blobs in Azure. Darüber hinaus gelten abhängig von Ihrem Abonnementtyp ggf. auch Einschränkungen hinsichtlich der Datenmenge, die in einer Datenbank gespeichert werden kann. Für SQL Azure-Datenbank-Transaktionen fallen allerdings keine Transaktionsgebühren an, sodass sich diese Option ideal für den schnellen Zugriff auf kleinere Mengen häufig verwendeter Informationen wie Datennachschlagetabellen oder Datenwörterbücher eignet.

Das Speichern von Daten in einer Azure-Datenbank wird auch bevorzugt, wenn Daten vor dem Lesen gefiltert werden müssen oder wenn Sie Vorhersagen oder Metriken zur Berichterstellung wieder in der Datenbank speichern möchten.

Importieren von Daten aus Azure SQL-Datenbank oder SQL Data Warehouse

Verwenden des Assistenten zum Importieren von Daten

Das Modul verfügt über einen neuen Assistenten, mit dem Sie eine Speicheroption auswählen, aus vorhandenen Abonnements und Konten auswählen und schnell alle Optionen konfigurieren können.

  1. Fügen Sie das Modul Import Data Ihrem Experiment hinzu. Sie finden das Modul in Studio (klassisch) in der Kategorie Dateneingabe und - ausgabe.

  2. Klicken Sie auf Datenimport-Assistenten starten , und befolgen Sie die Anweisungen.

  3. Klicken Sie nach Abschluss der Konfiguration mit der rechten Maustaste auf das Modul, und wählen Sie Ausgewählte ausführen aus, um die Daten tatsächlich in Ihr Experiment zu kopieren.

Wenn Sie eine vorhandene Datenverbindung bearbeiten müssen, lädt der Assistent alle vorherigen Konfigurationsdetails, damit Sie nicht von Grund auf neu starten müssen.

Manuelles Festlegen der Eigenschaften im Modul „Daten importieren“

Die folgenden Schritte beschreiben, wie Sie die Importquelle manuell konfigurieren.

  1. Fügen Sie das Modul Import Data Ihrem Experiment hinzu. Sie finden dieses Modul in Studio (klassisch) in der Kategorie Dateneingabe und - ausgabe.

  2. Wählen Sie unter Datenquelle die Option Azure SQL-Datenbank aus.

  3. Legen Sie die folgenden Optionen speziell für Azure SQL-Datenbank oder Azure SQL Data Warehouse.

    Datenbankservername: Geben Sie den Servernamen ein, der von Azure generiert wird. Dieser hat in der Regel das Format <generated_identifier>.database.windows.net.

    Datenbankname: Geben Sie den Namen einer vorhandenen Datenbank auf dem soeben angegebenen Server ein.

    Serverbenutzerkontoname: Geben Sie den Benutzernamen eines Kontos ein, das über Zugriffsberechtigungen für die Datenbank verfügt.

    Serverbenutzerkontokennwort: Geben Sie das Kennwort für das angegebene Benutzerkonto an.

    Datenbankabfrage: Geben oder fügen Sie eine SQL ein, die die zu lesenden Daten beschreibt. Überprüfen Sie die SQL-Anweisung und die Abfrageergebnisse jeweils vorab mithilfe eines Tools wie dem Server-Explorer von Visual Studio oder mit SQL Server Data Tools.

    Hinweis

    Das Import Data-Modul unterstützt nur die Eingabe von Datenbankname, Benutzerkontoname und Kennwort als Anmeldeinformationen.

  4. Wenn das Dataset, in das Sie Machine Learning, zwischen den Experimentläufen nicht geändert werden soll, wählen Sie die Option Zwischengespeicherte Ergebnisse verwenden aus.

    Wenn diese Option ausgewählt ist und keine weiteren Änderungen an Modulparametern vorgenommen werden, lädt das Experiment die Daten bei der ersten Ausführung des Moduls und verwendet anschließend eine zwischengespeicherte Version des Datasets.

    Wenn Sie das Dataset bei jeder Iteration des Experiments erneut laden möchten, deaktivieren Sie diese Option. Das Dataset wird jedes Mal neu aus der Quelle geladen, wenn ein Parameter in Import Data (Daten importieren) geändert wird.

  5. Führen Sie das Experiment aus.

    Da Import Data die Daten in Studio (klassisch) lädt, kann abhängig von den in der Quelldatenbank verwendeten Datentypen auch eine implizite Typkonvertierung durchgeführt werden.

Ergebnisse

Klicken Sie nach Abschluss des Importvorgangs auf das Ausgabedataset, und wählen Sie Visualisieren aus, um zu überprüfen, ob die Daten erfolgreich importiert wurden.

Optional können Sie das Dataset und seine Metadaten mithilfe der Tools in Studio (klassisch) ändern:

  • Verwenden Sie Edit Metadata (Metadaten bearbeiten), um Spaltennamen zu ändern, eine Spalte in einen anderen Datentyp zu konvertieren oder Spalten für Bezeichnungen oder Features anzugeben.

  • Verwenden Sie Select Columns in Dataset (Spalten im Dataset auswählen), um eine Teilmenge von Spalten auszuwählen.

  • Verwenden Sie Partition and Sample (Partitionieren und Stichprobe entnehmen), um das Dataset nach Kriterien zu trennen oder die obersten N Zeilen abzurufen.

Beispiele

Ein Beispiel für die Verwendung von Daten aus Azure-Datenbanken in Machine Learning finden Sie in den folgenden Artikeln und Experimenten:

  • Retail Forecasting Step 1 of 6 - data preprocessing(Schritt 1 von 6: Datenvorverarbeitung): Die Vorlage retail forecasting veranschaulicht ein typisches Szenario, in dem in Azure SQLDB gespeicherte Daten zur Analyse verwendet werden.

    Außerdem werden einige nützliche Techniken veranschaulicht, z. B. die Verwendung von Azure SQLDB zum Übergeben von Datasets zwischen Experimenten in verschiedenen Konten, das Speichern und Kombinieren von Vorhersagen und das Erstellen einer Azure SQLDB für maschinelles Lernen.

  • Verwenden Machine Learning mit SQL Data Warehouse: In diesem Artikel wird veranschaulicht, wie Sie ein Regressionsmodell erstellen, um Preise mithilfe von Azure SQL Data Warehouse.

  • Verwenden von Azure ML mit Azure SQL Data Warehouse: In diesem Artikel wird ein Clusteringmodell auf AdventureWorks erstellt, indem Daten importieren und Daten mit Azure SQL Data Warehouse.

Technische Hinweise

Dieser Abschnitt enthält Implementierungsdetails, Tipps und Antworten auf häufig gestellte Fragen.

Häufig gestellte Fragen

Kann ich Daten filtern, während sie aus der Quelle gelesen werden?

Das Import Data-Modul unterstützt keine Filterung, während Daten gelesen werden. Es wird empfohlen, eine Sicht zu erstellen oder eine Abfrage zu definieren, die nur die benötigten Zeilen generiert.

Hinweis

Wenn Sie feststellen, dass Sie mehr Daten als erforderlich geladen haben, können Sie das zwischengespeicherte Dataset durch Lesen eines neuen Datasets überschreiben und dieses mit dem gleichen Namen wie die älteren, größeren Daten speichern.

Warum wird der Fehler "Type Decimal is not supported" (Typdezimalzahl wird nicht unterstützt) angezeigt?

Beim Lesen von Daten aus SQL Datenbank tritt möglicherweise eine Fehlermeldung mit einem nicht unterstützten Datentyp auf.

Wenn die Daten, die Sie aus der SQL-Datenbank erhalten, Datentypen enthalten, die in Machine Learning nicht unterstützt werden, sollten Sie die Dezimalstellen vor dem Lesen der Daten in unterstützte Daten umwandeln oder konvertieren. Daten importieren kann keine Konvertierungen automatisch ausführen, die zu einem Genauigkeitsverlust führen würden.

Weitere Informationen zu unterstützten Datentypen finden Sie unter Moduldatentypen.

Was geschieht, wenn sich die Datenbank in einer anderen geografischen Region befindet? Kann Import Data weiterhin auf die Datenbank zugreifen? Wo werden die Daten gespeichert?

Wenn sich die Datenbank in einer anderen Region als das Machine Learning-Konto befindet, ist der Datenzugriff möglicherweise langsamer. Darüber hinaus werden Ihnen datenein- und ausgehende Daten im Abonnement in Rechnung gestellt, wenn sich der Computeknoten in einer anderen Region als das Speicherkonto befindet.

Daten, die Sie für ein Experiment in Ihren Arbeitsbereich eingelesen haben, werden in dem Speicherkonto gespeichert, das dem Experiment zugeordnet ist.

Warum werden einige Zeichen nicht richtig angezeigt?

Machine Learning unterstützt die UTF-8-Codierung. Wenn Zeichenfolgenspalten in Ihrer Datenbank eine andere Codierung verwenden, werden die Zeichen möglicherweise nicht ordnungsgemäß importiert.

Eine Möglichkeit besteht im Exportieren der Daten in eine CSV-Datei in Azure Storage und Verwenden der Option CSV mit Codierung, um Parameter für benutzerdefinierte Trennzeichen, die Codepage usw. anzugeben.

Modulparameter

Name Range type Standard Beschreibung
Datenquellen- Liste Datenquelle oder Senke Azure Blob Storage Die Datenquelle kann HTTP, FTP, anonymes HTTPS oder FTPS, eine Datei in Azure BLOB Storage, eine Azure-Tabelle, eine Azure SQL-Datenbank, eine lokale SQL Server-Datenbank, eine Hive-Tabelle oder ein OData-Endpunkt sein.
HDFS-Server-URI any String Keine HDFS-Restendpunkt
Database server name any Zeichenfolge Keine Azure-Speicherkontoname
Datenbankname any SecureString Keine Azure-Speicherschlüssel
Server user account name any Zeichenfolge Keine Azure container name
Server user account name List (subset) URL-Inhalt OData Datenformattyp
Datenbankabfrage any Zeichenfolge Keine Datenformattyp
Verwenden von zwischengespeicherten Ergebnissen TRUE/FALSE Boolean FALSE description

Ausgaben

Name Type Beschreibung
Ergebnisdataset Datentabelle Dataset mit den heruntergeladenen Daten.

Ausnahmen

Ausnahme Beschreibung
Fehler 0027 Eine Ausnahme tritt auf, wenn zwei Objekte gleich groß sein müssen, dies aber nicht der Fall ist.
Fehler 0003 Eine Ausnahme tritt auf, wenn mindestens eine Eingabe NULL oder leer ist.
Fehler 0029 Eine Ausnahme tritt auf, wenn ein ungültiger URI übergeben wird.
Fehler 0030 Eine Ausnahme tritt auf, wenn es nicht möglich ist, eine Datei herunterzuladen.
Fehler 0002 Eine Ausnahme tritt auf, wenn mindestens ein Parameter nicht analysiert oder nicht aus einem angegebenen Typ in den für die Zielmethode erforderlichen Typ konvertiert werden konnte.
Fehler 0009 Eine Ausnahme tritt auf, wenn der Azure-Speicherkontoname oder der Containername falsch angegeben ist.
Fehler 0048 Eine Ausnahme tritt auf, wenn es nicht möglich, eine Datei zu öffnen.
Fehler 0015 Eine Ausnahme tritt auf, wenn ein Fehler beim Herstellen einer Datenbankverbindung aufgetreten ist.
Fehler 0046 Eine Ausnahme tritt auf, wenn es nicht möglich ist, ein Verzeichnis im angegebenen Pfad zu erstellen.
Fehler 0049 Eine Ausnahme tritt auf, wenn es nicht möglich, eine Datei zu analysieren.

Eine Liste der Fehler, die für Studio-Module (klassisch) spezifisch sind, finden Sie unter Machine Learning Fehlercodes.

Eine Liste der API-Ausnahmen finden Sie unter Machine Learning REST-API-Fehlercodes.

Siehe auch

Daten importieren
Daten exportieren
Importieren aus Web-URL über HTTP
Importieren aus Hive-Abfrage
Importieren aus Azure Table
Importieren aus Azure Blob Storage
Importieren aus Datenfeedanbietern
Importieren aus lokaler SQL Server-Datenbank