Freigeben über


Power Query-Connectors (Vorschau – veraltet)

Wichtig

Die Unterstützung des Power Query-Connectors wurde als eingeschränkte öffentliche Vorschau unter ergänzenden Nutzungsbedingungen für Microsoft Azure Previews eingeführt, ist jedoch jetzt eingestellt. Wenn Sie über eine Suchlösung verfügen, die einen Power Query-Connector verwendet, migrieren Sie bitte zu einer alternativen Lösung.

Migrieren bis zum 28. November 2022

Die Power Query-Connectorvorschau wurde im Mai 2021 angekündigt und wird nicht in die allgemeine Verfügbarkeit übergehen. Die folgenden Migrationsleitfaden sind für Snowflake und PostgreSQL verfügbar. Wenn Sie einen anderen Connector verwenden und Migrationsanweisungen benötigen, verwenden Sie die E-Mail-Kontaktinformationen in Ihrer Vorschauanmeldung, um Hilfe anzufordern oder ein Ticket mit dem Azure-Support zu öffnen.

Voraussetzungen

Migrieren einer Snowflake-Datenpipeline

In diesem Abschnitt wird erläutert, wie Daten aus einer Snowflake-Datenbank in einen Azure Cognitive Search-Index kopiert werden. Es gibt keinen Prozess für die direkte Indizierung von Snowflake zu Azure Cognitive Search. Dieser Abschnitt enthält daher eine Stagingphase, in der Datenbankinhalte in einen Azure Storage-BLOB-Container kopiert werden. Anschließend indexieren Sie diesen Staging-Container mithilfe einer Data Factory-Pipeline.

Schritt 1: Abrufen von Snowflake-Datenbankinformationen

  1. Wechseln Sie zu Snowflake , und melden Sie sich bei Ihrem Snowflake-Konto an. Ein Snowflake-Konto sieht wie https://< account_name.snowflakecomputing.com> aus.

  2. Nachdem Sie angemeldet sind, sammeln Sie die folgenden Informationen aus dem linken Bereich. Sie verwenden diese Informationen im nächsten Schritt:

    • Wählen Sie in "Daten" "Datenbanken" aus, und kopieren Sie den Namen der Datenbankquelle.
    • Wählen Sie unter Admin die Option Benutzer und Rollen aus und kopieren Sie den Namen des Benutzers. Stellen Sie sicher, dass der Benutzer über Leseberechtigungen verfügt.
    • Von Admin wählen Sie Konten aus und kopieren Sie den LOCATOR-Wert des Kontos.
    • Aus der Snowflake-URL, ähnlich wie https://app.snowflake.com/<region_name>/xy12345/organization). kopieren Sie den Regionsnamen. Z. B. lautet der Name der Region in https://app.snowflake.com/south-central-us.azure/xy12345/organizationsouth-central-us.azure.
    • Wählen Sie Admin und dann Lagerhäuser aus, und kopieren Sie den Namen des Lagers, das der Datenbank zugeordnet ist, die Sie als Quelle verwenden.

Schritt 2: Konfigurieren des verknüpften Snowflake-Diensts

  1. Melden Sie sich mit Ihrem Azure-Konto bei Azure Data Factory Studio an.

  2. Wählen Sie Ihre Data Factory aus, und wählen Sie dann Weiter aus.

  3. Wählen Sie im linken Menü das Symbol "Verwalten" aus.

    Screenshot, der zeigt, wie Sie das Symbol

  4. Wählen Sie unter "Verknüpfte Dienste" "Neu" aus.

    Screenshot, der zeigt, wie Sie in Azure Data Factory

  5. Geben Sie im rechten Bereich in der Datenspeichersuche "Schneeflake" ein. Wählen Sie die Snowflake-Kachel und dann "Weiter" aus.

    Screenshot, der zeigt, wie Sie die Snowflake-Kachel im neuen Verknüpften Dienstdatenspeicher auswählen.

  6. Füllen Sie das Formular " Neuer verknüpfter Dienst " mit den Daten aus, die Sie im vorherigen Schritt gesammelt haben. Der Kontoname enthält einen LOCATOR-Wert und die Region (z. B.: xy56789south-central-us.azure).

    Screenshot, der zeigt, wie Das Snowflake Linked Service-Formular ausgefüllt wird.

  7. Wählen Sie nach Abschluss des Formulars die Option "Verbindung testen" aus.

  8. Wenn der Test erfolgreich ist, wählen Sie "Erstellen" aus.

Schritt 3: Konfigurieren des Snowflake-Datasets

  1. Wählen Sie im linken Menü das Symbol "Autor" aus.

  2. Wählen Sie Datasets aus, und wählen Sie dann das Menü "Dataset-Aktionen" (...).

    Screenshot, der zeigt, wie Sie das Symbol

  3. Wählen Sie "Neues Dataset" aus.

    Screenshot, der zeigt, wie Sie ein neues Dataset in Azure Data Factory für Snowflake auswählen.

  4. Geben Sie im rechten Bereich in der Datenspeichersuche "Schneeflake" ein. Wählen Sie die Snowflake-Kachel und dann "Weiter" aus.

    Screenshot, der zeigt, wie Snowflake aus der Datenquelle für Dataset ausgewählt wird.

  5. In "Eigenschaften festlegen":

    • Wählen Sie den verknüpften Dienst aus, den Sie in Schritt 2 erstellt haben.
    • Wählen Sie die Tabelle aus, die Sie importieren möchten, und wählen Sie dann "OK" aus.

    Screenshot, der zeigt, wie Dataseteigenschaften für Snowflake konfiguriert werden.

  6. Wählen Sie Speichern aus.

Erstellen Sie einen neuen Index in Ihrem Azure Cognitive Search-Dienst mit demselben Schema wie die, die Sie derzeit für Ihre Snowflake-Daten konfiguriert haben.

Sie können den Index, den Sie derzeit für den Snowflake Power Connector verwenden, neu verwenden. Suchen Sie im Azure-Portal den Index, und wählen Sie dann "Indexdefinition (JSON)" aus. Wählen Sie die Definition aus, und kopieren Sie sie in den Textkörper Ihrer neuen Indexanforderung.

Screenshot, der zeigt, wie Sie vorhandene JSON-Konfiguration des Azure Cognitive Search-Indexes für vorhandenen Snowflake-Index kopieren.

Schritt 5: Konfigurieren des verknüpften Azure Cognitive Search-Diensts

  1. Wählen Sie im linken Menü das Symbol "Verwalten" aus.

    Screenshot, der zeigt, wie Sie das Symbol

  2. Wählen Sie unter "Verknüpfte Dienste" "Neu" aus.

    Screenshot, der zeigt, wie Sie

  3. Geben Sie im rechten Bereich in der Datenspeichersuche "Suchen" ein. Wählen Sie die Kachel "Azure Search " und dann "Weiter" aus.

    Screenshot, der zeigt, wie Sie die neue verknüpfte Suche in Azure Data Factory auswählen, die aus Snowflake importiert werden soll.

  4. Füllen Sie die Werte des neuen verknüpften Diensts aus:

    • Wählen Sie das Azure-Abonnement aus, in dem sich Ihr Azure Cognitive Search-Dienst befindet.
    • Wählen Sie den Azure Cognitive Search-Dienst aus, der Ihren Power Query-Connector-Indexer enthält.
    • Klicken Sie auf Erstellen.

    Screenshot, der zeigt, wie Sie den neuen verknüpften Suchdienst in Azure Data Factory mit seinen Eigenschaften zum Importieren aus Snowflake auswählen.

Schritt 6: Konfigurieren des Azure Cognitive Search-Datasets

  1. Wählen Sie im linken Menü das Symbol "Autor" aus.

  2. Wählen Sie Datasets aus, und wählen Sie dann das Menü "Dataset-Aktionen" (...).

    Screenshot, der zeigt, wie Sie das Symbol

  3. Wählen Sie "Neues Dataset" aus.

    Screenshot, der zeigt, wie Sie ein neues Dataset in Azure Data Factory auswählen.

  4. Geben Sie im rechten Bereich in der Datenspeichersuche "Suchen" ein. Wählen Sie die Kachel "Azure Search " und dann "Weiter" aus.

    Screenshot, der zeigt, wie Sie einen Azure Cognitive Search-Dienst für ein Dataset in Azure Data Factory auswählen, der als Sink verwendet werden soll.

  5. In "Eigenschaften festlegen":

    • Wählen Sie den zuletzt in Schritt 5 erstellten verknüpften Dienst aus.

    • Wählen Sie den Suchindex aus, den Sie in Schritt 4 erstellt haben.

    • Wählen Sie OK aus.

      Screenshot, der zeigt, wie Sie den neuen verknüpften Suchdienst in Azure Data Factory für Snowflake auswählen.

  6. Wählen Sie Speichern aus.

Schritt 7: Konfigurieren des verknüpften Azure Blob Storage-Diensts

  1. Wählen Sie im linken Menü das Symbol "Verwalten" aus.

    Screenshot, der zeigt, wie Sie das Symbol

  2. Wählen Sie unter "Verknüpfte Dienste" "Neu" aus.

    Screenshot, der zeigt, wie Sie in Azure Data Factory

  3. Geben Sie im rechten Bereich in der Datenspeichersuche "Speicher" ein. Wählen Sie die Kachel "Azure Blob Storage " aus, und wählen Sie "Weiter" aus.

    Screenshot zeigt, wie Sie den

  4. Füllen Sie die Werte des neuen verknüpften Diensts aus:

    • Wählen Sie den Authentifizierungstyp: SAS-URI. Nur dieser Authentifizierungstyp kann verwendet werden, um Daten aus Snowflake in Azure Blob Storage zu importieren.

    • Generieren Sie eine SAS-URL für das Speicherkonto, das Sie für das Staging verwenden. Fügen Sie die BLOB SAS-URL in das SAS-URL-Feld ein.

    • Klicken Sie auf Erstellen.

      Screenshot, der zeigt, wie Sie das Formular

Schritt 8: Konfigurieren des Speicher-Datasets

  1. Wählen Sie im linken Menü das Symbol "Autor" aus.

  2. Wählen Sie Datasets aus, und wählen Sie dann das Menü "Dataset-Aktionen" (...).

    Screenshot, der zeigt, wie Sie das Symbol

  3. Wählen Sie "Neues Dataset" aus.

    Screenshot, der zeigt, wie Sie ein neues Dataset für die Speicherung in Azure Data Factory auswählen.

  4. Geben Sie im rechten Bereich in der Datenspeichersuche "Speicher" ein. Wählen Sie die Kachel "Azure Blob Storage " aus, und wählen Sie "Weiter" aus.

    Screenshot, der zeigt, wie Sie einen neuen BLOB-Speicherdatenspeicher in Azure Data Factory für staging auswählen.

  5. Wählen Sie das Format "DelimitedText " und dann "Weiter" aus.

  6. In "Eigenschaften festlegen":

    • Wählen Sie unter "Verknüpfter Dienst" den in Schritt 7 erstellten verknüpften Dienst aus.

    • Wählen Sie unter Dateipfad den Container aus, der das Ziel für den Stagingprozess darstellt, und klicken Sie auf OK.

      Screenshot, der zeigt, wie Eigenschaften für das Speicher-Dataset für Snowflake in Azure Data Factory konfiguriert werden.

    • Wählen Sie im Zeilentrennzeichen den Zeilenvorschub (\n) aus.

    • Aktivieren Sie das Kontrollkästchen Erste Zeile als Kopfzeile.

    • Wählen Sie Speichern aus.

      Screenshot, der zeigt, wie eine DelimitedText-Konfiguration gespeichert wird, die als Spüle für Snowflake verwendet werden soll.

Schritt 9: Konfigurieren der Pipeline

  1. Wählen Sie im linken Menü das Symbol "Autor" aus.

  2. Wählen Sie "Pipelines" und dann das Menü "Pipelines-Aktionen" (...).

    Screenshot, der zeigt, wie Sie das Symbol

  3. Wählen Sie Neue Pipeline aus.

    Screenshot, der zeigt, wie Sie eine neue Pipeline in Azure Data Factory auswählen, die für die Erfassung von Snowflake-Daten erstellt werden soll.

  4. Erstellen und Konfigurieren der Data Factory-Aktivitäten , die von Snowflake in Azure Storage-Container kopiert werden:

    • Erweitern Sie den Abschnitt "Verschieben und Transformieren ", und ziehen Sie die Aktivität "Daten kopieren " in den leeren Pipeline-Editor-Zeichenbereich.

      Screenshot, der zeigt, wie Sie eine Kopieraktivität im Pipeline-Canvas ziehen und ablegen, um Daten aus Snowflake zu kopieren.

    • Öffnen Sie die Registerkarte " Allgemein ". Übernehmen Sie die Standardwerte, es sei denn, Sie müssen die Ausführung anpassen.

    • Wählen Sie auf der Registerkarte " Quelle " Ihre Snowflake-Tabelle aus. Lassen Sie die verbleibenden Optionen mit den Standardwerten.

      Screenshot, der zeigt, wie die Quelle in einer Pipeline zum Importieren von Daten aus Snowflake konfiguriert wird.

    • Auf der Registerkarte Sink:

      • Wählen Sie das Dataset "Speicher-Trenntext" aus, das in Schritt 8 erstellt wurde.

      • Fügen Sie in der Dateierweiterung.csvhinzu.

      • Lassen Sie die verbleibenden Optionen mit den Standardwerten.

        Screenshot, der zeigt, wie Sie die Spüle in einer Pipeline konfigurieren, um die Daten aus Snowflake in Azure Storage zu verschieben.

    • Wählen Sie Speichern aus.

  5. Konfigurieren Sie die Aktivitäten, die von Azure Storage Blob in einen Suchindex kopiert werden:

    • Erweitern Sie den Abschnitt "Verschieben und Transformieren ", und ziehen Sie die Aktivität "Daten kopieren " in den leeren Pipeline-Editor-Zeichenbereich.

      Screenshot, der zeigt, wie Sie eine Kopierdatenaktivität im Pipeline-Canvas ziehen und ablegen, um Daten aus dem Speicher zu indexieren.

    • Übernehmen Sie auf der Registerkarte " Allgemein " die Standardwerte, es sei denn, Sie müssen die Ausführung anpassen.

    • Auf der Registerkarte Quelle:

      • Wählen Sie das Dataset "Speicher-Trenntext" aus, das in Schritt 8 erstellt wurde.
      • Wählen Sie im Dateipfadtyp "Wildcard-Dateipfad" aus.
      • Behalten Sie alle verbleibenden Felder mit Standardwerten bei.

      Screenshot, der zeigt, wie die Quelle in einer Pipeline zum Importieren von Daten aus Blob Storage in den Azure Cognitive Search-Index für die Stagingphase konfiguriert wird.

    • Wählen Sie auf der Registerkarte "Senken " Ihren Azure Cognitive Search-Index aus. Lassen Sie die verbleibenden Optionen mit den Standardwerten.

      Screenshot, der zeigt, wie Sie das Sink in einer Pipeline konfigurieren, um Daten aus Blob Storage in den Azure Cognitive Search-Index als letzten Schritt aus der Pipeline zu importieren.

    • Wählen Sie Speichern aus.

Schritt 10: Konfigurieren der Aktivitätsreihenfolge

  1. Wählen Sie im Pipeline-Canvas-Editor das kleine grüne Quadrat am Rand der Aktivitätskachel der Pipeline aus. Ziehen Sie es auf die Aktivität "Indizes aus dem Speicherkonto zu Azure Cognitive Search", um die Ausführungsreihenfolge festzulegen.

  2. Wählen Sie Speichern aus.

    Screenshot, der zeigt, wie Pipelineaktivitäten verknüpft werden, um die Ausführungsreihenfolge für Snowflake bereitzustellen.

Schritt 11: Hinzufügen eines Pipeline-Triggers

  1. Wählen Sie "Trigger hinzufügen" aus, um die Pipelineausführung zu planen, und wählen Sie "Neu/Bearbeiten" aus.

    Screenshot, der zeigt, wie Sie einen neuen Trigger für eine Pipeline in Data Factory hinzufügen, die für Snowflake ausgeführt werden soll.

  2. Wählen Sie im Dropdownmenü "Trigger auswählen" die Option "Neu" aus.

    Screenshot, der zeigt, wie Sie das Hinzufügen eines neuen Triggers für eine Pipeline in Data Factory für Snowflake auswählen.

  3. Überprüfen Sie die Triggeroptionen, um die Pipeline auszuführen, und wählen Sie "OK" aus.

    Screenshot, der zeigt, wie ein Trigger zum Ausführen einer Pipeline in Data Factory für Snowflake konfiguriert wird.

  4. Wählen Sie Speichern aus.

  5. Wählen Sie Veröffentlichen aus.

    So veröffentlichen Sie eine Pipeline in Data Factory für die Snowflake-Integration zum Indexieren.

Migrieren einer PostgreSQL-Datenpipeline

In diesem Abschnitt wird erläutert, wie Daten aus einer PostgreSQL-Datenbank in einen Azure Cognitive Search-Index kopiert werden. Es gibt keinen Prozess für die direkte Indizierung von PostgreSQL zu Azure Cognitive Search, sodass dieser Abschnitt eine Stagingphase enthält, in der Datenbankinhalte in einen Azure Storage-BLOB-Container kopiert werden. Anschließend indexieren Sie diesen Staging-Container mithilfe einer Data Factory-Pipeline.

Schritt 1: Konfigurieren des verknüpften Dienstes für PostgreSQL

  1. Melden Sie sich mit Ihrem Azure-Konto bei Azure Data Factory Studio an.

  2. Wählen Sie Ihre Data Factory aus, und wählen Sie "Weiter" aus.

  3. Wählen Sie im linken Menü das Symbol "Verwalten" aus.

    So wählen Sie das Symbol

  4. Wählen Sie unter "Verknüpfte Dienste" "Neu" aus.

    Screenshot, der zeigt, wie Sie in Azure Data Factory

  5. Geben Sie im rechten Bereich in der Datenspeichersuche "Postgresql" ein. Wählen Sie die PostgreSQL-Kachel aus, die angibt, wo sich Ihre PostgreSQL-Datenbank befindet (Azure oder andere), und wählen Sie "Weiter" aus. In diesem Beispiel befindet sich die PostgreSQL-Datenbank in Azure.

    So wählen Sie den PostgreSQL-Datenspeicher für einen verknüpften Dienst in Azure Data Factory aus.

  6. Füllen Sie die Werte des neuen verknüpften Diensts aus:

    • Wählen Sie in KontoauswahlmethodeManuell eingeben aus.

    • Fügen Sie auf der Seite "Übersicht" ihrer Azure-Datenbank für PostgreSQL im Azure-Portal die folgenden Werte in ihr entsprechendes Feld ein:

      • Fügen Sie Servernamen zum vollqualifizierten Domänennamen hinzu.
      • Fügen Sie " Administratorbenutzername " zum Benutzernamen hinzu.
      • Fügen Sie Database zu Datenbankname hinzu.
      • Geben Sie den Nutzernamen und das Kennwort des Administrators in das Feld Benutzername Passwort ein.
      • Klicken Sie auf Erstellen.

      Wählen Sie das Symbol

Schritt 2: Konfigurieren des PostgreSQL-Datasets

  1. Wählen Sie im linken Menü das Symbol "Autor" aus.

  2. Wählen Sie Datasets aus, und wählen Sie dann das Menü "Dataset-Aktionen" (...).

    Screenshot, der zeigt, wie Sie das Symbol

  3. Wählen Sie "Neues Dataset" aus.

    Screenshot, der zeigt, wie Sie ein neues Dataset in Azure Data Factory auswählen.

  4. Geben Sie im rechten Bereich in der Datenspeichersuche "Postgresql" ein. Wählen Sie die Azure PostgreSQL-Kachel aus. Wählen Sie Weiter aus.

    Screenshot, der zeigt, wie Sie den PostgreSQL-Datenspeicher für ein Dataset in Azure Data Factory auswählen.

  5. Füllen Sie die Werte der Set-Eigenschaften aus:

    • Wählen Sie den PostgreSQL-Linked-Dienst aus, der in Schritt 1 erstellt wurde.

    • Wählen Sie die Tabelle aus, die Sie importieren/indizieren möchten.

    • Wählen Sie OK aus.

      Screenshot, der zeigt, wie Die PostgreSQL-Eigenschaften für das Dataset in Azure Data Factory festgelegt werden.

  6. Wählen Sie Speichern aus.

Erstellen Sie einen neuen Index in Ihrem Azure Cognitive Search-Dienst mit demselben Schema wie der für Ihre PostgreSQL-Daten verwendete.

Sie können den Index, den Sie derzeit für den PostgreSQL Power Connector verwenden, neu verwenden. Suchen Sie im Azure-Portal den Index, und wählen Sie dann "Indexdefinition (JSON)" aus. Wählen Sie die Definition aus, und kopieren Sie sie in den Textkörper Ihrer neuen Indexanforderung.

Screenshot, der zeigt, wie Sie vorhandene JSON-Konfiguration des Azure Cognitive Search-Indexes kopieren.

Schritt 4: Konfigurieren des verknüpften Azure Cognitive Search-Diensts

  1. Wählen Sie im linken Menü das Symbol "Verwalten" aus.

    Screenshot, der zeigt, wie Sie das Symbol

  2. Wählen Sie unter "Verknüpfte Dienste" "Neu" aus.

    Screenshot, der zeigt, wie Sie in Azure Data Factory

  3. Geben Sie im rechten Bereich in der Datenspeichersuche "Suchen" ein. Wählen Sie die Kachel "Azure Search " und dann "Weiter" aus.

    Screenshot, der zeigt, wie Sie den neuen verknüpften Suchdienst in Azure Data Factory auswählen.

  4. Füllen Sie die Werte des neuen verknüpften Diensts aus:

    • Wählen Sie das Azure-Abonnement aus, in dem sich Ihr Azure Cognitive Search-Dienst befindet.
    • Wählen Sie den Azure Cognitive Search-Dienst aus, der Ihren Power Query-Connector-Indexer enthält.
    • Klicken Sie auf Erstellen.

    Screenshot, der zeigt, wie Sie den neuen verknüpften Suchdienst in Azure Data Factory mit seinen Eigenschaften auswählen, die aus PostgreSQL importiert werden sollen.

Schritt 5: Konfigurieren des Azure Cognitive Search-Datasets

  1. Wählen Sie im linken Menü das Symbol "Autor" aus.

  2. Wählen Sie Datasets aus, und wählen Sie dann das Menü "Dataset-Aktionen" (...).

    Screenshot, der zeigt, wie Sie das Symbol

  3. Wählen Sie "Neues Dataset" aus.

    Screenshot, der zeigt, wie Sie ein neues Dataset in Azure Data Factory auswählen.

  4. Geben Sie im rechten Bereich in der Datenspeichersuche "Suchen" ein. Wählen Sie die Kachel "Azure Search " und dann "Weiter" aus.

    Screenshot, der zeigt, wie Sie einen Azure Cognitive Search-Dienst für ein Dataset in Azure Data Factory auswählen.

  5. In "Eigenschaften festlegen":

    • Wählen Sie den für Azure Cognitive Search in Schritt 4 erstellten verknüpften Dienst aus.

    • Wählen Sie den Index aus, den Sie als Teil von Schritt 3 erstellt haben.

    • Wählen Sie OK aus.

      Screenshot, der zeigt, wie Set Properties for search dataset ausgefüllt wird.

  6. Wählen Sie Speichern aus.

Schritt 6: Konfigurieren des verknüpften Azure Blob Storage-Diensts

  1. Wählen Sie im linken Menü das Symbol "Verwalten" aus.

    Screenshot, der zeigt, wie Sie das Symbol

  2. Wählen Sie unter "Verknüpfte Dienste" "Neu" aus.

    Screenshot, der zeigt, wie Sie in Azure Data Factory

  3. Geben Sie im rechten Bereich in der Datenspeichersuche "Speicher" ein. Wählen Sie die Kachel "Azure Blob Storage " aus, und wählen Sie "Weiter" aus.

    Screenshot, der zeigt, wie Sie einen neuen Datenspeicher auswählen

  4. Füllen Sie die Werte des neuen verknüpften Diensts aus:

    • Wählen Sie den Authentifizierungstyp: SAS-URI. Nur diese Methode kann verwendet werden, um Daten aus PostgreSQL in Azure Blob Storage zu importieren.

    • Generieren Sie eine SAS-URL für das Speicherkonto, das Sie zum Staging verwenden, und kopieren Sie die BLOB SAS-URL in das SAS-URL-Feld.

    • Klicken Sie auf Erstellen.

      Screenshot, der zeigt, wie Sie das Formular

Schritt 7: Konfigurieren des Speicher-Datasets

  1. Wählen Sie im linken Menü das Symbol "Autor" aus.

  2. Wählen Sie Datasets aus, und wählen Sie dann das Menü "Dataset-Aktionen" (...).

    Screenshot, der zeigt, wie Sie das Symbol

  3. Wählen Sie "Neues Dataset" aus.

    Screenshot, der zeigt, wie Sie ein neues Dataset in Azure Data Factory auswählen.

  4. Geben Sie im rechten Bereich in der Datenspeichersuche "Speicher" ein. Wählen Sie die Kachel "Azure Blob Storage " aus, und wählen Sie "Weiter" aus.

    Screenshot, der zeigt, wie Sie einen neuen BLOB-Speicherdatenspeicher in Azure Data Factory auswählen.

  5. Wählen Sie das Format "DelimitedText " und dann "Weiter" aus.

  6. Wählen Sie im Zeilentrennzeichen den Zeilenvorschub (\n) aus.

  7. Aktivieren Sie das Kontrollkästchen Erste Zeile als Kopfzeile.

  8. Wählen Sie Speichern aus.

    Screenshot mit Optionen zum Importieren von Daten in Azure Storage-BLOB.

Schritt 8: Konfigurieren der Pipeline

  1. Wählen Sie im linken Menü das Symbol "Autor" aus.

  2. Wählen Sie "Pipelines" und dann das Menü "Pipelines-Aktionen" (...).

    Screenshot, der zeigt, wie Sie das Symbol

  3. Wählen Sie Neue Pipeline aus.

    Screenshot, der zeigt, wie Sie eine neue Pipeline in Azure Data Factory auswählen.

  4. Erstellen und konfigurieren Sie die Data Factory-Aktivitäten , die von PostgreSQL in Azure Storage-Container kopiert werden.

    • Erweitern Sie den Abschnitt "Verschieben und Transformieren ", und ziehen Sie die Aktivität "Daten kopieren " in den leeren Pipeline-Editor-Zeichenbereich.

      Screenshot, der zeigt, wie Sie In Azure Data Factory ziehen und ablegen, um Daten aus PostgreSQL zu kopieren.

    • Öffnen Sie die Registerkarte " Allgemein ", übernehmen Sie die Standardwerte, es sei denn, Sie müssen die Ausführung anpassen.

    • Wählen Sie auf der Registerkarte " Quelle " Ihre PostgreSQL-Tabelle aus. Lassen Sie die verbleibenden Optionen mit den Standardwerten.

      Screenshot, der zeigt, wie die Quelle konfiguriert wird, um Daten aus PostgreSQL in den Azure Storage Blob in der Staging-Phase zu importieren.

    • Auf der Registerkarte Sink:

      • Wählen Sie das in Schritt 7 konfigurierte Dataset "Storage DelimitedText PostgreSQL" aus.

      • Fügen Sie in der Dateierweiterung.csv hinzu.

      • Lassen Sie die verbleibenden Optionen mit den Standardwerten.

        Screenshot, der zeigt, wie Sie sinken konfigurieren, um Daten aus PostgreSQL in Azure Storage Blob zu importieren.

    • Wählen Sie Speichern aus.

  5. Konfigurieren Sie die Aktivitäten, die aus Azure Storage in einen Suchindex kopiert werden:

    • Erweitern Sie den Abschnitt "Verschieben und Transformieren ", und ziehen Sie die Aktivität "Daten kopieren " in den leeren Pipeline-Editor-Zeichenbereich.

      Screenshot, der zeigt, wie Sie in Azure Data Factory ziehen und ablegen, um eine Kopieraktivität zu konfigurieren.

    • Behalten Sie auf der Registerkarte " Allgemein " die Standardwerte bei, es sei denn, Sie müssen die Ausführung anpassen.

    • Im Quelle-Tab:

      • Wählen Sie das in Schritt 7 konfigurierte Speicherquell-Dataset aus.
      • Wählen Sie im Feld „Dateipfadtyp“ den „Pfad mit Platzhaltern“ aus.
      • Behalten Sie alle verbleibenden Felder mit Standardwerten bei.

      Screenshot, der zeigt, wie die Quelle für das Indizieren vom Storage im Azure Cognitive Search-Index konfiguriert wird.

    • Wählen Sie auf der Registerkarte "Senken " Ihren Azure Cognitive Search-Index aus. Lassen Sie die verbleibenden Optionen mit den Standardwerten.

      Screenshot, der zeigt, wie Sink für die Indizierung von Storage zu Azure Cognitive Search Index konfiguriert wird.

    • Wählen Sie Speichern aus.

Schritt 9: Konfigurieren der Aktivitätsreihenfolge

  1. Wählen Sie im Pipeline-Canvas-Editor das kleine grüne Quadrat am Rand der Pipelineaktivität aus. Ziehen Sie es auf die Aktivität "Indizes vom Speicherkonto zu Azure Cognitive Search", um die Ausführungsreihenfolge festzulegen.

  2. Wählen Sie Speichern aus.

    Screenshot, der zeigt, wie die Aktivitätsreihenfolge in der Pipeline für die ordnungsgemäße Ausführung konfiguriert wird.

Schritt 10: Hinzufügen eines Pipeline-Auslösers

  1. Wählen Sie "Trigger hinzufügen" aus, um die Pipelineausführung zu planen, und wählen Sie "Neu/Bearbeiten" aus.

    Screenshot, der zeigt, wie Sie einen neuen Trigger für eine Pipeline in Data Factory hinzufügen.

  2. Wählen Sie im Dropdownmenü "Trigger auswählen" die Option "Neu" aus.

    Screenshot, der zeigt, wie Sie das Hinzufügen eines neuen Triggers für eine Pipeline in Data Factory auswählen.

  3. Überprüfen Sie die Triggeroptionen, um die Pipeline auszuführen, und wählen Sie "OK" aus.

    Screenshot, der zeigt, wie ein Trigger zum Ausführen einer Pipeline in Data Factory konfiguriert wird.

  4. Wählen Sie Speichern aus.

  5. Wählen Sie Veröffentlichen aus.

    Screenshot, der zeigt, wie man eine Pipeline in Data Factory für die Datenkopie von PostgreSQL veröffentlichen kann.

Alte Inhalte für die Power Query-Connector-Vorschau

Ein Power Query-Connector wird mit einem Suchindexer verwendet, um die Datenaufnahme aus verschiedenen Datenquellen zu automatisieren, einschließlich derjenigen in anderen Cloudanbietern. Es verwendet Power Query , um die Daten abzurufen.

Zu den in der Vorschau unterstützten Datenquellen gehören:

  • Amazon Redshift
  • Elasticsearch
  • PostgreSQL
  • Salesforce-Objekte
  • Salesforce-Berichte
  • Smartsheet
  • Schneeflocke

Unterstützte Funktionen

Power Query-Connectors werden in Indexern verwendet. Ein Indexer in Azure Cognitive Search ist ein Crawler, der durchsuchbare Daten und Metadaten aus einer externen Datenquelle extrahiert und einen Index basierend auf Feld-zu-Feld-Zuordnungen zwischen dem Index und Ihrer Datenquelle auffüllt. Dieser Ansatz wird manchmal als "Pullmodell" bezeichnet, da der Dienst Daten abruft, ohne dass Sie Code schreiben müssen, der Daten zu einem Index hinzufügt. Indexer bieten benutzern eine bequeme Möglichkeit, Inhalte aus ihrer Datenquelle zu indizieren, ohne einen eigenen Crawler oder Pushmodell schreiben zu müssen.

Indexer, die auf Power Query-Datenquellen verweisen, haben die gleiche Unterstützung für Skillsets, Zeitplänen, Logik zur Erkennung von Änderungen anhand eines hohen Wasserzeichens und die meisten Parameter, die von anderen Indexern unterstützt werden.

Voraussetzungen

Obwohl Sie dieses Feature nicht mehr verwenden können, hatte es die folgenden Anforderungen während der Vorschau:

  • Azure Cognitive Search-Dienst in einer unterstützten Region.

  • Vorschau registrieren. Dieses Feature muss im Back-End aktiviert sein.

  • Azure Blob Storage-Konto, das als Vermittler für Ihre Daten verwendet wird. Die Daten werden von der Datenquelle über den Blob-Speicher zum Index fließen. Diese Anforderung besteht nur bei der eingeschränkten ersten Vorschau.

Regionale Verfügbarkeit

Die Vorschau war nur für Suchdienste in den folgenden Regionen verfügbar:

  • Zentrale USA
  • Ost-USA
  • Ost-USA 2
  • Nord-Mittel-USA
  • Nordeuropa
  • Süd-Mittel-USA
  • Zentraler Westen der USA
  • Westeuropa
  • Westen der USA
  • Westliches USA 2

Einschränkungen der Vorschau

In diesem Abschnitt werden die Einschränkungen beschrieben, die für die aktuelle Version der Vorschau spezifisch sind.

  • Das Abrufen von Binärdaten aus Ihrer Datenquelle wird nicht unterstützt.

  • Debugging-Sitzung wird nicht unterstützt.

Erste Schritte mit dem Azure-Portal

Das Azure-Portal bietet Unterstützung für die Power Query-Connectors. Durch das Sampling von Daten und Lesen von Metadaten im Container kann der Assistent zum Importieren von Daten in Azure Cognitive Search einen Standardindex erstellen, Quellfelder Zielindexfelder zuordnen und den Index in einem einzigen Vorgang laden. Je nach Größe und Komplexität der Quelldaten könnten Sie in Minuten über einen funktionsfähigen Volltextsuchindex verfügen.

Das folgende Video zeigt, wie Sie einen Power Query-Connector in Azure Cognitive Search einrichten.

Schritt 1 – Vorbereiten von Quelldaten

Stellen Sie sicher, dass Ihre Datenquelle Daten enthält. Der Assistent zum Importieren von Daten liest Metadaten und führt Datensampling aus, um ein Indexschema abzuleiten, und lädt dabei auch Daten aus Ihrer Datenquelle. Wenn die Daten fehlen, wird der Assistent stoppen und einen Fehler zurückgeben.

Schritt 2 – Starten des Assistenten zum Importieren von Daten

Nachdem Sie für die Vorschau genehmigt wurden, stellt Ihnen das Azure Cognitive Search-Team einen Azure-Portallink bereit, der ein Feature-Flag verwendet, damit Sie auf die Power Query-Connectors zugreifen können. Öffnen Sie diese Seite, und starten Sie den Assistenten über die Befehlsleiste auf der Azure Cognitive Search-Dienstseite, indem Sie "Daten importieren" auswählen.

Schritt 3 – Auswählen der Datenquelle

Es gibt einige Datenquellen, aus denen Sie Daten mithilfe dieser Vorschau abrufen können. Alle Datenquellen, die Power Query verwenden, enthalten den Hinweis „Powered By Power Query“ auf ihrer Kachel. Wählen Sie Ihre Datenquelle aus.

Screenshot der Seite

Nachdem Sie Die Datenquelle ausgewählt haben, wählen Sie "Weiter" aus: Konfigurieren Sie Ihre Daten , um zum nächsten Abschnitt zu wechseln.

Schritt 4 – Konfigurieren Ihrer Daten

In diesem Schritt konfigurieren Sie Ihre Verbindung. Jede Datenquelle erfordert unterschiedliche Informationen. Für einige Datenquellen enthält die Power Query-Dokumentation weitere Details zum Herstellen einer Verbindung mit Ihren Daten.

Nachdem Sie Ihre Verbindungsanmeldeinformationen angegeben haben, wählen Sie "Weiter" aus.

Schritt 5 – Auswählen Ihrer Daten

Der Import-Assistent führt eine Vorschau verschiedener Tabellen aus, die in Ihrer Datenquelle verfügbar sind. In diesem Schritt überprüfen Sie eine Tabelle, die die Daten enthält, die Sie in Ihren Index importieren möchten.

Screenshot der Datenvorschau.

Nachdem Sie Die Tabelle ausgewählt haben, wählen Sie "Weiter" aus.

Schritt 6 – Transformieren Ihrer Daten (optional)

Power Query-Connectors bieten Ihnen eine umfassende Benutzeroberfläche, mit der Sie Ihre Daten bearbeiten können, damit Sie die richtigen Daten an Ihren Index senden können. Sie können Spalten entfernen, Zeilen filtern und vieles mehr.

Es ist nicht erforderlich, dass Sie Ihre Daten transformieren, bevor Sie sie in Azure Cognitive Search importieren.

Screenshot der Seite

Weitere Informationen zum Transformieren von Daten mit Power Query erfahren Sie unter Verwendung von Power Query in Power BI Desktop.

Nachdem Daten transformiert wurden, wählen Sie "Weiter" aus.

Schritt 7 – Hinzufügen von Azure Blob Storage

Für die Vorschau des Power Query-Connectors müssen Sie derzeit ein Blob-Speicherkonto bereitstellen. Dieser Schritt existiert nur mit der anfänglichen geschützten Vorschau. Dieses BLOB-Speicherkonto dient als temporärer Speicher für Daten, die von Ihrer Datenquelle in einen Azure Cognitive Search-Index verschoben werden.

Es wird empfohlen, eine Verbindungszeichenfolge für ein Speicherkonto mit vollständigem Zugriff bereitzustellen.

{ "connectionString" : "DefaultEndpointsProtocol=https;AccountName=<your storage account>;AccountKey=<your account key>;" }

Sie können die Verbindungszeichenfolge aus dem Azure-Portal abrufen, indem Sie zum Blatt > Speicherkonto > Einstellungen Schlüssel (für klassische Speicherkonten) oder Einstellungen > Zugriffsschlüssel (für Azure Resource Manager-Speicherkonten) navigieren.

Nachdem Sie einen Datenquellennamen und eine Verbindungszeichenfolge angegeben haben, wählen Sie "Weiter: Kognitive Fähigkeiten hinzufügen (Optional)" aus.

Schritt 8 – Hinzufügen kognitiver Fähigkeiten (optional)

DIE KI-Anreicherung ist eine Erweiterung von Indexern, die verwendet werden können, um Ihre Inhalte besser durchsuchbar zu machen.

Sie können alle Anreicherungen hinzufügen, die Ihrem Szenario Vorteile hinzufügen. Wenn Sie fertig sind, wählen Sie "Weiter" aus: Zielindex anpassen.

Schritt 9 – Anpassen des Zielindexes

Auf der Seite "Index" sollte eine Liste von Feldern mit einem Datentyp und einer Reihe von Kontrollkästchen zum Festlegen von Indexattributen angezeigt werden. Der Assistent kann eine Feldliste basierend auf Metadaten generieren und die Quelldaten durch Abtasten.

Sie können Attribute massenweise auswählen, indem Sie das Kontrollkästchen oben in einer Attributspalte aktivieren. Wählen Sie "Abrufbar" und "Durchsuchbar" für jedes Feld aus, das an eine Client-App zurückgegeben werden soll und der Volltextsuchverarbeitung unterliegt. Sie werden feststellen, dass ganze Zahlen nicht im Volltext oder unscharf durchsuchbar sind (Zahlen werden wortwörtlich ausgewertet und sind häufig in Filtern nützlich).

Lesen Sie die Beschreibung von Indexattributen und Sprachanalysatoren, um weitere Informationen zu erfahren.

Nehmen Sie sich einen Moment Zeit, um Ihre Auswahl zu überprüfen. Nachdem Sie den Assistenten ausgeführt haben, werden physische Datenstrukturen erstellt, und Sie können die meisten Eigenschaften für diese Felder nicht bearbeiten, ohne alle Objekte zu löschen und neu zu erstellen.

Screenshot der Seite

Wenn der Vorgang abgeschlossen ist, wählen Sie "Weiter" aus: "Indexer erstellen".

Schritt 10 – Erstellen eines Indexers

Der letzte Schritt erstellt den Indexer. Das Benennen des Indexers ermöglicht es, als eigenständige Ressource zu existieren, die Sie unabhängig vom Index- und Datenquellenobjekt planen und verwalten können, das in derselben Assistentensequenz erstellt wurde.

Die Ausgabe des Assistenten zum Importieren von Daten ist ein Indexer, der Ihre Datenquelle durchforstet und die von Ihnen ausgewählten Daten in einen Index in Azure Cognitive Search importiert.

Beim Erstellen des Indexers können Sie optional den Indexer gemäß einem Zeitplan ausführen und die Änderungserkennung hinzufügen. Um die Änderungserkennung hinzuzufügen, legen Sie eine Spalte mit hohem Wasserzeichen fest.

Screenshot der

Nachdem Sie die Ausfüllung dieser Seite abgeschlossen haben, wählen Sie "Absenden" aus.

Richtlinie zur Erkennung von Änderungen am Hochwassermarker

Diese Änderungserkennungsrichtlinie basiert auf einer Spalte mit hohem Wasserzeichen, die die Version oder uhrzeit erfasst, zu der eine Zeile zuletzt aktualisiert wurde.

Anforderungen

  • Alle Einfügungen geben einen Wert für die Spalte an.
  • Alle Updates für ein Element ändern auch den Wert der Spalte.
  • Der Wert dieser Spalte wird bei jeder Einfügung oder Aktualisierung erhöht.

Nicht unterstützte Spaltennamen

Feldnamen in einem Azure Cognitive Search-Index müssen bestimmte Anforderungen erfüllen. Eine dieser Anforderungen besteht darin, dass einige Zeichen wie "/" nicht zulässig sind. Wenn ein Spaltenname in Ihrer Datenbank diese Anforderungen nicht erfüllt, erkennt die Indexschemaerkennung Ihre Spalte nicht als gültigen Feldnamen, und Sie sehen nicht, dass diese Spalte als vorgeschlagenes Feld für Ihren Index aufgeführt ist. Normalerweise würde die Verwendung von Feldzuordnungen dieses Problem lösen, feldzuordnungen werden jedoch nicht im Portal unterstützt.

Wenn Sie Inhalte aus einer Spalte in der Tabelle mit einem nicht unterstützten Feldnamen indizieren möchten, benennen Sie die Spalte während der Phase "Transformieren Der Daten" des Importdatenprozesses um. Sie können z. B. eine Spalte namens "Abrechnungscode/ZIP-Code" in "zipcode" umbenennen. Durch das Umbenennen der Spalte erkennt die Indexschemaerkennung sie als gültigen Feldnamen und fügt sie Ihrer Indexdefinition als Vorschlag hinzu.

Nächste Schritte

In diesem Artikel wird erläutert, wie Sie Daten mithilfe der Power Query-Connectors abrufen. Da dieses Vorschaufeature nicht mehr verfügbar ist, wird auch erläutert, wie vorhandene Lösungen zu einem unterstützten Szenario migriert werden.

Weitere Informationen zu Indexern finden Sie unter Indexer in Azure Cognitive Search.