Compartilhar via


Copiar dados do Google Cloud Storage usando o Azure Data Factory ou o Synapse Analytics

APLICA-SE A: Azure Data Factory Azure Synapse Analytics

Dica

Experimente o Data Factory no Microsoft Fabric, uma solução de análise tudo-em-um para empresas. O Microsoft Fabric abrange desde movimentação de dados até ciência de dados, análise em tempo real, business intelligence e relatórios. Saiba como iniciar uma avaliação gratuita!

Este artigo descreve como copiar dados a partir do Google Cloud Storage (GCS). Para saber mais, leia o artigo introdutório do Azure Data Factory e do Synapse Analytics.

Funcionalidades com suporte

Há suporte para este conector do Google Cloud Storage para as seguintes funcionalidades:

Funcionalidades com suporte IR
Atividade de cópia (origem/-) ① ②
Fluxo de dados de mapeamento (origem/-)
Atividade de pesquisa ① ②
Atividade GetMetadata ① ②
Excluir atividade ① ②

① Runtime de integração do Azure ② Runtime de integração auto-hospedada

Especificamente, este conector do Google Cloud Storage dá suporte à cópia de arquivos no estado em que se encontram ou à análise de arquivos com os formatos de arquivo e codecs de compactação compatíveis. Ele aproveita a interoperabilidade compatível com S3 do GCS.

Pré-requisitos

A seguinte configuração é necessária na sua conta do Google Cloud Storage:

  1. Permitir a interoperabilidade para sua conta do Google Cloud Storage
  2. Defina o projeto padrão que contém os dados que você deseja copiar do bucket de destino do GCS.
  3. Crie uma conta de serviço e defina os níveis de permissões certos usando o IAM de Nuvem no GCP.
  4. Gere as chaves de acesso para essa conta de serviço.

Recuperar a chave de acesso para o Google Cloud Storage

Permissões necessárias

Para copiar dados do Google Cloud Storage, verifique se você recebeu as seguintes permissões para as operações de objeto: storage.objects.get e storage.objects.list.

Se você usar a interface do usuário para a criação, será necessária a permissão storage.buckets.list adicional para operações como teste da conexão com o serviço vinculado e procura começando na raiz. Caso não deseje conceder essa permissão, escolha as opções "Testar a conexão com o caminho do arquivo" ou "Procurar começando no caminho especificado" na interface do usuário.

Para obter a lista completa de funções do Google Cloud Storage e as permissões associadas, confira Funções do IAM do Google Cloud Storage no site do Google Cloud.

Introdução

Para executar a atividade de Cópia com um pipeline, será possível usar as ferramentas ou os SDKs abaixo:

Criar um serviço vinculado ao Google Cloud Storage usando a interface do usuário

Use as etapas a seguir para criar um serviço vinculado ao Google Cloud Storage na interface do usuário do portal do Azure.

  1. Navegue até a guia Gerenciar em seu espaço de trabalho do Azure Data Factory ou do Synapse, selecione Serviços Vinculados e clique em Novo:

  2. Pesquise por Google e selecione o conector do Google Cloud Storage (API S3).

    Selecione o conector do Google Cloud Storage (API S3).

  3. Configure os detalhes do serviço, teste a conexão e crie o novo serviço vinculado.

    Configurar um serviço vinculado ao Google Cloud Storage.

Detalhes da configuração do conector

As seções a seguir fornecem detalhes sobre as propriedades que são usadas para definir entidades do Data Factory específicas ao conector do Google Cloud Storage.

Propriedades do serviço vinculado

Há suporte para as seguintes propriedades nos serviços vinculados do Google Cloud Storage:

Propriedade Descrição Obrigatório
type A propriedade type precisa ser definida como GoogleCloudStorage. Sim
accessKeyId ID da chave de acesso secreta. Para ver a chave de acesso e o segredo, confira Prerrequisitos. Sim
secretAccessKey A chave de acesso do secreta em si. Marque este campo como um SecureString para armazená-lo com segurança ou referencie um segredo armazenado no Azure Key Vault. Sim
serviceUrl Especifique o ponto de extremidade GCS personalizado como https://storage.googleapis.com . Sim
connectVia O runtime de integração a ser usado para se conectar ao armazenamento de dados. Use o runtime de integração do Azure ou o runtime de integração auto-hospedada (se o seu armazenamento de dados estiver em uma rede privada). Se essa propriedade não for especificada, o serviço usará o runtime de integração do Azure padrão. Não

Veja um exemplo:

{
    "name": "GoogleCloudStorageLinkedService",
    "properties": {
        "type": "GoogleCloudStorage",
        "typeProperties": {
            "accessKeyId": "<access key id>",
            "secretAccessKey": {
                "type": "SecureString",
                "value": "<secret access key>"
            },
            "serviceUrl": "https://storage.googleapis.com"
        },
        "connectVia": {
            "referenceName": "<name of Integration Runtime>",
            "type": "IntegrationRuntimeReference"
        }
    }
}

Propriedades do conjunto de dados

O Azure Data Factory é compatível com os formatos de arquivo a seguir. Confira cada artigo para obter configurações baseadas em formato.

Há suporte para as seguintes propriedades no Google Cloud Storage nas configurações de location em um conjunto de dados baseado no formato:

Propriedade Descrição Obrigatório
type A propriedade type em location no conjunto de dados precisa ser definida como GoogleCloudStorageLocation. Sim
bucketName O nome do bucket GCS. Sim
folderPath O caminho para a pasta sob o bucket fornecido. Caso deseje usar um curinga para filtrar a pasta, ignore essa configuração e especifique isso nas configurações de origem da atividade. Não
fileName O nome do arquivo no bucket e no caminho da pasta fornecidos. Caso deseje usar um curinga para filtrar os arquivos, ignore essa configuração e especifique isso nas configurações de origem da atividade. Não

Exemplo:

{
    "name": "DelimitedTextDataset",
    "properties": {
        "type": "DelimitedText",
        "linkedServiceName": {
            "referenceName": "<Google Cloud Storage linked service name>",
            "type": "LinkedServiceReference"
        },
        "schema": [ < physical schema, optional, auto retrieved during authoring > ],
        "typeProperties": {
            "location": {
                "type": "GoogleCloudStorageLocation",
                "bucketName": "bucketname",
                "folderPath": "folder/subfolder"
            },
            "columnDelimiter": ",",
            "quoteChar": "\"",
            "firstRowAsHeader": true,
            "compressionCodec": "gzip"
        }
    }
}

Propriedades da atividade de cópia

Para obter uma lista completa das seções e propriedades disponíveis para definir atividades, confia o artigo Pipelines. Esta seção apresenta uma lista das propriedades para as quais a fonte do Google Cloud Storage dá suporte.

Google Cloud Storage como um tipo de origem

O Azure Data Factory é compatível com os formatos de arquivo a seguir. Confira cada artigo para obter configurações baseadas em formato.

Há suporte para as seguintes propriedades no Google Cloud Storage nas configurações de storeSettings em uma origem de cópia baseada no formato:

Propriedade Descrição Obrigatório
type A propriedade type em storeSettings precisa ser definida como GoogleCloudStorageReadSettings. Sim
Localize os arquivos a serem copiados:
OPÇÃO 1: caminho estático
Copiar do caminho do bucket ou de pasta/arquivo especificado no conjunto de dados. Caso deseje copiar todos os arquivos de um bucket ou uma pasta, especifique também wildcardFileName como *.
OPÇÃO DOIS: Prefixo GCS
– prefix
Prefixo para o nome da chave do GCS no bucket especificado configurado no conjunto de dados para filtrar os arquivos do GCS de origem. As chaves do GCS cujos nomes começam com bucket_in_dataset/this_prefix serão selecionadas. Ele utiliza o filtro do lado do serviço do GCS, que fornece melhor desempenho do que o filtro curinga. Não
OPÇÃO 3: curinga
- wildcardFolderPath
O caminho da pasta com caracteres curinga sob o bucket fornecido configurado no conjunto de dados para filtrar as pastas de origem.
Os curingas permitidos são: * (corresponde a zero ou mais caracteres) e ? (corresponde a zero ou caractere único). Use ^ como escape se o nome real da pasta tiver curingas ou esse caractere de escape.
Veja mais exemplos em Exemplos de filtro de pastas e arquivos.
Não
OPÇÃO 3: curinga
- wildcardFileName
O nome do arquivo com caracteres curinga sob o bucket e caminho da pasta fornecidos (ou o caminho da pasta curinga) para filtrar os arquivos de origem.
Os curingas permitidos são: * (corresponde a zero ou mais caracteres) e ? (corresponde a zero ou caractere único). Use ^ como escape se o nome do arquivo contiver um curinga ou esse caractere de escape. Veja mais exemplos em Exemplos de filtro de pastas e arquivos.
Sim
OPÇÃO 3: uma lista de arquivos
- fileListPath
Indica a cópia de um determinado conjunto de arquivos. Aponte para um arquivo de texto que inclui a lista de arquivos que você deseja copiar com um arquivo por linha, que é o caminho relativo para o caminho configurado no conjunto de dados.
Quando usar essa opção, não especifique o nome de arquivo no conjunto de dados. Veja mais exemplos em Exemplos de lista de arquivos.
Não
Configurações adicionais:
recursiva Indica se os dados são lidos recursivamente das subpastas ou somente da pasta especificada. Observe que quando recursiva é definida como true e o coletor é um repositório baseado em arquivo, uma pasta vazia ou uma subpasta não é copiada nem criada no coletor.
Os valores permitidos são true (padrão) e false.
Essa propriedade não se aplica quando você configura fileListPath.
Não
deleteFilesAfterCompletion Indica se os arquivos binários serão excluídos do repositório de origem após a movimentação com êxito para o repositório de destino. A exclusão do arquivo é feita por arquivo, portanto, quando a atividade de cópia falhar, você verá que alguns arquivos já foram copiados para o destino e excluídos da origem, enquanto outros ainda permanecem no repositório de origem.
Essa propriedade só é válida no cenário de cópia de arquivos binários. O valor padrão é false.
Não
modifiedDatetimeStart Os arquivos são filtrados com base no atributo última modificação.
Os arquivos serão selecionados se a hora da última modificação for maior ou igual a modifiedDatetimeStart e menor que modifiedDatetimeEnd. A hora é aplicada ao fuso horário de UTC no formato "2018-12-01T05:00:00Z".
As propriedades podem ser NULL, o que significa que nenhum filtro de atributo de arquivo será aplicado ao conjunto de dados. Quando modifiedDatetimeStart tiver um valor de datetime, mas modifiedDatetimeEnd for NULL, serão selecionados os arquivos cujo último atributo modificado for maior ou igual ao valor de datetime. Quando modifiedDatetimeEnd tem um valor datetime, mas modifiedDatetimeStart é NULL, serão selecionados os arquivos cujo último atributo modificado for menor que o valor do datetime.
Essa propriedade não se aplica quando você configura fileListPath.
Não
modifiedDatetimeEnd Mesmo que acima. Não
enablePartitionDiscovery Para arquivos que são particionados, especifique se deseja analisar as partições do caminho do arquivo e adicioná-las como colunas de origem adicionais.
Os valores permitidos são false (padrão) e true.
No
partitionRootPath Quando a descoberta de partição estiver habilitada, especifique o caminho raiz absoluto para ler as pastas particionadas como colunas de dados.

Se ele não for especificado, por padrão ocorrerá o seguinte:
– Quando você usa o caminho do arquivo no conjunto de dados ou na lista de arquivos na origem, o caminho raiz da partição é o caminho configurado no conjunto de dados.
– Quando você usa o filtro de pasta curinga, o caminho raiz da partição é o subcaminho antes do primeiro curinga.

Por exemplo, supondo que você configure o caminho no conjunto de dados como "root/folder/year=2020/month=08/day=27":
– Se você especifica o caminho raiz da partição como "root/folder/year=2020", a atividade de cópia gera mais duas colunas month e day com o valor "08" e "27", respectivamente, além das colunas dentro dos arquivos.
– Se o caminho raiz da partição não for especificado, nenhuma coluna extra será gerada.
Não
maxConcurrentConnections O limite superior de conexões simultâneas estabelecidas com o armazenamento de dados durante a execução da atividade. Especifique um valor somente quando desejar limitar as conexões simultâneas. Não

Exemplo:

"activities":[
    {
        "name": "CopyFromGoogleCloudStorage",
        "type": "Copy",
        "inputs": [
            {
                "referenceName": "<Delimited text input dataset name>",
                "type": "DatasetReference"
            }
        ],
        "outputs": [
            {
                "referenceName": "<output dataset name>",
                "type": "DatasetReference"
            }
        ],
        "typeProperties": {
            "source": {
                "type": "DelimitedTextSource",
                "formatSettings":{
                    "type": "DelimitedTextReadSettings",
                    "skipLineCount": 10
                },
                "storeSettings":{
                    "type": "GoogleCloudStorageReadSettings",
                    "recursive": true,
                    "wildcardFolderPath": "myfolder*A",
                    "wildcardFileName": "*.csv"
                }
            },
            "sink": {
                "type": "<sink type>"
            }
        }
    }
]

Exemplos de filtro de pasta e arquivo

Esta seção descreve o comportamento resultante do caminho da pasta e do nome de arquivo com filtros curinga.

bucket chave recursiva Estrutura da pasta de origem e resultado do filtro (os arquivos em negrito são recuperados)
bucket Folder*/* false bucket
    FolderA
        Arquivo1.csv
        File2.json
        Subpasta1
            File3.csv
            File4.json
            File5.csv
    OutraPastaB
        Arquivo6.csv
bucket Folder*/* true bucket
    FolderA
        Arquivo1.csv
        File2.json
        Subpasta1
            File3.csv
            File4.json
            File5.csv
    OutraPastaB
        Arquivo6.csv
bucket Folder*/*.csv false bucket
    FolderA
        Arquivo1.csv
        Arquivo2.json
        Subpasta1
            File3.csv
            File4.json
            File5.csv
    OutraPastaB
        Arquivo6.csv
bucket Folder*/*.csv true bucket
    FolderA
        Arquivo1.csv
        Arquivo2.json
        Subpasta1
            File3.csv
            File4.json
            File5.csv
    OutraPastaB
        Arquivo6.csv

Exemplos de lista de arquivos

Esta seção descreve o comportamento resultante do uso de um caminho de lista de arquivos na origem da atividade Copy.

Suponha que você tenha a seguinte estrutura de pasta de origem e queira copiar os arquivos em negrito:

Exemplo de estrutura de origem Conteúdo em FileListToCopy.txt Configuração
bucket
    FolderA
        Arquivo1.csv
        Arquivo2.json
        Subpasta1
            File3.csv
            File4.json
            File5.csv
    Metadados
        FileListToCopy.txt
File1.csv
Subfolder1/File3.csv
Subfolder1/File5.csv
No conjunto de dados:
– Bucket: bucket
- Caminho da pasta: FolderA

Na origem da atividade de cópia:
- Caminho da lista de arquivos: bucket/Metadata/FileListToCopy.txt

O caminho da lista de arquivos aponta para um arquivo de texto no mesmo armazenamento de dados que inclui a lista de arquivos que você deseja copiar, um arquivo por linha, com o caminho relativo do caminho configurado no conjunto de dados.

Propriedades do fluxo de dados de mapeamento

Quando estiver transformando dados em fluxos de dados de mapeamento, você poderá ler arquivos do Armazenamento em Nuvem do Google nos seguintes formatos:

As configurações de formato específico estão localizadas na documentação para esse formato. Para saber mais, confira Transformação de origem no fluxo de dados de mapeamento.

Transformação de origem

Na transformação de origem, você pode ler de um contêiner, pasta ou arquivo individual no Armazenamento de Nuvem do Google. Use a guia Opções de origem para gerenciar como os arquivos são lidos.

Captura de tela das opções de origem.

Caminhos curinga: o uso de um padrão curinga instruirá o serviço a executar um loop em cada pasta e arquivo correspondentes em uma única transformação de origem. Esse é um modo eficaz de processar vários arquivos dentro de um único fluxo. Adicione vários padrões de correspondência de curinga com o sinal de adição que aparece ao passar o mouse sobre o padrão de curinga existente.

Em seu contêiner de origem, escolha uma série de arquivos que correspondem a um padrão. Somente o contêiner pode ser especificado no conjunto de dados. O caminho curinga, portanto, também precisa incluir o caminho da pasta raiz.

Exemplos de caracteres curinga:

  • * Representa qualquer conjunto de caracteres.

  • ** Representa o aninhamento de diretório recursivo.

  • ? Substitui um caractere.

  • [] Corresponde a um ou mais caracteres entre colchetes.

  • /data/sales/**/*.csv Obtém todos os arquivos CSV em /data/sales.

  • /data/sales/20??/**/ Obtém todos os arquivos no século XX.

  • /data/sales/*/*/*.csv Obtém arquivos CSV dois níveis em /data/sales.

  • /data/sales/2004/*/12/[XY]1?.csv Obtém todos os arquivos CSV de dezembro de 2004 que começam com X ou Y prefixado por um número de dois dígitos.

Caminho raiz da partição: se você tiver pastas particionadas em sua fonte de arquivo com um formato key=value (por exemplo, year=2019), poderá atribuir o nível superior da árvore de pastas dessa partição a um nome de coluna no fluxo de dados.

Primeiro, defina um curinga para incluir todos os caminhos que são as pastas particionadas mais os arquivos folha que você deseja ler.

Captura de tela das configurações do arquivo de origem da partição.

Use a configuração do caminho raiz da partição para definir qual é o nível superior da estrutura de pastas. Ao exibir o conteúdo de seus dados por meio de uma pré-visualização de dados, você verá que o serviço adicionará as partições resolvidas encontradas em cada um dos níveis de pasta.

Captura de tela do caminho raiz da partição.

Lista de arquivos: é um conjunto de arquivos. Crie um arquivo de texto que inclui uma lista de arquivos do caminho relativo a serem processados. Aponte para este arquivo de texto.

Coluna para armazenar o nome do arquivo: armazene o nome do arquivo de origem em uma coluna em seus dados. Insira um novo nome de coluna para armazenar a cadeia de caracteres de nome de arquivo.

Após a conclusão: Opte por não fazer nada com o arquivo de origem após a execução de fluxo de dados, excluir o arquivo de origem ou mover o arquivo de origem. Os caminhos para movimentação são relativos.

Para mover os arquivos de origem para outro local após o processamento, primeiro selecione "Mover" para a operação de arquivo. Em seguida, defina o diretório "de". Se você não estiver usando curingas para o caminho, a configuração "de" será a mesma pasta que a de origem.

Se você tiver um caminho de origem com curinga, sua sintaxe terá a seguinte aparência:

/data/sales/20??/**/*.csv

Você pode especificar "de" como:

/data/sales

E você pode especificar "para" como:

/backup/priorSales

Nesse caso, todos os arquivos que foram originados em /data/sales são movidos para /backup/priorSales.

Observação

As operações do arquivo são executadas somente quando você inicia o fluxo de dados de uma execução de pipeline (depuração de pipeline ou realização da execução) que usa a atividade Executar Fluxo de Dados em um pipeline. As operações de arquivo não são executadas no modo de depuração do Fluxo de Dados.

Filtrar por última modificação: você pode filtrar quais arquivos são processados especificando um intervalo de datas de quando eles foram modificados pela última vez. Todos os datetimes estão em UTC.

Pesquisar propriedades de atividade

Para saber detalhes sobre as propriedades, verifique Atividade de pesquisa.

Propriedades de atividade GetMetadata

Para saber detalhes sobre as propriedades, confira Atividade GetMetadata.

Excluir propriedades da atividade

Para saber mais detalhes sobre as propriedades, confira Atividade Delete.

Modelos herdados

Se você estava usando um conector do Amazon S3 para copiar dados do Google Cloud Storage, ainda há suporte para compatibilidade com versões anteriores. Sugerimos que você use o novo modelo mencionado anteriormente. A criação da interface do usuário do Data Factory mudou para gerar o novo modelo.

Para obter uma lista de armazenamentos de dados que a atividade Copy suporta, como fontes e coletores, consulte Armazenamentos de dados compatíveis.