Azure Data Factory 및 Azure Synapse Analytics의 복사 작업

적용 대상: Azure Data Factory Azure Synapse Analytics

기업용 올인원 분석 솔루션인 Microsoft Fabric의 Data Factory를 사용해 보세요. Microsoft Fabric은 데이터 이동부터 데이터 과학, 실시간 분석, 비즈니스 인텔리전스 및 보고에 이르기까지 모든 것을 다룹니다. 무료로 새 평가판을 시작하는 방법을 알아봅니다!

Azure Data Factory 및 Synapse 파이프라인에서는 복사 작업을 사용하여 온-프레미스와 클라우드에 있는 데이터 저장소 간에 데이터를 복사할 수 있습니다. 데이터를 복사한 후 다른 작업을 사용하여 추가 변환 및 분석을 수행할 수 있습니다. 복사 작업을 통해 BI(비즈니스 인텔리전스) 및 애플리케이션에서 사용할 수 있도록 변환 및 분석 결과를 게시할 수도 있습니다.

The role of the Copy activity

복사 작업은 통합 런타임에서 실행됩니다. 다양한 데이터 복사 시나리오에서 다양한 유형의 통합 런타임을 사용할 수 있습니다.

  • 모든 IP에서 인터넷을 통해 공개적으로 액세스할 수 있는 두 데이터 저장소 간에 데이터를 복사하는 경우 복사 작업에 Azure Integration Runtime을 사용할 수 있습니다. 이 통합 런타임은 안전하고, 안정적이고, 확장 가능하며 전역적으로 사용할 수 있습니다.
  • 액세스 제어가 적용된 온-프레미스 또는 네트워크(예: Azure 가상 네트워크)에(서) 데이터를 복사하는 경우 자체 호스팅 통합 런타임을 설정해야 합니다.

통합 런타임을 각각의 원본 및 싱크 데이터 저장소와 연결해야 합니다. 복사 작업에서 사용할 통합 런타임을 결정하는 방법에 대한 자세한 내용은 사용할 IR 결정을 참조하세요.

원본에서 싱크로 데이터를 복사하기 위해 복사 작업을 실행하는 서비스는 다음 단계를 수행합니다.

  1. 원본 데이터 저장소에서 데이터를 읽습니다.
  2. 직렬화/역직렬화, 압축/압축 해제, 열 매핑 등을 수행합니다. 이러한 작업은 입력 데이터 세트, 출력 데이터 세트 및 복사 작업의 구성에 따라 달라집니다.
  3. 싱크/대상 데이터 저장소에 데이터를 씁니다.

Copy activity overview

참고 항목

자체 호스팅 통합 런타임이 복사 작업 내의 원본 또는 싱크 데이터 저장소에서 사용되는 경우 복사 작업이 성공하려면 통합 런타임을 호스트된 서버에서 원본과 싱크 모두에 액세스할 수 있어야 합니다.

지원되는 데이터 저장소 및 형식

범주 데이터 저장소 소스로 지원 싱크로 지원 Azure IR에서 지원 자체 호스팅 IR에서 지원
Azure Azure Blob Storage
  Azure AI 검색 인덱스
  Azure Cosmos DB for NoSQL
  Azure Cosmos DB for MongoDB
  Azure Data Explorer
  Azure Data Lake Storage Gen1
  Azure Data Lake Storage Gen2
  Azure Database for MariaDB
  Azure Database for MySQL
  Azure Database for PostgreSQL
  Azure Databricks Delta Lake
  Azure 파일
  Azure SQL Database
  Azure SQL Managed Instance
  Azure Synapse Analytics
  Azure Table Storage
Database Amazon RDS for Oracle
  Amazon RDS for SQL Server
  Amazon Redshift
  DB2
  Drill
  Google BigQuery
  Greenplum
  HBase
  Hive
  Apache Impala
  Informix
  MariaDB
  Microsoft Access
  MySQL
  Netezza
  Oracle
  Phoenix
  PostgreSQL
  Presto
  Open Hub를 통한 SAP Business Warehouse
  MDX를 통한 SAP Business Warehouse
  SAP HANA 싱크는 ODBC 커넥터 및 SAP HANA ODBC 드라이버에서만 지원됩니다.
  SAP 테이블
  Snowflake
  Spark
  SQL Server
  Sybase
  Teradata
  Vertica
NoSQL Cassandra
  Couchbase(미리 보기)
  MongoDB
  MongoDB Atlas
파일 Amazon S3
  Amazon S3 호환 스토리지
  파일 시스템
  FTP
  Google Cloud Storage
  HDFS
  Oracle Cloud Storage
  SFTP
일반 프로토콜 일반 HTTP
  일반 OData
  일반 ODBC
  일반 REST
서비스 및 앱 Amazon Marketplace Web Service
  Concur(미리 보기)
  Dataverse
  Dynamics 365
  Dynamics AX
  Dynamics CRM
  Google AdWords
  HubSpot
  Jira
  Magento(미리 보기)
  Marketo(미리 보기)
  Microsoft 365
  Oracle Eloqua(미리 보기)
  Oracle Responsys(미리 보기)
  Oracle Service Cloud(미리 보기)
  PayPal(미리 보기)
  QuickBooks(미리 보기)
  Salesforce
  Salesforce 서비스 클라우드
  Salesforce Marketing Cloud
  SAP Cloud for Customer(C4C)
  SAP ECC
  ServiceNow
SharePoint Online 목록
  Shopify(미리 보기)
  Square(미리 보기)
  웹 테이블(HTML 테이블)
  Xero
  Zoho(미리 보기)

참고 항목

커넥터가 미리 보기로 표시되어 있으면 이를 사용해보고 피드백을 제공할 수 있습니다. 솔루션의 미리 보기 커넥터에 종속성을 적용하려면 Azure 지원에 문의하세요.

지원되는 파일 형식

Azure Data Factory는 다음과 같은 파일 형식을 지원합니다. 형식 기반 설정에 대한 각 문서를 참조하세요.

복사 작업을 사용하여 두 파일 기반 데이터 저장소 간에 있는 그대로 파일을 복사할 수 있습니다. 이 때 데이터는 직렬화 또는 역직렬화 없이 효율적으로 복사됩니다. 또한 지정된 형식의 파일을 구문 분석하거나 생성할 수도 있습니다. 예를 들어 다음을 수행할 수 있습니다.

  • SQL Server 데이터베이스에서 데이터를 복사하고 Parquet 형식으로 Azure Data Lake Storage Gen2에 씁니다.
  • 온-프레미스 파일 시스템에서 텍스트(CSV) 형식의 파일을 복사하여 Avro 형식으로 Azure Blob Storage에 씁니다.
  • 온-프레미스 파일 시스템에서 압축된 파일을 복사하여 즉시 압축을 풀고 압축을 푼 파일을 Azure Data Lake Storage Gen2에 씁니다.
  • Azure Blob Storage에서 Gzip 압축 텍스트(CSV) 형식의 데이터를 복사하여 Azure SQL Database에 씁니다.
  • 직렬화/역직렬화 또는 압축/압축 해제가 필요한 작업이 더 많이 있습니다.

지원되는 지역

복사 작업을 사용하는 서비스는 Azure Integration Runtime 위치에 표시된 지역 및 지리에서 전역적으로 사용할 수 있습니다. 전역적으로 사용 가능한 토폴로지에서는 대개 지역 간 홉이 없는 효율적인 데이터 이동이 가능합니다. 특정 지역에서 Data Factory, Synapse 작업 영역 및 데이터 이동을 사용할 수 있는지 확인하려면 지역별 제품을 참조하세요.

구성

파이프라인에 복사 작업을 수행하려면 다음 도구 또는 SDK 중 하나를 사용하면 됩니다.

일반적으로 Azure Data Factory 또는 Synapse 파이프라인에서 복사 작업을 사용하려면 다음이 필요합니다.

  1. 원본 데이터 저장소 및 싱크 데이터 저장소에 대한 연결된 서비스를 만듭니다. 지원되는 커넥터 목록은 이 문서의 지원되는 데이터 저장소 및 형식 섹션에서 찾을 수 있습니다. 구성 정보 및 지원되는 속성은 커넥터 문서의 '연결된 서비스 속성' 섹션을 참조하세요.
  2. 원본 및 싱크에 대한 데이터 세트를 만듭니다. 구성 정보 및 지원되는 속성은 원본 및 싱크 커넥터 문서의 '데이터 세트 속성' 섹션을 참조하세요.
  3. 복사 작업을 사용하는 파이프라인을 만듭니다. 다음 섹션에서 예제를 제공합니다.

구문

복사 작업의 다음 템플릿은 지원되는 속성의 전체 목록을 포함합니다. 시나리오에 적합한 속성을 지정하세요.

"activities":[
    {
        "name": "CopyActivityTemplate",
        "type": "Copy",
        "inputs": [
            {
                "referenceName": "<source dataset name>",
                "type": "DatasetReference"
            }
        ],
        "outputs": [
            {
                "referenceName": "<sink dataset name>",
                "type": "DatasetReference"
            }
        ],
        "typeProperties": {
            "source": {
                "type": "<source type>",
                <properties>
            },
            "sink": {
                "type": "<sink type>"
                <properties>
            },
            "translator":
            {
                "type": "TabularTranslator",
                "columnMappings": "<column mapping>"
            },
            "dataIntegrationUnits": <number>,
            "parallelCopies": <number>,
            "enableStaging": true/false,
            "stagingSettings": {
                <properties>
            },
            "enableSkipIncompatibleRow": true/false,
            "redirectIncompatibleRowSettings": {
                <properties>
            }
        }
    }
]

구문 세부 정보

속성 설명 필수 여부
type 복사 작업의 경우 Copy로 설정합니다.
inputs 원본 데이터를 가리키도록 만든 데이터 세트를 지정합니다. 복사 작업에서는 하나의 입력만 지원합니다.
outputs 싱크 데이터를 가리키도록 만든 데이터 세트를 지정합니다. 복사 작업에서는 하나의 출력만 지원합니다.
typeProperties 복사 작업을 구성할 속성을 지정합니다.
source 데이터 검색을 위한 복사 원본 유형 및 해당 속성을 지정합니다.
자세한 내용은 지원되는 데이터 저장소 및 형식에 열거된 커넥터 문서의 '복사 작업 속성' 섹션을 참조하세요.
sink(싱크) 데이터 쓰기를 위한 복사 싱크 유형 및 해당 속성을 지정합니다.
자세한 내용은 지원되는 데이터 저장소 및 형식에 열거된 커넥터 문서의 '복사 작업 속성' 섹션을 참조하세요.
번역기 원본에서 싱크로의 명시적 열 매핑을 지정합니다. 이 속성은 기본 복사 동작이 사용자의 요구를 충족하지 않는 경우에 적용됩니다.
자세한 내용은 복사 작업의 스키마 매핑을 참조하세요.
아니요
dataIntegrationUnits Azure Integration Runtime이 데이터 복사에 사용하는 전력량을 나타내는 측정값을 지정합니다. 이전에는 이러한 단위를 클라우드 DMU(데이터 이동 단위)라고 했습니다.
자세한 내용은 데이터 통합 단위를 참조하세요.
아니요
parallelCopies 복사 작업이 원본에서 데이터를 읽어 싱크에 쓸 때 사용할 병렬 처리를 지정합니다.
자세한 내용은 병렬 복사를 참조하세요.
아니요
보존 데이터를 복사하는 동안 메타데이터/ACL을 유지할지 여부를 지정합니다.
자세한 내용은 메타데이터 유지를 참조하세요.
아니요
enableStaging
stagingSettings
데이터를 원본에서 싱크로 직접 복사하는 대신 Blob Storage에서 중간 데이터를 준비할지 여부를 선택합니다.
유용한 시나리오 및 구성 세부 정보는 단계별 복사를 참조하세요.
아니요
enableSkipIncompatibleRow
redirectIncompatibleRowSettings
데이터를 원본에서 싱크로 복사할 때 호환되지 않는 행을 처리하는 방법을 선택합니다.
자세한 내용은 내결함성을 참조하세요.
아니요

모니터링

Azure Data Factory 및 Synapse 파이프라인에서 실행되는 복사 작업 실행을 시각적으로 또는 프로그래밍 방식으로 모니터링할 수 있습니다. 자세한 내용은 복사 작업 모니터링을 참조하세요.

증분 복사

Data Factory 및 Synapse 파이프라인을 사용하면 원본 데이터 저장소에서 싱크 데이터 저장소로 델타 데이터를 증분 복사할 수 있습니다. 자세한 내용은 자습서: 증분 방식으로 데이터 복사를 참조하세요.

성능 및 튜닝

복사 작업 모니터링 환경에는 각 활동 실행에 대한 복사 성능 통계가 표시됩니다. 복사 작업 성능 및 확장성 가이드에서는 복사 작업을 통한 데이터 이동 성능에 영향을 주는 주요 요인에 대해 설명합니다. 또한 테스트 중 관찰된 성능 값을 나열하고 복사 작업 성능을 최적화하는 방법을 설명합니다.

마지막으로 실패한 실행에서 다시 시작

복사 작업은 파일 기반 저장소 간에 이진 형식을 사용하는 대용량 파일을 있는 그대로 복사하고, 예를 들어 Amazon S3에서 Azure Data Lake Storage Gen2로 데이터를 마이그레이션하기 위해 원본에서 싱크로 폴더/파일 계층 구조를 유지하도록 선택하는 경우 마지막으로 실패한 실행에서 다시 시작을 지원합니다. Amazon S3, Amazon S3 Compatible StorageAzure Blob, Azure Data Lake Storage Gen1, Azure Data Lake Storage Gen2, Azure Files, File System, FTP, Google Cloud Storage, HDFS, Oracle Cloud StorageSFTP와 같은 파일 기반 커넥터에 적용됩니다.

다음 두 가지 방법으로 복사 작업 다시 시작을 활용할 수 있습니다.

  • 작업 수준 다시 시도: 복사 작업에 대한 재시도 횟수를 설정할 수 있습니다. 파이프라인을 실행하는 동안 이 복사 작업이 실행되지 않으면 다음 자동 다시 시도가 마지막 시도의 실패 지점에서 시작됩니다.

  • 실패한 작업에서 다시 실행: 파이프라인 실행이 완료된 후 ADF UI 모니터링 보기에서 또는 프로그래밍 방식으로 실패한 작업에서 다시 실행을 트리거할 수도 있습니다. 실패한 작업이 복사 작업인 경우 파이프라인은 이 작업에서 다시 실행될 뿐만 아니라 이전 실행의 실패 지점에서 다시 시작합니다.

    Copy resume

주의할 사항:

  • 다시 시작은 파일 수준에서 발생합니다. 파일을 복사하는 동안 복사 작업이 실패하는 경우 다음 실행에서 해당 파일이 다시 복사됩니다.
  • 다시 시작이 제대로 작동하려면 다시 실행 간에 복사 작업 설정을 변경하지 마세요.
  • Amazon S3, Azure Blob, Azure Data Lake Storage Gen2 및 Google Cloud Storage에서 데이터를 복사하는 경우 복사 작업은 복사된 파일 수에 관계없이 다시 시작될 수 있습니다. 원본으로 사용되는 나머지 파일 기반 커넥터에서는 현재 복사 작업이 제한된 개수의 파일에서 다시 시작을 지원합니다. 이는 일반적으로 수십 개 범위이고 파일 경로의 길이에 따라 달라집니다. 이 범위를 초과하는 파일은 다시 실행하는 동안 다시 복사됩니다.

이진 파일 복사 이외의 시나리오에서는 복사 작업 다시 실행은 처음부터 시작됩니다.

데이터와 함께 메타데이터 유지

데이터 레이크 마이그레이션과 같은 시나리오에서 데이터를 원본에서 싱크로 복사하는 동안 복사 작업을 사용하여 데이터와 함께 메타데이터 및 ACL을 유지하도록 선택할 수도 있습니다. 자세한 내용은 메타데이터 유지를 참조하세요.

파일 기반 싱크에 메타데이터 태그 추가

싱크가 Azure Storage 기반(Azure Data Lake Storage 또는 Azure Blob Storage)인 경우 일부 메타데이터를 파일에 추가하도록 선택할 수 있습니다. 이러한 메타데이터는 파일 속성의 일부로 키-값 쌍으로 표시됩니다. 모든 형식의 파일 기반 싱크에 대해 파이프라인 매개 변수, 시스템 변수, 함수 및 변수를 사용하여 동적 콘텐츠와 관련된 메타데이터를 추가할 수 있습니다. 또한 이진 파일 기반 싱크의 경우 $$LASTMODIFIED 키워드를 사용하여 원본 파일의 마지막 수정 날짜/시간과 사용자 지정 값을 메타데이터로 싱크 파일에 추가하는 옵션이 있습니다.

스키마 및 데이터 형식 매핑

복사 작업이 원본 데이터를 싱크에 매핑하는 방법은 스키마 및 데이터 형식 매핑을 참조하세요.

복사 중에 열 추가

원본 데이터 저장소에서 싱크로 데이터를 복사하는 것 외에도 싱크에 복사할 데이터 열을 추가하도록 구성할 수 있습니다. 예시:

  • 파일 기반 원본에서 복사하는 경우 상대 파일 경로를 추가 열로 저장하여 데이터가 제공되는 파일을 추적합니다.
  • 지정한 원본 열을 다른 열로 복제합니다.
  • ADF 식으로 열을 추가하여 파이프라인 이름/파이프라인 ID와 같은 ADF 시스템 변수를 연결하거나 업스트림 작업의 출력에서 다른 동적 값을 저장합니다.
  • 정적 값을 사용하여 다운스트림 소비 요구 사항을 충족하는 열을 추가합니다.

복사 작업 원본 탭에서 다음 구성을 찾을 수 있습니다. 또한 정의된 열 이름을 사용하여 일반적으로 복사 작업 스키마 매핑에서 이러한 추가 열도 매핑할 수 있습니다.

Add additional columns in copy activity

이 기능은 최신 데이터 세트 모델에서 작동합니다. UI에서 이 옵션이 표시되지 않으면 새 데이터 세트를 만들어 보세요.

프로그래밍 방식으로 구성하려면 복사 작업 원본에 additionalColumns 속성을 추가합니다.

속성 설명 필수
additionalColumns 싱크에 복사할 추가 데이터 열을 추가합니다.

additionalColumns 배열의 각 개체는 추가 열을 나타냅니다. name은 열 이름을 정의하고 value는 해당 열의 데이터 값을 나타냅니다.

허용되는 데이터 값은 다음과 같습니다.
- $$FILEPATH - 예약 변수는 데이터 세트에 지정된 폴더 경로에 원본 파일의 상대 경로를 저장함을 나타냅니다. 파일 기반 원본에 적용됩니다.
- $$COLUMN:<source_column_name> - 예약 변수 패턴은 지정한 원본 열을 다른 열로 복제함을 나타냅니다.
-
- 정적 값
아니요

예제:

"activities":[
    {
        "name": "CopyWithAdditionalColumns",
        "type": "Copy",
        "inputs": [...],
        "outputs": [...],
        "typeProperties": {
            "source": {
                "type": "<source type>",
                "additionalColumns": [
                    {
                        "name": "filePath",
                        "value": "$$FILEPATH"
                    },
                    {
                        "name": "newColName",
                        "value": "$$COLUMN:SourceColumnA"
                    },
                    {
                        "name": "pipelineName",
                        "value": {
                            "value": "@pipeline().Pipeline",
                            "type": "Expression"
                        }
                    },
                    {
                        "name": "staticValue",
                        "value": "sampleValue"
                    }
                ],
                ...
            },
            "sink": {
                "type": "<sink type>"
            }
        }
    }
]

추가 열을 구성한 후 매핑 탭에서 대상 싱크에 매핑해야 합니다.

싱크 테이블 자동 생성

SQL 데이터베이스/Azure Synapse Analytics로 데이터를 복사하는 경우 대상 테이블이 존재하지 않는 경우 복사 작업은 원본 데이터에 기반한 자동 생성을 지원합니다. 이 기능은 데이터 로드를 빠르게 시작하고 SQL 데이터베이스/Azure Synapse Analytics를 평가하는 데 도움을 주기 위한 것입니다. 데이터 수집 후에는 필요에 따라 싱크 테이블 스키마를 검토하고 조정할 수 있습니다.

이 기능은 모든 원본에서 다음 싱크 데이터 저장소로 데이터를 복사할 때 지원됩니다. ADF 작성 UI –>복사 작업 싱크 –>테이블 옵션 –>테이블 자동 생성에서 또는 복사 작업 싱크 페이로드의 tableOption 속성을 통해 옵션을 찾을 수 있습니다.

Create sink tables

내결함성

기본적으로 복사 작업은 원본 데이터 행이 싱크 데이터 행과 호환되지 않는 경우 데이터 복사를 중지하고 오류를 반환합니다. 성공적으로 복사를 수행하려면 호환되지 않는 행은 건너뛰고 로그하면서 호환되는 데이터만 복사하도록 복사 작업을 구성할 수 있습니다. 자세한 내용은 복사 작업 내결함성을 참조하세요.

데이터 일관성 확인

원본의 데이터를 대상 저장소로 이동하는 경우, 복사 작업에서 추가로 데이터 일관성을 확인하여 데이터가 원본에서 대상 저장소로 복사되도록 할 뿐만 아니라 원본과 대상 저장소 간에 일관성을 확인하는 옵션을 제공합니다. 데이터 이동 중에 일관되지 않은 파일이 발견되면 복사 작업을 중단하거나, 일관되지 않은 파일을 건너뛰도록 내결함성 설정을 사용하도록 설정하여 나머지를 계속 복사합니다. 복사 작업에서 세션 로그 설정을 사용하도록 설정하여 건너뛴 파일 이름을 가져올 수 있습니다. 자세한 내용은 복사 작업의 데이터 일관성 확인을 참조하세요.

세션 로그

복사한 파일 이름을 로그할 수 있습니다. 그러면 복사 작업 세션 로그를 검토하여 데이터를 원본 저장소에서 대상 저장소로 복사할 뿐 아니라 원본 및 대상 저장소 간에 일관성을 유지할 수 있습니다. 자세한 내용은 세션 로그인 복사 작업을 참조하세요.

다음 퀵 스타트, 자습서 및 샘플을 참조하세요.