使用 Azure Data Factory 或 Azure Synapse Analytics 在 Amazon Simple Storage Service 中複製和轉換資料
適用於:Azure Data Factory Azure Synapse Analytics
提示
試用 Microsoft Fabric 中的 Data Factory,這是適用於企業的全方位分析解決方案。 Microsoft Fabric 涵蓋從資料移動到資料科學、即時分析、商業智慧和報告的所有項目。 了解如何免費開始新的試用!
本文概述如何使用複製活動從 Amazon Simple Storage Service (Amazon S3) 複製資料,並使用資料流程轉換 Amazon S3 中的資料。 若要深入了解,請閱讀 Azure Data Factory 和 Synapse Analytics 的介紹文章。
提示
如需深入了解從 Amazon S3 到 Azure 儲存體的資料移轉情節,請參閱將資料從 Amazon S3 遷移到 Azure 儲存體。
支援的功能
下列功能支援此 Amazon S3 連接器:
支援的功能 | IR |
---|---|
複製活動 (來源/-) | ① ② |
對應資料流 (來源/接收) | ① |
查閱活動 | ① ② |
GetMetadata 活動 | ① ② |
刪除活動 | ① ② |
① Azure 整合執行階段 ② 自我裝載整合執行階段
具體而言,這個 Amazon S3 連接器支援依原樣複製檔案,或使用支援的檔案格式和壓縮轉碼器來剖析檔案。 您也可以選擇在複製期間保留檔案中繼資料。 連接器會使用 AWS Signature 第 4 版來驗證對 S3 的要求。
提示
如果您想要從任何與 S3 相容的儲存體提供者複製資料,請參閱 Amazon S3 相容儲存體。
所需的權限
若要從 Amazon S3 複製資料,請確定您已獲授與下列 Amazon S3 物件作業的權限︰s3:GetObject
和 s3:GetObjectVersion
。
如果您使用 Data Factory UI 進行編寫,則測試連結服務連線以及從根目錄瀏覽這類作業需要額外的 s3:ListAllMyBuckets
和 s3:ListBucket
/s3:GetBucketLocation
權限。 如果您不想要授與這些權限,則可以從 UI 中選擇 [測試檔案路徑的連線] 或 [從指定的路徑瀏覽] 選項。
如需完整的 Amazon S3 權限清單,請參閱 AWS 網站上的在原則中指定權限 (英文)。
開始使用
若要透過管線執行複製活動,您可以使用下列其中一個工具或 SDK:
使用 UI 建立 Amazon Simple Storage Service (S3) 連結服務
使用下列步驟,在 Azure 入口網站 UI 中建立 Amazon S3 連結服務。
前往 Azure Data Factory 或 Synapse 工作區的 [管理] 索引標籤,選取 [連結服務],然後按一下 [新增]:
搜尋 Amazon 並選取 Amazon S3 連接器。
設定服務詳細資料,測試連線,然後建立新的連結服務。
連接器設定詳細資料
下列各節提供屬性的相關詳細資料,這些屬性是用來定義 Amazon S3 專屬的 Data Factory 實體。
連結服務屬性
以下是針對 Amazon S3 已連結服務支援的屬性:
屬性 | 描述 | 必要 |
---|---|---|
type | type 屬性必須設定為:AmazonS3。 | Yes |
authenticationType | 指定要連線到 Amazon S3 的驗證類型。 您可以選擇使用 AWS 身分識別和存取管理 (IAM) 帳戶的存取金鑰,或暫時安全性認證。 允許的值為 AccessKey (預設) 和 TemporarySecurityCredentials 。 |
No |
accessKeyId | 密碼存取金鑰的識別碼。 | Yes |
secretAccessKey | 密碼存取金鑰本身。 將此欄位標記為 SecureString 以將其安全地儲存,或參考 Azure Key Vault 中儲存的祕密。 | Yes |
sessionToken | 使用暫時安全性認證驗證時適用。 了解如何向 AWS 要求暫時安全性認證 (英文)。 請注意 AWS 暫時認證會根據設定而在 15 分鐘到 36 小時之間到期。 請確定您的認證在活動執行時仍有效 (特別是作業化工作負載),例如您可以定期重新整理認證,並將其儲存在 Azure Key Vault 中。 將此欄位標記為 SecureString 以將其安全地儲存,或參考 Azure Key Vault 中儲存的祕密。 |
No |
serviceUrl | 指定自訂 S3 端點 https://<service url> 。僅當您想要嘗試不同的服務端點,或想要在 HTTPs 與 HTTP 之間切換時,才需變更。 |
No |
connectVia | 用來連線到資料存放區的整合執行階段。 您可以使用 Azure 整合執行階段或自我裝載整合執行階段 (若您的資料儲存在私人網路中)。 如未指定此屬性,服務將使用預設的 Azure 整合執行階段。 | No |
範例:使用存取金鑰驗證
{
"name": "AmazonS3LinkedService",
"properties": {
"type": "AmazonS3",
"typeProperties": {
"accessKeyId": "<access key id>",
"secretAccessKey": {
"type": "SecureString",
"value": "<secret access key>"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
範例:使用暫時安全性認證驗證
{
"name": "AmazonS3LinkedService",
"properties": {
"type": "AmazonS3",
"typeProperties": {
"authenticationType": "TemporarySecurityCredentials",
"accessKeyId": "<access key id>",
"secretAccessKey": {
"type": "SecureString",
"value": "<secret access key>"
},
"sessionToken": {
"type": "SecureString",
"value": "<session token>"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
資料集屬性
如需可用來定義資料集的區段和屬性完整清單,請參閱資料集一文。
Azure Data Factory 支援下列檔案格式。 請參閱每篇文章,以取得以格式為基礎的設定。
在格式型的資料集中,location
設定下方的 Amazon S3 支援下列屬性:
屬性 | 描述 | 必要 |
---|---|---|
type | 在資料集中的 location 下方的 type 屬性必須設定為 AmazonS3Location。 |
Yes |
bucketName | S3 貯體名稱。 | Yes |
folderPath | 所指定貯體下的資料夾路徑。 如果您想要使用萬用字元來篩選資料夾,則請跳過此設定,並在活動來源設定中指定該項目。 | No |
fileName | 所指定貯體和資料夾路徑下的檔案名稱。 如果您想要使用萬用字元來篩選檔案,則請跳過此設定,並在活動來源設定中指定該項目。 | No |
version | 如果已啟用 S3 版本設定功能,則為 S3 物件的版本。 如果未指定,將會擷取最新版本。 | No |
範例:
{
"name": "DelimitedTextDataset",
"properties": {
"type": "DelimitedText",
"linkedServiceName": {
"referenceName": "<Amazon S3 linked service name>",
"type": "LinkedServiceReference"
},
"schema": [ < physical schema, optional, auto retrieved during authoring > ],
"typeProperties": {
"location": {
"type": "AmazonS3Location",
"bucketName": "bucketname",
"folderPath": "folder/subfolder"
},
"columnDelimiter": ",",
"quoteChar": "\"",
"firstRowAsHeader": true,
"compressionCodec": "gzip"
}
}
}
複製活動屬性
如需可用來定義活動的區段和屬性完整清單,請參閱管線一文。 本節提供 Amazon S3 來源所支援的屬性清單。
Amazon S3 作為來源類型
Azure Data Factory 支援下列檔案格式。 請參閱每篇文章,以取得以格式為基礎的設定。
在格式型的複製來源中,storeSettings
設定下方的 Amazon S3 支援下列屬性:
屬性 | 描述 | 必要 |
---|---|---|
type | 在 storeSettings 下方的 type 屬性必須設定為 AmazonS3ReadSettings。 |
Yes |
找到要複製的檔案 | ||
選項 1:靜態路徑 |
從在資料集內指定的貯體或資料夾/檔案路徑複製。 如果您想要複製貯體或資料夾中的所有檔案,則請另外將 wildcardFileName 指定為 * 。 |
|
選項 2: S3 前置詞 - 前置詞 |
在資料集內設定的指定貯體下,S3 金鑰名稱的前置詞,用來篩選來源 S3 檔案。 已選取名稱開頭為 bucket_in_dataset/this_prefix 的 S3 金鑰。 其利用 S3 的服務端篩選,提供比萬用字元篩選更好的效能。當您使用前置詞,並選擇使用保留階層複製至檔案型接收器時,請注意:前置詞最後一個「/」後的子路徑將會保留。 例如:您有來源 bucket/folder/subfolder/file.txt 且將前置詞設為 folder/sub ,保留的檔案路徑則為 subfolder/file.txt 。 |
No |
選項 3:萬用字元 - wildcardFolderPath |
在資料集內設定的指定貯體下,具有萬用字元的資料夾路徑,用來篩選來源資料夾。 允許的萬用字元為: * (符合零或多個字元) 和 ? (符合零或單一字元)。 如果資料夾名稱具有萬用字元或逸出字元 ^ ,則請使用此逸出字元予以逸出。 如需更多範例,請參閱資料夾和檔案篩選範例。 |
No |
選項 3:萬用字元 - wildcardFileName |
在所指定貯體和資料夾路徑 (或萬用字元資料夾路徑)下,具有萬用字元的檔案名稱,用來篩選來源檔案。 允許的萬用字元為: * (符合零或多個字元) 和 ? (符合零或單一字元)。 若檔案名稱具有萬用字元或逸出字元 ^ ,則請使用此逸出字元近性逸出。 如需更多範例,請參閱資料夾和檔案篩選範例。 |
Yes |
選項 4:檔案清單 - fileListPath |
表示要複製指定的檔案集。 指向含有所要複製檔案清單的文字檔,一行一個檔案,而這是資料集中所設定路徑的相對路徑。 使用此選項時,請不要指定資料集中的檔案名稱。 檔案清單範例有更多範例可供參閱。 |
No |
其他設定: | ||
遞迴 | 指出是否從子資料夾、或只有從指定的資料夾,以遞迴方式讀取資料。 請注意,當遞迴設為 true 且接收器是檔案型存放區時,不會在接收器上複製或建立空的資料夾或子資料夾。 允許的值為 true (預設值) 和 false。 設定 fileListPath 時,此屬性不適用。 |
No |
deleteFilesAfterCompletion | 指出成功移至目的地存放區之後,是否要從來源存放區中刪除二進位檔案。 檔案刪除會針對每個檔案執行,因此,當複製活動失敗時,您會看到已將某些檔案複製到目的地,而且已從來源刪除,而其他檔案仍保留在來源存放區上。 此屬性僅適用於二進位檔案複製案例。 預設值:false。 |
No |
modifiedDatetimeStart | 檔案是根據「上次修改時間」屬性進行篩選。 若檔案的上次修改時間大於或等於 modifiedDatetimeStart 且小於 modifiedDatetimeEnd ,則會選取檔案。 此時間會套用至國際標準時間時區,格式為「2018-12-01T05:00:00Z」。 屬性可以是 NULL,這表示將不會在資料集中套用任何檔案屬性篩選。 若 modifiedDatetimeStart 有日期時間值,但 modifiedDatetimeEnd 為 NULL,則將會選取上次修改時間屬性大於或等於該日期時間值的檔案。 若 modifiedDatetimeEnd 有日期時間值,但 modifiedDatetimeStart 為 NULL,則將會選取上次修改時間屬性小於該日期時間值的檔案。設定 fileListPath 時,此屬性不適用。 |
No |
modifiedDatetimeEnd | 同上。 | No |
enablePartitionDiscovery | 針對已分割的檔案,指定是否要從檔案路徑剖析分割區,並將其新增為其他來源資料行。 允許的值為 false (預設值) 和 true。 |
No |
partitionRootPath | 啟用分割區探索時,請指定絕對根路徑,將已分割的資料夾當成資料行進行讀取。 如果未指定,則根據預設, - 當您使用資料集中的檔案路徑或來源上的檔案清單時,分割區根路徑是資料集中所設定的路徑。 - 當您使用萬用字元資料夾篩選時,分割區根路徑是第一個萬用字元前面的子路徑。 - 當您使用前置詞時,分割區根路徑是最後一個「/」前的子路徑。 例如,假設您將資料集中的路徑設定為 "root/folder/year=2020/month=08/day=27": - 如果您將分割區根路徑指定為 "root/folder/year=2020",則除了檔案內的資料行之外,複製活動還會分別產生值為 "08" 和 "27" 的兩個資料行 month 和 day 。- 如果未指定分割區根路徑,則不會產生額外的資料行。 |
No |
maxConcurrentConnections | 在活動執行期間建立至資料存放區的同時連線上限。 僅在想要限制並行連線時,才需要指定值。 | No |
範例:
"activities":[
{
"name": "CopyFromAmazonS3",
"type": "Copy",
"inputs": [
{
"referenceName": "<Delimited text input dataset name>",
"type": "DatasetReference"
}
],
"outputs": [
{
"referenceName": "<output dataset name>",
"type": "DatasetReference"
}
],
"typeProperties": {
"source": {
"type": "DelimitedTextSource",
"formatSettings":{
"type": "DelimitedTextReadSettings",
"skipLineCount": 10
},
"storeSettings":{
"type": "AmazonS3ReadSettings",
"recursive": true,
"wildcardFolderPath": "myfolder*A",
"wildcardFileName": "*.csv"
}
},
"sink": {
"type": "<sink type>"
}
}
}
]
資料夾和檔案篩選範例
本節描述含有萬用字元篩選之資料夾路徑和檔案名稱所產生的行為。
貯體 | 索引鍵 | 遞迴 | 來源資料夾結構和篩選結果 (會擷取以粗體顯示的檔案) |
---|---|---|---|
貯體 | Folder*/* |
false | 貯體 FolderA File1.csv File2.json Subfolder1 File3.csv File4.json File5.csv AnotherFolderB File6.csv |
貯體 | Folder*/* |
true | 貯體 FolderA File1.csv File2.json Subfolder1 File3.csv File4.json File5.csv AnotherFolderB File6.csv |
貯體 | Folder*/*.csv |
false | 貯體 FolderA File1.csv File2.json Subfolder1 File3.csv File4.json File5.csv AnotherFolderB File6.csv |
貯體 | Folder*/*.csv |
true | 貯體 FolderA File1.csv File2.json Subfolder1 File3.csv File4.json File5.csv AnotherFolderB File6.csv |
檔案清單範例
本節說明使用複製活動來源中的檔案清單路徑時所產生的行為。
假設您的來源資料夾結構如下,且想要複製以粗體標示的檔案:
範例來源結構 | FileListToCopy.txt 中的內容 | 組態 |
---|---|---|
貯體 FolderA File1.csv File2.json Subfolder1 File3.csv File4.json File5.csv 中繼資料 FileListToCopy.txt |
File1.csv Subfolder1/File3.csv Subfolder1/File5.csv |
在資料集中: - 貯體: bucket - 資料夾路徑: FolderA 在複製活動來源中: - 檔案清單路徑: bucket/Metadata/FileListToCopy.txt 檔案清單路徑指向相同資料存放區中的文字檔,其中包括所要複製檔案的清單,且一行一個檔案,並具有資料集中所設定路徑的相對路徑。 |
複製期間保留中繼資料
當您將檔案從 Amazon S3 複製到 Azure Data Lake Storage Gen2 或 Azure Blob Storage 時,可以選擇保留檔案中繼資料和資料。 深入了解保留中繼資料。
對應資料流程屬性
在對應資料流中轉換資料時,可以使用下列格式從 Amazon S3 讀取檔案:
格式特定設定位於該格式的文件中。 如需詳細資訊,請參閱對應資料流中的來源轉換。
來源轉換
在來源轉換中,您可讀取 Amazon S3 中的容器、資料夾或個別檔案。 使用 [來源選項] 索引標籤來管理檔案的讀取方式。
萬用字元路徑:在單一來源轉換中,使用萬用字元模式會指示服務重複檢查每個相符的資料夾和檔案。 這在單一流程內處理多個檔案時很有效。 透過加號新增多個萬用字元比對模式;當滑鼠停留在現有萬用字元模式上時,即會出現此符號。
從來源容器中,選擇符合模式的一系列檔案。 在資料集內只能指定容器。 因此,萬用字元路徑也必須包含始於根資料夾的資料夾路徑。
萬用字元範例:
*
代表任何一組字元。**
代表遞迴目錄巢狀。?
取代一個字元。[]
比對括弧中的一或多個字元。/data/sales/**/*.csv
取得 /data/sales 下的所有 .csv 檔案。/data/sales/20??/**/
取得 20 世紀的所有檔案。/data/sales/*/*/*.csv
取得 /data/sales 下兩層的 csv 檔案。/data/sales/2004/*/12/[XY]1?.csv
取得 2004 年 12 月、開頭為 X 或 Y 、且字首為兩位數的所有 .csv 檔案。
分割區根路徑:若檔案來源中有 key=value
格式 (如 year=2019
) 的分割資料夾,則可將該分割區資料夾樹狀結構的最上層,指派給資料流程資料流中的資料行名稱。
首先,請設定萬用字元以包含所有路徑,即分割資料夾加上要讀取的分葉檔案。
使用 [分割區根路徑] 設定來定義資料夾結構的最上層。 透過資料預覽來檢視資料的內容時,您會看到服務將新增在每個資料夾層級找到的已解析分割區。
檔案清單:這是檔案集。 建立文字檔,其中包含要處理的相對路徑檔案清單。 指向這個文字檔。
要儲存檔案名稱的資料行:將來源檔案的名稱儲存至資料中的資料行。 在此輸入新的資料行名稱以儲存檔案名稱字串。
完成後:選擇在資料流程後不操作來源檔案、刪除來源檔案,或移動來源檔案。 移動時的路徑是相對路徑。
若要在處理後將來源檔案移到另一個位置,請先選取 [移動] 當作檔案操作。 然後,設定「來源」目錄。 如果路徑中未使用任何萬用字元,則「來源」設定與來源資料夾相同。
若來源路徑包含萬用字元,則語法如下:
/data/sales/20??/**/*.csv
「來源」可指定為:
/data/sales
「目標」可指定為:
/backup/priorSales
在此案例中,來自 /data/sales
下的所有檔案皆會移至 /backup/priorSales
。
注意
只有當您從管線執行 (管線偵錯或執行) 啟動資料流程,且該管線執行在管線中使用「執行資料流程」活動時,檔案操作才會執行。 在資料流程偵錯模式下「不會」執行檔案操作。
依上次修改時間篩選: 您可以指定檔案上次修改的日期範圍,以篩選您處理的檔案。 所有日期時間皆為國際標準時間。
查閱活動屬性
若要了解屬性的詳細資料,請參閱查閱活動。
GetMetadata 活動屬性
若要了解屬性的詳細資料,請參閱 GetMetadata 活動。
刪除活動屬性
若要了解屬性的詳細資料,請參閱刪除活動。
舊版模型
注意
基於回溯相容性,仍照現狀支援下列模型。 建議使用先前所述的新模型。 撰寫 UI 已改為產生新模型。
舊版資料集模型
屬性 | 描述 | 必要 |
---|---|---|
type | 資料集的 type 屬性必須設定為:AmazonS3Object。 | Yes |
bucketName | S3 貯體名稱。 不支援萬用字元篩選。 | 複製或查閱活動需要;GetMetadata 活動不需要 |
索引鍵 | 指定貯體下 S3 物件索引鍵的名稱或萬用字元篩選。 未指定 prefix 屬性時才適用。 資料夾部分和檔案名稱部分,都支援萬用字元篩選。 允許的萬用字元為: * (符合零或多個字元) 和 ? (符合零或單一字元)。- 範例 1: "key": "rootfolder/subfolder/*.csv" - 範例 2: "key": "rootfolder/subfolder/???20180427.txt" 如需更多範例,請參閱資料夾和檔案篩選範例。 如果實際資料夾或檔案名稱內有萬用字元或逸出字元 ^ ,請使用此逸出字元來逸出。 |
No |
prefix | S3 物件索引鍵的前置詞。 系統會選取索引鍵以此前置詞開頭的物件。 未指定 key 屬性時才適用。 | No |
version | 如果已啟用 S3 版本設定功能,則為 S3 物件的版本。 如果未指定版本,將會擷取最新版本。 | No |
modifiedDatetimeStart | 檔案是根據「上次修改時間」屬性進行篩選。 若檔案的上次修改時間大於或等於 modifiedDatetimeStart 且小於 modifiedDatetimeEnd ,則會選取檔案。 此時間會以 "2018-12-01T05:00:00Z" 格式套用至 UTC 時區。 請注意:若有大量檔案希望進行篩選,啟用這項設定將會影響資料移動的整體效能。 屬性可以是 NULL,這表示將不會在資料集中套用任何檔案屬性篩選。 若 modifiedDatetimeStart 有日期時間值,但 modifiedDatetimeEnd 為 NULL,則將會選取上次修改時間屬性大於或等於該日期時間值的檔案。 若 modifiedDatetimeEnd 有日期時間值,但 modifiedDatetimeStart 為 NULL,則會選取上次修改時間屬性小於該日期時間值的檔案。 |
No |
modifiedDatetimeEnd | 檔案是根據「上次修改時間」屬性進行篩選。 若檔案的上次修改時間大於或等於 modifiedDatetimeStart 且小於 modifiedDatetimeEnd ,則會選取檔案。 此時間會以 "2018-12-01T05:00:00Z" 格式套用至 UTC 時區。 請注意:若有大量檔案希望進行篩選,啟用這項設定將會影響資料移動的整體效能。 屬性可以是 NULL,這表示將不會在資料集中套用任何檔案屬性篩選。 若 modifiedDatetimeStart 有日期時間值,但 modifiedDatetimeEnd 為 NULL,則將會選取上次修改時間屬性大於或等於該日期時間值的檔案。 若 modifiedDatetimeEnd 有日期時間值,但 modifiedDatetimeStart 為 NULL,則將會選取上次修改時間屬性小於該日期時間值的檔案。 |
No |
format | 如果您想要在以檔案為基礎的存放區之間依原樣複製檔案 (二進位複製),請在輸入和輸出資料集定義中略過格式區段。 如果您想要以特定格式來剖析或產生檔案,以下是支援的檔案格式類型:TextFormat、JsonFormat、AvroFormat、OrcFormat、ParquetFormat。 將 [format] 下的 [type] 屬性設定為下列其中一個值。 如需詳細資訊,請參閱文字格式、JSON 格式、Avro 格式、Orc 格式和 Parquet 格式小節。 |
否 (僅適用於二進位複製案例) |
壓縮 | 指定此資料的壓縮類型和層級。 如需詳細資訊,請參閱支援的檔案格式和壓縮轉碼器。 支援的類型為:GZip、Deflate、BZip2 及 ZipDeflate。 支援的層級為 Optimal 和 Fastest。 |
No |
提示
若要複製資料夾下的所有檔案,請以貯體指定 bucketName,並以資料夾部分指定 prefix。
若要使用指定的名稱複製單一檔案,請以貯體指定 bucketName,並以資料夾部分加上檔案名稱指定 key。
若要複製資料夾下的檔案的子集,以貯體指定 bucketName,並以資料夾部分加上萬用字元指定 key。
範例:使用前置詞
{
"name": "AmazonS3Dataset",
"properties": {
"type": "AmazonS3Object",
"linkedServiceName": {
"referenceName": "<Amazon S3 linked service name>",
"type": "LinkedServiceReference"
},
"typeProperties": {
"bucketName": "testbucket",
"prefix": "testFolder/test",
"modifiedDatetimeStart": "2018-12-01T05:00:00Z",
"modifiedDatetimeEnd": "2018-12-01T06:00:00Z",
"format": {
"type": "TextFormat",
"columnDelimiter": ",",
"rowDelimiter": "\n"
},
"compression": {
"type": "GZip",
"level": "Optimal"
}
}
}
}
範例:使用索引鍵和版本 (選擇性)
{
"name": "AmazonS3Dataset",
"properties": {
"type": "AmazonS3",
"linkedServiceName": {
"referenceName": "<Amazon S3 linked service name>",
"type": "LinkedServiceReference"
},
"typeProperties": {
"bucketName": "testbucket",
"key": "testFolder/testfile.csv.gz",
"version": "XXXXXXXXXczm0CJajYkHf0_k6LhBmkcL",
"format": {
"type": "TextFormat",
"columnDelimiter": ",",
"rowDelimiter": "\n"
},
"compression": {
"type": "GZip",
"level": "Optimal"
}
}
}
}
複製活動的舊版來源模型
屬性 | 描述 | 必要 |
---|---|---|
type | 複製活動來源的 type 屬性必須設定為 FileSystemSource。 | Yes |
遞迴 | 指出是否從子資料夾、或只有從指定的資料夾,以遞迴方式讀取資料。 請注意,當遞迴設定為 true 且接收器是檔案型存放區時,就不會在接收器上複製或建立空的資料夾或子資料夾。 允許的值為 true (預設值) 和 false。 |
No |
maxConcurrentConnections | 在活動執行期間建立至資料存放區的同時連線上限。 僅在想要限制並行連線時,才需要指定值。 | No |
範例:
"activities":[
{
"name": "CopyFromAmazonS3",
"type": "Copy",
"inputs": [
{
"referenceName": "<Amazon S3 input dataset name>",
"type": "DatasetReference"
}
],
"outputs": [
{
"referenceName": "<output dataset name>",
"type": "DatasetReference"
}
],
"typeProperties": {
"source": {
"type": "FileSystemSource",
"recursive": true
},
"sink": {
"type": "<sink type>"
}
}
}
]
相關內容
如需複製活動支援作為來源和接收器的資料存放區清單,請參閱支援的資料存放區。