إشعار
يتطلب الوصول إلى هذه الصفحة تخويلاً. يمكنك محاولة تسجيل الدخول أو تغيير الدلائل.
يتطلب الوصول إلى هذه الصفحة تخويلاً. يمكنك محاولة تغيير الدلائل.
ينطبق على:
Azure Data Factory
Azure Synapse Analytics
تلميح
Data Factory في Microsoft Fabric هو الجيل القادم من Azure Data Factory، مع بنية أبسط، وذكاء اصطناعي مدمج، وميزات جديدة. إذا كنت جديدا في تكامل البيانات، ابدأ مع Fabric Data Factory. يمكن لأعباء عمل ADF الحالية الترقية إلى Fabric للوصول إلى قدرات جديدة في علوم البيانات، والتحليلات اللحظية، والتقارير.
تصف هذه البداية السريعة كيفية استخدام PowerShell لإنشاء Azure Data Factory. خط الأنابيب الذي تنشئه في هذا المصنع copyes البيانات من مجلد إلى آخر في تخزين Azure blob. للحصول على درس حول كيفية transform البيانات باستخدام Azure Data Factory، راجع Instruction: تحويل البيانات باستخدام Spark.
إشعار
لا توفر هذه المقالة مقدمة مفصلة عن خدمة Data Factory. لمقدمة عن خدمة Azure Data Factory، انظر مقدمة في Azure Data Factory.
المتطلبات الأساسية
اشتراك Azure
إذا لم يكن لديك اشتراك Azure، أنشئ حسابا مجاني قبل أن تبدأ.
Azure roles
لإنشاء مثيلات Data Factory، يجب أن يكون حساب المستخدم الذي تستخدمه لتسجيل الدخول إليه Azure عضوا في دور contributor أو owner، أو administrator في اشتراك Azure. لعرض الأذونات التي لديك في الاشتراك، اذهب إلى بوابة Azure، واختر اسم المستخدم في الزاوية العلوية اليمنى، واختر "... أيقونة " لمزيد من الخيارات، ثم اختر My Advertises. إذا كان لديك حق الوصول إلى اشتراكات متعددة، فحدّد الاشتراك المناسب.
لإنشاء موارد تابعة لـ Data Factory وإدارتها، بما في ذلك مجموعات البيانات، والخدمات المرتبطة، والتدفقات، وأوقات تشغيل التكامل، فإن المتطلبات التالية تنطبق:
- لإنشاء وإدارة الموارد الفرعية في بوابة Azure، يجب أن تنتمي إلى دور ><مساهم مصنع البيانات على مستوى مجموعة الموارد أو أعلى.
- لإنشاء الموارد التابعة وإدارتها باستخدام PowerShell أو SDK، فإن دور المساهم على مستوى المورد أو أعلى كافي.
للحصول على نماذج من الإرشادات حول كيفية إضافة مستخدم إلى دور، راجع مقالة إضافة أدوار.
للحصول على المزيد من المعلومات، اقرأ المقالات التالية:
Azure Storage account
تستخدم حساب Azure Storage عام (تحديدا تخزين Blob) كمخزن بيانات source وdestination في هذه البداية السريعة. إذا لم يكن لديك حساب Azure Storage عام الاستخدام، راجع إنشاء حساب تخزين لإنشاء واحد.
الحصول على اسم حساب التخزين
تحتاج إلى اسم حساب Azure Storage الخاص بك لهذه البداية السريعة. يوفر الإجراء التالي خطوات للحصول على اسم حساب التخزين الخاص بك:
- في متصفح الويب، اذهب إلى بوابة Azure وسجل الدخول باستخدام اسم المستخدم وكلمة المرور Azure الخاصة بك.
- من قائمة بوابة Azure، اختر All services، ثم اختر Storage>Storage accounts. يمكنك أيضًا البحث عن حسابات التخزين وتحديدها من أي صفحة.
- في صفحة حسابات التخزين، قم بتصفية حساب التخزين (إذا لزم الأمر)، ثم حدد حساب التخزين الخاص بك.
يمكنك أيضًا البحث عن حسابات التخزين وتحديدها من أي صفحة.
إنشاء حاوية BLOB
في هذا القسم، تنشئ حاوية blob باسم adftutorial في تخزين Blob Azure.
من صفحة حساب التخزين، حدّد نظرة عامة على>الحاويات.
في شريط أدوات صفحة <Account name> - Containers، حدد Container.
في مربع الحوار حاوية جديدة، أدخل adftutorial للاسم، ثم حدّد موافق. تُحدَّث صفحة <Account name> - Containers لتضمين adftutorial في قائمة الحاويات.
إضافة مجلد إدخال وملف لحاوية البيانات الثنائية كبيرة الحجم
في هذا المقطع، يمكنك إنشاء مجلد اسمه إدخال في الحاوية التي تم إنشاؤها، ومن ثم تحميل نموذج ملف إلى مجلد الإدخال. قبل البدء، افتح محرر نص، مثل المفكرة، ثم قم بإنشاء ملف اسمه emp.txt بالمحتوى التالي:
John, Doe
Jane, Doe
حفظ الملف في المجلد C:\ADFv2QuickStartPSH. (إذا لم يكن المجلد موجودا بالفعل، قم بإنشائه.) ثم عد إلى بوابة Azure واتبع هذه الخطوات:
في صفحة <Account name> - Containers حيث توقفت، حدد adftutorial من القائمة المحدثة للحاويات.
- إذا أغلقت النافذة أو ذهبت إلى صفحة أخرى، سجل الدخول إلى بوابة Azure مرة أخرى.
- من قائمة بوابة Azure، اختر All services، ثم اختر Storage>Storage accounts. يمكنك أيضًا البحث عن حسابات التخزين وتحديدها من أي صفحة.
- حدّد حساب التخزين الخاص بك، ثم حدّد حاويات>adftutorial.
في شريط أدوات صفحة حاوية adftutorial، حدّد تحميل.
في صفحة تحميل البيانات الثنائية كبيرة الحجم، حدّد مربع الملفات ثم استعرض وحدّد ملف emp.txt.
قم بتوسيع العنوان Advanced. تُعرض الصفحة الآن كما هو موضح:
في المربع Upload to folder، أدخلinput.
حدد الزر تحميل. يجب أن تراجع ملف emp.txt وحالة التحميل في القائمة.
حدد رمز Close (علامة X ) لإغلاق صفحةUpload blob.
اجعل صفحة حاوية adftutorial مفتوحة. يمكنك استخدامه للتحقق من الإخراج في نهاية هذا التشغيل السريع.
Azure PowerShell
إشعار
نوصي باستخدام وحدة Azure Az PowerShell للتفاعل مع Azure. للبدء، راجع تثبيت Azure PowerShell. لتعلم كيفية الترحيل إلى وحدة Az PowerShell، راجع Migrationate Azure PowerShell من AzureRM إلى Az.
قم بتثبيت أحدث وحدات Azure PowerShell باتباع التعليمات في كيفية تثبيت وتكوين Azure PowerShell.
تحذير
إذا كنت لا تستخدم أحدث إصدارات وحدة PowerShell وData Factory، يمكنك تشغيل أخطاء إلغاء التسلسل أثناء تشغيل الأوامر.
تسجيل الدخول إلى PowerShell
قم بتشغيل PowerShell على جهازك. احتفظ ببرنامج PowerShell مفتوحاً حتى نهاية هذه التشغيل السريع. إذا أغلقت وأعدت الفتح فستحتاج إلى تشغيل هذه الأوامر مرة أخرى.
شغل الأمر التالي، وأدخل نفس اسم المستخدم وكلمة المرور في Azure التي تستخدمها لتسجيل الدخول إلى بوابة Azure:
Connect-AzAccountشغّل الأمر التالي لعرض جميع الاشتراكات لهذا الحساب:
Get-AzSubscriptionإذا رأيت اشتراكات متعددة مرتبطة بحسابك، فقم بتشغيل الأمر التالي لتحديد الاشتراك الذي تريد العمل معه. استبدل SubscriptionId بمعرف اشتراكك Azure:
Select-AzSubscription -SubscriptionId "<SubscriptionId>"
إنشاء مصدرًا للبيانات
حدد متغيراً لاسم مجموعة الموارد الذي ستستخدمه لاحقاً في أوامر PowerShell. انسخ نص الأمر التالي إلى PowerShell، وحدد اسما لمجموعة الموارد Azure بعلامات اقتباس مزدوجة، ثم شغل الأمر. على سبيل المثال:
"ADFQuickStartRG".$resourceGroupName = "ADFQuickStartRG";إذا كانت مجموعة الموارد موجودة بالفعل، فقد لا ترغب في الكتابة فوقها. عين قيمة مختلفة
$ResourceGroupNameللمتغير وشغل الأمر مرة أخرىلإنشاء مجموعة موارد Azure، قم بتشغيل الأمر التالي:
$ResGrp = New-AzResourceGroup $resourceGroupName -location 'East US'إذا كانت مجموعة الموارد موجودة بالفعل، فقد لا ترغب في الكتابة فوقها. تعيين قيمة مختلفة
$ResourceGroupNameللمتغير وتشغيل الأمر مرة أخرى.حدد متغير لموقع بيانات المصنع.
هام
قم بتحديث اسم مصنع البيانات ليكون فريداً عالمياً. على سبيل المثال، ADF Tutorial Factory P1127.
$dataFactoryName = "ADFQuickStartFactory";لإنشاء مصنع البيانات، قم بتشغيل الأمر cmdlet Set-AzDataFactoryV2 التالي، باستخدام الخاصية Location وResourceGroupName من المتغير $ ResGrp:
$DataFactory = Set-AzDataFactoryV2 -ResourceGroupName $ResGrp.ResourceGroupName ` -Location $ResGrp.Location -Name $dataFactoryName
لاحظ النقاط التالية:
يجب أن يكون اسم Azure Data Factory فريدا عالميا. في حال تلقيت الخطأ التالي، تغيير الاسم، ثم حاول مرة أخرى.
The specified Data Factory name 'ADFv2QuickStartDataFactory' is already in use. Data Factory names must be globally unique.لإنشاء مثيلات Data Factory، يجب أن يكون حساب المستخدم الذي تستخدمه لتسجيل الدخول إليه Azure عضوا في أدوار contributor أو owner، أو administrator في اشتراك Azure.
للحصول على قائمة بالمناطق Azure التي يتوفر فيها Data Factory حاليا، اختر المناطق التي تهمك في الصفحة التالية، ثم قم بتوسيع Analytics لتحديد موقع Data Factory: المنتجات المتاحة حسب المنطقة. مخازن البيانات (Azure Storage، Azure SQL Database، إلخ) والحسابات (HDInsight، إلخ) المستخدمة في Data Factory يمكن أن تكون في مناطق أخرى.
إنشاء خدمة مرتبطة
قم بإنشاء خدمات مرتبطة في مصنع بيانات لربط مخازن البيانات الخاصة بك وخدمات الحوسبة بمصنع البيانات. في هذا البدء السريع، تنشئ خدمة مرتبطة ب Azure Storage تستخدم كمخزن المصدر والمخزن في كل من المستهلك. إذ تحتوي الخدمة المرتبطة على معلومات الاتصال التي تستخدمها خدمة "مصنع البيانات" في وقت التشغيل للاتصال بها.
تلميح
في هذا التشغيل السريع، يمكنك استخدام مفتاح الحساب كنوع مصادقة لمخزن البيانات الخاص بك، ولكن يمكنك اختيار أساليب المصادقة المدعومة الأخرى: SAS URI، *كيان الخدمة، والهوية المدارة إذا لزم الأمر. راجع الأقسام المقابلة فيthis article للحصول على التفاصيل. لتخزين الأسرار الخاصة بمخازن البيانات بأمان، ينصح أيضا باستخدام Azure Key Vault. راجعthis article للحصول على رسوم توضيحية مفصلة.
أنشئ ملف JSON باسم AzureStorageLinkedService.json في المجلد C:\ADFv2QuickStartPSH بالمحتوى التالي: (أنشئ المجلد ADFv2QuickStartPSH إذا لم يكن موجودا بالفعل.).
هام
استبدل <accountName> و <accountKey> باسم ومفتاح حساب التخزين Azure الخاص بك قبل حفظ الملف.
{ "name": "AzureStorageLinkedService", "properties": { "annotations": [], "type": "AzureBlobStorage", "typeProperties": { "connectionString": "DefaultEndpointsProtocol=https;AccountName=<accountName>;AccountKey=<accountKey>;EndpointSuffix=core.windows.net" } } }إذا كنت تستخدم المفكرة، فحدد كافة الملفاتللنوع حفظ بنوع الذي تم حفظه في مربع الحوار حفظ باسم . وإلا، فقد يضيف
.txtملحقا إلى الملف. على سبيل المثال،AzureStorageLinkedService.json.txtإذا قمت بإنشاء الملف في مستكشف الملفات قبل فتحه في المفكرة، فقد لا ترى.txtالملحق نظرا لتعيين الخيار إخفاء الملحقات لأنواع الملفات المعروفة بشكل افتراضي. قم بإزالة الامتداد.txtقبل المتابعة إلى الخطوة التالية.في PowerShell ، بدّل إلى المجلد ADFv2QuickStartPSH .
Set-Location 'C:\ADFv2QuickStartPSH'شغل cmdlet Set-AzDataFactoryV2LinkedService لإنشاء الخدمة المرتبطة: AzureStorageLinkedService.
Set-AzDataFactoryV2LinkedService -DataFactoryName $DataFactory.DataFactoryName ` -ResourceGroupName $ResGrp.ResourceGroupName -Name "AzureStorageLinkedService" ` -DefinitionFile ".\AzureStorageLinkedService.json"هذا هو نموذج الإخراج:
LinkedServiceName : AzureStorageLinkedService ResourceGroupName : <resourceGroupName> DataFactoryName : <dataFactoryName> Properties : Microsoft.Azure.Management.DataFactory.Models.AzureBlobStorageLinkedService
إنشاء datasets
ستقوم في هذا الإجراء بإنشاء مجموعتي بيانات: InputDataset وOutputDataset. مجموعات البيانات هذه من النوعBinary. تشير إلى الخدمة المرتبطة ب Azure Storage التي أنشأتها في القسم السابق. تمثل مجموعة البيانات المدخلة البيانات المصدر في مجلد الإدخال. وستقوم في تعريف مجموعة بيانات الإدخال بتحديد حاوية الكائن الثنائي كبير الحجم (adftutorial)، والمجلد (إدخال)، والملف (emp.txt) الذي يحتوي على بيانات المصدر. تمثل مجموعة بيانات الناتج البيانات التي يتم نسخها إلى الوجهة. وستقوم في تعريف مجموعة بيانات الإخراج بتحديد حاوية الكائن الثنائي كبير الحجم (adftutorial)، والمجلد (output)، والملف الذي تم نسخ البيانات إليه.
قم بإنشاء ملف JSON باسم InputDataset.json في المجلد C: \ ADFv2QuickStartPSH بالمحتوى التالي:
{ "name": "InputDataset", "properties": { "linkedServiceName": { "referenceName": "AzureStorageLinkedService", "type": "LinkedServiceReference" }, "annotations": [], "type": "Binary", "typeProperties": { "location": { "type": "AzureBlobStorageLocation", "fileName": "emp.txt", "folderPath": "input", "container": "adftutorial" } } } }لإنشاء مجموعة البيانات: InputDataset، قم بتشغيل الأمرcmdlet Set-AzDataFactoryV2Dataset .
Set-AzDataFactoryV2Dataset -DataFactoryName $DataFactory.DataFactoryName ` -ResourceGroupName $ResGrp.ResourceGroupName -Name "InputDataset" ` -DefinitionFile ".\InputDataset.json"هذا هو نموذج الإخراج:
DatasetName : InputDataset ResourceGroupName : <resourceGroupname> DataFactoryName : <dataFactoryName> Structure : Properties : Microsoft.Azure.Management.DataFactory.Models.BinaryDatasetكرر الخطوات لإنشاء مجموعة بيانات الناتج. قم بإنشاء ملف JSON باسم OutputDataset.json في المجلد C: \ ADFv2QuickStartPSH بالمحتوى التالي:
{ "name": "OutputDataset", "properties": { "linkedServiceName": { "referenceName": "AzureStorageLinkedService", "type": "LinkedServiceReference" }, "annotations": [], "type": "Binary", "typeProperties": { "location": { "type": "AzureBlobStorageLocation", "folderPath": "output", "container": "adftutorial" } } } }قم بتشغيل الأمرcmdlet Set-AzDataFactoryV2Dataset لإنشاء OutDataset .
Set-AzDataFactoryV2Dataset -DataFactoryName $DataFactory.DataFactoryName ` -ResourceGroupName $ResGrp.ResourceGroupName -Name "OutputDataset" ` -DefinitionFile ".\OutputDataset.json"هذا هو نموذج الإخراج:
DatasetName : OutputDataset ResourceGroupName : <resourceGroupname> DataFactoryName : <dataFactoryName> Structure : Properties : Microsoft.Azure.Management.DataFactory.Models.BinaryDataset
إنشاء البنية الأساسية لبرنامج ربط العمليات التجارية
في هذا الإجراء، تقوم بإنشاء بنية أساسية مع نشاط نسخ يستخدم مجموعات بيانات المدخلات والمخرجات. ويقوم نشاط النسخ بنسخ البيانات من الملف الذي حددته في إعدادات مجموعة بيانات المدخلات إلى الملف الذي حددته في إعدادات مجموعة بيانات المخرجات.
قم بإنشاء ملف JSON باسم Adfv2QuickStartPipeline.json في المجلد C: \ ADFv2QuickStartPSH بالمحتوى التالي:
{ "name": "Adfv2QuickStartPipeline", "properties": { "activities": [ { "name": "CopyFromBlobToBlob", "type": "Copy", "dependsOn": [], "policy": { "timeout": "7.00:00:00", "retry": 0, "retryIntervalInSeconds": 30, "secureOutput": false, "secureInput": false }, "userProperties": [], "typeProperties": { "source": { "type": "BinarySource", "storeSettings": { "type": "AzureBlobStorageReadSettings", "recursive": true } }, "sink": { "type": "BinarySink", "storeSettings": { "type": "AzureBlobStorageWriteSettings" } }, "enableStaging": false }, "inputs": [ { "referenceName": "InputDataset", "type": "DatasetReference" } ], "outputs": [ { "referenceName": "OutputDataset", "type": "DatasetReference" } ] } ], "annotations": [] } }لإنشاء البنية الأساسية: Adfv2QuickStartPipeline ، قم بتشغيل الأمر cmdlet Set-AzDataFactoryV2Pipeline .
$DFPipeLine = Set-AzDataFactoryV2Pipeline ` -DataFactoryName $DataFactory.DataFactoryName ` -ResourceGroupName $ResGrp.ResourceGroupName ` -Name "Adfv2QuickStartPipeline" ` -DefinitionFile ".\Adfv2QuickStartPipeline.json"
إنشاء تشغيل البنية الأساسية
في هذه الخطوة، تقوم بإنشاء البنية الأساسية.
قم بتشغيل الأمرcmdlet Invoke-AzDataFactoryV2Pipeline لإنشاء بنية أساسية للتشغيل. يقوم الأمر cmdlet بإرجاع معرف تشغيل البنية الأساسية للمراقبة المستقبلية.
$RunId = Invoke-AzDataFactoryV2Pipeline `
-DataFactoryName $DataFactory.DataFactoryName `
-ResourceGroupName $ResGrp.ResourceGroupName `
-PipelineName $DFPipeLine.Name
راقب عملية تشغيل البنية الأساسية لبرنامج ربط العمليات التجارية
قم بتشغيل برنامج PowerShell النصي التالي للتحقق باستمرار من حالة تشغيل البنية الأساسية حتى تنتهي من نسخ البيانات. انسخ / الصق البرنامج النصي التالي في نافذة PowerShell، واضغط على ENTER.
while ($True) { $Run = Get-AzDataFactoryV2PipelineRun ` -ResourceGroupName $ResGrp.ResourceGroupName ` -DataFactoryName $DataFactory.DataFactoryName ` -PipelineRunId $RunId if ($Run) { if ( ($Run.Status -ne "InProgress") -and ($Run.Status -ne "Queued") ) { Write-Output ("Pipeline run finished. The status is: " + $Run.Status) $Run break } Write-Output ("Pipeline is running...status: " + $Run.Status) } Start-Sleep -Seconds 10 }فيما يلي عينة إخراج تشغيل البنية الأساسية لبرنامج ربط العمليات التجارية:
Pipeline is running...status: InProgress Pipeline run finished. The status is: Succeeded ResourceGroupName : ADFQuickStartRG DataFactoryName : ADFQuickStartFactory RunId : 00000000-0000-0000-0000-0000000000000 PipelineName : Adfv2QuickStartPipeline LastUpdated : 8/27/2019 7:23:07 AM Parameters : {} RunStart : 8/27/2019 7:22:56 AM RunEnd : 8/27/2019 7:23:07 AM DurationInMs : 11324 Status : Succeeded Message :تشغيل البرنامج النصي التالي لاسترداد نسخ نشاط تشغيل التفاصيل، على سبيل المثال، حجم البيانات قراءة/ كتابة.
Write-Output "Activity run details:" $Result = Get-AzDataFactoryV2ActivityRun -DataFactoryName $DataFactory.DataFactoryName -ResourceGroupName $ResGrp.ResourceGroupName -PipelineRunId $RunId -RunStartedAfter (Get-Date).AddMinutes(-30) -RunStartedBefore (Get-Date).AddMinutes(30) $Result Write-Output "Activity 'Output' section:" $Result.Output -join "`r`n" Write-Output "Activity 'Error' section:" $Result.Error -join "`r`n"تأكد من أنك ترى المخرجات مشابهة لعينة المخرجات التالية لنتيجة تشغيل النشاط:
ResourceGroupName : ADFQuickStartRG DataFactoryName : ADFQuickStartFactory ActivityRunId : 00000000-0000-0000-0000-000000000000 ActivityName : CopyFromBlobToBlob PipelineRunId : 00000000-0000-0000-0000-000000000000 PipelineName : Adfv2QuickStartPipeline Input : {source, sink, enableStaging} Output : {dataRead, dataWritten, filesRead, filesWritten...} LinkedServiceName : ActivityRunStart : 8/27/2019 7:22:58 AM ActivityRunEnd : 8/27/2019 7:23:05 AM DurationInMs : 6828 Status : Succeeded Error : {errorCode, message, failureType, target} Activity 'Output' section: "dataRead": 20 "dataWritten": 20 "filesRead": 1 "filesWritten": 1 "sourcePeakConnections": 1 "sinkPeakConnections": 1 "copyDuration": 4 "throughput": 0.01 "errors": [] "effectiveIntegrationRuntime": "DefaultIntegrationRuntime (Central US)" "usedDataIntegrationUnits": 4 "usedParallelCopies": 1 "executionDetails": [ { "source": { "type": "AzureBlobStorage" }, "sink": { "type": "AzureBlobStorage" }, "status": "Succeeded", "start": "2019-08-27T07:22:59.1045645Z", "duration": 4, "usedDataIntegrationUnits": 4, "usedParallelCopies": 1, "detailedDurations": { "queuingDuration": 3, "transferDuration": 1 } } ] Activity 'Error' section: "errorCode": "" "message": "" "failureType": "" "target": "CopyFromBlobToBlob"
مراجعة الموارد الموزعة
ينشئ خط الأنابيب تلقائياً مجلد إخراج في حاوية adftutorial blob. ثم ينسخ ملف "emp.txt" من مجلد الإدخال إلى مجلد الإخراج.
في بوابة Azure، في صفحة الحاوية adftutorial، اختر Refresh لرؤية مجلد الإخراج.
حدد الإخراج من قائمة المجلدات.
تأكد من نسخ emp.txt إلى مجلد الإخراج.
تنظيف الموارد
يمكنك تنظيف الموارد التي أنشأتها في قائمة التشغيل السريع بطريقتين. يمكنك حذف مجموعة الموارد Azure ، والتي تشمل جميع الموارد في مجموعة الموارد. إذا كنت ترغب في الحفاظ على سلامة الموارد الأخرى، فاحذف مصنع البيانات الذي أنشأته في هذا البرنامج التعليمي.
يسفر حذف مجموعة موارد عن حذف كافة الموارد بما في ذلك مصانع البيانات الموجودة بها. شغل الأمر التالي بهدف الحذف الكلي لمجموعة الموارد:
Remove-AzResourceGroup -ResourceGroupName $resourcegroupname
إشعار
وربما يستغرق إسقاط مجموعة موارد ما بعض الوقت. يرجى التحلي بالصبر في أثناء إجراء هذه العملية
إذا كنت ترغب في حذف مصنع البيانات بمفرده، لا مجموعة الموارد بأكملها، فشغل الأمر التالي:
Remove-AzDataFactoryV2 -Name $dataFactoryName -ResourceGroupName $resourceGroupName
المحتوى ذو الصلة
ينسخ خط الأنابيب في هذه العينة البيانات من موقع إلى آخر في مخزن كتلة Azure. انتقل إلىtutorials للتعرف على استخدام Data Factory في المزيد من السيناريوهات.