التشغيل السريع: إنشاء Azure Data Factory باستخدام PowerShell

ينطبق على: Azure Data Factory Azure Synapse Analytics

تلميح

جرب Data Factory في Microsoft Fabric، وهو حل تحليلي متكامل للمؤسسات. يغطي Microsoft Fabric كل شيء بدءا من حركة البيانات إلى علم البيانات والتحليلات في الوقت الحقيقي والمعلومات المهنية وإعداد التقارير. تعرف على كيفية بدء إصدار تجريبي جديد مجانا!

يصف هذا التشغيل السريع كيفية استخدام PowerShell لإنشاء Azure Data Factory. البنية الأساسية التي تقوم بإنشائها في مصنع البيانات هذا تنسخ البيانات من مجلد إلى مجلد آخر في تخزين Azure blob. للحصول على برنامج تعليمي حول كيفية تحويل البيانات باستخدام Azure Data Factory، راجع البرنامج التعليمي: تحويل البيانات باستخدام Spark .

إشعار

لا تقدم هذه المقالة مقدمة مفصلة عن خدمة Data Factory. للحصول على مقدمة حول خدمة Azure Data Factory، راجع Introduction to Azure Data Factory.

المتطلبات الأساسية

اشتراك Azure

في حال لم يكن لديك اشتراك Azure، فأنشئ حساباً مجانيّاً قبل البدء.

أدوار Azure

لإنشاء مثيلات Data Factory، يجب أن يكون حساب المستخدم الذي تستخدمه لتسجيل الدخول إلى Azure عضوًا في دور contributor أو owner أو administrator لاشتراك Azure. لعرض الأذونات التي لديك في الاشتراك، انتقل إلى مدخل Azure، وحدّد اسم المستخدم في الزاوية العلوية اليمنى، وحدّد رمز "..." لمزيد من الخيارات، ثم حدّد أذوناتي. إذا كان لديك حق الوصول إلى اشتراكات متعددة، فحدّد الاشتراك المناسب.

لإنشاء موارد تابعة لـ Data Factory وإدارتها، بما في ذلك مجموعات البيانات، والخدمات المرتبطة، والتدفقات، وأوقات تشغيل التكامل، فإن المتطلبات التالية تنطبق:

  • لإنشاء موارد تابعة في مدخل Microsoft Azure وإدارتها، يجب أن تنتمي إلى الدور «Data Factory Contributor» على مستوى مجموعة الموارد أو أعلى.
  • لإنشاء الموارد التابعة وإدارتها باستخدام PowerShell أو SDK، فإن دور المساهم على مستوى المورد أو أعلى كافي.

للحصول على نماذج من الإرشادات حول كيفية إضافة مستخدم إلى دور، راجع مقالة إضافة أدوار.

للحصول على المزيد من المعلومات، اقرأ المقالات التالية:

حساب Azure Storage

يمكنك استخدام حساب مساحة تخزين Azure للأغراض العامة (مخزن البيانات الثنائية الكبيرة على وجه التحديد) كمخازن بيانات المصدروالوجهة في التشغيل السريع هذا. إذا لم يكن لديك حساب تخزين Azure للأغراض العامة، يمكنك مراجعة إنشاء حساب تخزين لإنشاء واحدًا.

الحصول على اسم حساب التخزين

تحتاج إلى اسم حساب تخزين Azure الخاص بك للتشغيل السريع. يوفر الإجراء التالي خطوات للحصول على اسم حساب التخزين الخاص بك:

  1. في مستعرض ويب، انتقل إلى مدخل Azure، ثم سجّل الدخول باستخدام اسم مستخدم Azure وكلمة المرور.
  2. من قائمة مدخل Azure، حدّد كافة الخدمات، ثم حدّد حسابات تخزين>التخزين. يمكنك أيضًا البحث عن حسابات التخزين وتحديدها من أي صفحة.
  3. في صفحة حسابات التخزين، قم بتصفية حساب التخزين (إذا لزم الأمر)، ثم حدد حساب التخزين الخاص بك.

يمكنك أيضًا البحث عن حسابات التخزين وتحديدها من أي صفحة.

إنشاء حاوية BLOB

في هذا المقطع، يمكنك إنشاء حاوية البيانات الثنائية كبيرة الحجم المسماة adftutorial في تخزين البيانات الثنائية كبيرة الحجم من Azure.

  1. من صفحة حساب التخزين، حدّد نظرة عامة على>الحاويات.

  2. في شريط أدوات صفحة <Account name> - Containers، حدد Container.

  3. في مربع الحوار حاوية جديدة، أدخل adftutorial للاسم، ثم حدّد موافق. تُحدَّث صفحة <Account name> - Containers لتضمين adftutorial في قائمة الحاويات.

    قائمة الحاويات

إضافة مجلد إدخال وملف لحاوية البيانات الثنائية كبيرة الحجم

في هذا المقطع، يمكنك إنشاء مجلد اسمه إدخال في الحاوية التي تم إنشاؤها، ومن ثم تحميل نموذج ملف إلى مجلد الإدخال. قبل البدء، افتح محرر نص، مثل المفكرة، ثم قم بإنشاء ملف اسمه emp.txt بالمحتوى التالي:

John, Doe
Jane, Doe

حفظ الملف في المجلد C:\ADFv2QuickStartPSH. (إذا لم يكن المجلد موجودًا بالفعل، فقم بإنشائه.) ثم عُد إلى مدخل Azure واتبع الخطوات التالية:

  1. في صفحة <Account name> - Containers حيث توقفت، حدد adftutorial من القائمة المحدثة للحاويات.

    1. إذا قمت بإغلاق النافذة أو انتقلت إلى صفحة أخرى، فقم بتسجيل الدخول إلى مدخل Azure مرة أخرى.
    2. من قائمة مدخل Azure، حدّد كافة الخدمات، ثم حدّد حسابات تخزين>التخزين. يمكنك أيضًا البحث عن حسابات التخزين وتحديدها من أي صفحة.
    3. حدّد حساب التخزين الخاص بك، ثم حدّد حاويات>adftutorial.
  2. في شريط أدوات صفحة حاوية adftutorial، حدّد تحميل.

  3. في صفحة تحميل البيانات الثنائية كبيرة الحجم، حدّد مربع الملفات ثم استعرض وحدّد ملف emp.txt.

  4. قم بتوسيع العنوان Advanced. تُعرض الصفحة الآن كما هو موضح:

    حدّد رابط

  5. في المربع Upload to folder، أدخلinput.

  6. حدد الزر تحميل. يجب أن تراجع ملف emp.txt وحالة التحميل في القائمة.

  7. حدد رمز Close (علامة X ) لإغلاق صفحةUpload blob.

اجعل صفحة حاوية adftutorial مفتوحة. يمكنك استخدامه للتحقق من الإخراج في نهاية هذا التشغيل السريع.

Azure PowerShell

إشعار

نوصي باستخدام الوحدة النمطية Azure Az PowerShell للتفاعل مع Azure. للبدء، راجع تثبيت Azure PowerShell. لمعرفة كيفية الترحيل إلى الوحدة النمطية Az PowerShell، راجع ترحيل Azure PowerShell من AzureRM إلى Az.

ثبّت أحدث وحدات نمطية Azure PowerShell باتباع الإرشادات الواردة في كيفية تثبيتAzure PowerShell وتكوينه.

تحذير

إذا كنت لا تستخدم أحدث إصدارات PowerShell والوحدة النمطية لـ Data Factory، فقد تتعرض لأخطاء إلغاء التسلسل أثناء تشغيل الأوامر.

تسجيل الدخول إلى PowerShell

  1. قم بتشغيل PowerShell على جهازك. احتفظ ببرنامج PowerShell مفتوحاً حتى نهاية هذه التشغيل السريع. إذا أغلقت وأعدت الفتح فستحتاج إلى تشغيل هذه الأوامر مرة أخرى.

  2. قم بتشغيل الأمر التالي، وأدخل نفس اسم مستخدم Azure وكلمة المرور اللذين تستخدمهما لتسجيل الدخول إلى مدخل Microsoft Azure:

    Connect-AzAccount
    
  3. شغّل الأمر التالي لعرض جميع الاشتراكات لهذا الحساب:

    Get-AzSubscription
    
  4. إذا رأيت اشتراكات متعددة مرتبطة بحسابك، فقم بتشغيل الأمر التالي لتحديد الاشتراك الذي تريد العمل معه. استبدل SubscriptionId بـ ID الخاص باشتراك Azure الخاص بك:

    Select-AzSubscription -SubscriptionId "<SubscriptionId>"
    

إنشاء مصدرًا للبيانات

  1. حدد متغيراً لاسم مجموعة الموارد الذي ستستخدمه لاحقاً في أوامر PowerShell. انسخ الأمر النصي التالي إلى PowerShell، حدد اسماً لمجموعة موارد Azure وأحطها بعلامات اقتباس مزدوجة، ثم شغل الأمر. على سبيل المثال: "ADFQuickStartRG".

    $resourceGroupName = "ADFQuickStartRG";
    

    إذا كانت مجموعة الموارد موجودة بالفعل، فقد لا ترغب في الكتابة فوقها. عين قيمة مختلفة $ResourceGroupName للمتغير وشغل الأمر مرة أخرى

  2. لإنشاء مجموعة موارد Azure، شغل الأمر التالي:

    $ResGrp = New-AzResourceGroup $resourceGroupName -location 'East US'
    

    إذا كانت مجموعة الموارد موجودة بالفعل، فقد لا ترغب في الكتابة فوقها. تعيين قيمة مختلفة $ResourceGroupName للمتغير وتشغيل الأمر مرة أخرى.

  3. حدد متغير لموقع بيانات المصنع.

    هام

    قم بتحديث اسم مصنع البيانات ليكون فريداً عالمياً. على سبيل المثال، ADF Tutorial Factory P1127.

    $dataFactoryName = "ADFQuickStartFactory";
    
  4. لإنشاء مصنع البيانات، قم بتشغيل الأمر cmdlet Set-AzDataFactoryV2 التالي، باستخدام الخاصية Location وResourceGroupName من المتغير $ ResGrp:

    $DataFactory = Set-AzDataFactoryV2 -ResourceGroupName $ResGrp.ResourceGroupName `
        -Location $ResGrp.Location -Name $dataFactoryName
    

لاحظ النقاط التالية:

  • يجب أن يكون اسم Azure Data Factory فريداً عالمياً. في حال تلقيت الخطأ التالي، تغيير الاسم، ثم حاول مرة أخرى.

    The specified Data Factory name 'ADFv2QuickStartDataFactory' is already in use. Data Factory names must be globally unique.
    
  • لإنشاء مثيلات Data Factory، يجب أن يكون حساب المستخدم الذي تستخدمه لتسجيل الدخول إلى Azure عضواً في أدوار المساهم أو المالك ، أو مسؤول في اشتراك Azure.

  • للحصول على قائمة بمناطق Azure التي يتوفر فيها حالياً Data Factory، حدد المناطق التي تهمك في الصفحة التالية، ثم قم بتوسيع "Analytics" لتحديد موقع Data Factory: "Products available by region". تخزن البيانات (Azure Storage، وAzure SQL Database، وما إلى ذلك) وتحسب (HDInsight، وما إلى ذلك) التي يستخدمها مصنع البيانات في مناطق أخرى.

إنشاء خدمة مرتبطة

قم بإنشاء خدمات مرتبطة في مصنع بيانات لربط مخازن البيانات الخاصة بك وخدمات الحوسبة بمصنع البيانات. في التشغيل السريع هذا، يمكنك إنشاء خدمة مرتبطة بالتخزين في Azure يتم استخدامها كمخازن المصدر والمخزن. إذ تحتوي الخدمة المرتبطة على معلومات الاتصال التي تستخدمها خدمة "مصنع البيانات" في وقت التشغيل للاتصال بها.

تلميح

في التشغيل السريع هذا، تستخدم Account key كنوع المصادقة لمخزن البيانات، ولكن يمكنك اختيار طرق مصادقة أخرى مدعومة: SAS URI وService Principal وManaged Identity إذا لزم الأمر. راجع الأقسام المقابلة فيthis article للحصول على التفاصيل. لتخزين أسرار مخازن البيانات بشكل آمن، يُوصى أيضًا باستخدام Azure Key Vault. راجعthis article للحصول على رسوم توضيحية مفصلة.

  1. قم بإنشاء ملف JSON باسم AzureStorageLinkedService.json في المجلد C: \ ADFv2QuickStartPSH بالمحتوى التالي: (قم بإنشاء المجلد ADFv2QuickStartPSH إذا لم يكن موجوداً بالفعل.).

    هام

    استبدل <accountname>و<accountkey> باسم ومفتاح من حساب Azure Storage الخاص بك قبل حفظ الملف.

    {
        "name": "AzureStorageLinkedService",
        "properties": {
            "annotations": [],
            "type": "AzureBlobStorage",
            "typeProperties": {
                "connectionString": "DefaultEndpointsProtocol=https;AccountName=<accountName>;AccountKey=<accountKey>;EndpointSuffix=core.windows.net"
            }
        }
    }
    

    إذا كنت تستخدم برنامج Notepad، فحددAll files للملفSave as type في مربع الحوار Save as. وإلا فإنه قد يضيف.txt امتداداً للملف. على سبيل المثال، AzureStorageLinkedService.json.txt إذا قمت بإنشاء الملف في File Explorer قبل فتحه في Notepad، فقد لا ترى .txt extension since the إخفاء الامتدادات لأنواع الملفات المعروفة بشكل افتراضي. قم بإزالة الامتداد.txt قبل المتابعة إلى الخطوة التالية.

  2. في PowerShell ، بدّل إلى المجلد ADFv2QuickStartPSH .

    Set-Location 'C:\ADFv2QuickStartPSH'
    
  3. شغل cmdlet Set-AzDataFactoryV2LinkedService لإنشاء الخدمة المرتبطة: AzureStorageLinkedService.

    Set-AzDataFactoryV2LinkedService -DataFactoryName $DataFactory.DataFactoryName `
        -ResourceGroupName $ResGrp.ResourceGroupName -Name "AzureStorageLinkedService" `
        -DefinitionFile ".\AzureStorageLinkedService.json"
    

    فيما يلي ناتج العينة:

    LinkedServiceName : AzureStorageLinkedService
    ResourceGroupName : <resourceGroupName>
    DataFactoryName   : <dataFactoryName>
    Properties        : Microsoft.Azure.Management.DataFactory.Models.AzureBlobStorageLinkedService
    

إنشاء datasets

ستقوم في هذا الإجراء بإنشاء مجموعتي بيانات: InputDataset وOutputDataset. مجموعات البيانات هذه من النوعBinary. وهما تشيران إلى الخدمة المرتبطة Azure Storage التي قمت بإنشائها في المقطع السابق. تمثل مجموعة البيانات المدخلة البيانات المصدر في مجلد الإدخال. وستقوم في تعريف مجموعة بيانات الإدخال بتحديد حاوية الكائن الثنائي كبير الحجم (adftutorial)، والمجلد (إدخال)، والملف (emp.txt) الذي يحتوي على بيانات المصدر. تمثل مجموعة بيانات الناتج البيانات التي يتم نسخها إلى الوجهة. وستقوم في تعريف مجموعة بيانات الإخراج بتحديد حاوية الكائن الثنائي كبير الحجم (adftutorial)، والمجلد (output)، والملف الذي تم نسخ البيانات إليه.

  1. قم بإنشاء ملف JSON باسم InputDataset.json في المجلد C: \ ADFv2QuickStartPSH بالمحتوى التالي:

    {
        "name": "InputDataset",
        "properties": {
            "linkedServiceName": {
                "referenceName": "AzureStorageLinkedService",
                "type": "LinkedServiceReference"
            },
            "annotations": [],
            "type": "Binary",
            "typeProperties": {
                "location": {
                    "type": "AzureBlobStorageLocation",
                    "fileName": "emp.txt",
                    "folderPath": "input",
                    "container": "adftutorial"
                }
            }
        }
    }
    
  2. لإنشاء مجموعة البيانات: InputDataset، قم بتشغيل الأمرcmdlet Set-AzDataFactoryV2Dataset .

    Set-AzDataFactoryV2Dataset -DataFactoryName $DataFactory.DataFactoryName `
        -ResourceGroupName $ResGrp.ResourceGroupName -Name "InputDataset" `
        -DefinitionFile ".\InputDataset.json"
    

    فيما يلي ناتج العينة:

    DatasetName       : InputDataset
    ResourceGroupName : <resourceGroupname>
    DataFactoryName   : <dataFactoryName>
    Structure         :
    Properties        : Microsoft.Azure.Management.DataFactory.Models.BinaryDataset
    
  3. كرر الخطوات لإنشاء مجموعة بيانات الناتج. قم بإنشاء ملف JSON باسم OutputDataset.json في المجلد C: \ ADFv2QuickStartPSH بالمحتوى التالي:

    {
        "name": "OutputDataset",
        "properties": {
            "linkedServiceName": {
                "referenceName": "AzureStorageLinkedService",
                "type": "LinkedServiceReference"
            },
            "annotations": [],
            "type": "Binary",
            "typeProperties": {
                "location": {
                    "type": "AzureBlobStorageLocation",
                    "folderPath": "output",
                    "container": "adftutorial"
                }
            }
        }
    }
    
  4. قم بتشغيل الأمرcmdlet Set-AzDataFactoryV2Dataset لإنشاء OutDataset .

    Set-AzDataFactoryV2Dataset -DataFactoryName $DataFactory.DataFactoryName `
        -ResourceGroupName $ResGrp.ResourceGroupName -Name "OutputDataset" `
        -DefinitionFile ".\OutputDataset.json"
    

    فيما يلي ناتج العينة:

    DatasetName       : OutputDataset
    ResourceGroupName : <resourceGroupname>
    DataFactoryName   : <dataFactoryName>
    Structure         :
    Properties        : Microsoft.Azure.Management.DataFactory.Models.BinaryDataset
    

إنشاء البنية الأساسية لبرنامج ربط العمليات التجارية

في هذا الإجراء، تقوم بإنشاء بنية أساسية مع نشاط نسخ يستخدم مجموعات بيانات المدخلات والمخرجات. ويقوم نشاط النسخ بنسخ البيانات من الملف الذي حددته في إعدادات مجموعة بيانات المدخلات إلى الملف الذي حددته في إعدادات مجموعة بيانات المخرجات.

  1. قم بإنشاء ملف JSON باسم Adfv2QuickStartPipeline.json في المجلد C: \ ADFv2QuickStartPSH بالمحتوى التالي:

    {
        "name": "Adfv2QuickStartPipeline",
        "properties": {
            "activities": [
                {
                    "name": "CopyFromBlobToBlob",
                    "type": "Copy",
                    "dependsOn": [],
                    "policy": {
                        "timeout": "7.00:00:00",
                        "retry": 0,
                        "retryIntervalInSeconds": 30,
                        "secureOutput": false,
                        "secureInput": false
                    },
                    "userProperties": [],
                    "typeProperties": {
                        "source": {
                            "type": "BinarySource",
                            "storeSettings": {
                                "type": "AzureBlobStorageReadSettings",
                                "recursive": true
                            }
                        },
                        "sink": {
                            "type": "BinarySink",
                            "storeSettings": {
                                "type": "AzureBlobStorageWriteSettings"
                            }
                        },
                        "enableStaging": false
                    },
                    "inputs": [
                        {
                            "referenceName": "InputDataset",
                            "type": "DatasetReference"
                        }
                    ],
                    "outputs": [
                        {
                            "referenceName": "OutputDataset",
                            "type": "DatasetReference"
                        }
                    ]
                }
            ],
            "annotations": []
        }
    }
    
  2. لإنشاء البنية الأساسية: Adfv2QuickStartPipeline ، قم بتشغيل الأمر cmdlet Set-AzDataFactoryV2Pipeline .

    $DFPipeLine = Set-AzDataFactoryV2Pipeline `
        -DataFactoryName $DataFactory.DataFactoryName `
        -ResourceGroupName $ResGrp.ResourceGroupName `
        -Name "Adfv2QuickStartPipeline" `
        -DefinitionFile ".\Adfv2QuickStartPipeline.json"
    

إنشاء تشغيل البنية الأساسية

في هذه الخطوة، تقوم بإنشاء البنية الأساسية.

قم بتشغيل الأمرcmdlet Invoke-AzDataFactoryV2Pipeline لإنشاء بنية أساسية للتشغيل. يقوم الأمر cmdlet بإرجاع معرف تشغيل البنية الأساسية للمراقبة المستقبلية.

$RunId = Invoke-AzDataFactoryV2Pipeline `
  -DataFactoryName $DataFactory.DataFactoryName `
  -ResourceGroupName $ResGrp.ResourceGroupName `
  -PipelineName $DFPipeLine.Name 

راقب عملية تشغيل البنية الأساسية لبرنامج ربط العمليات التجارية

  1. قم بتشغيل برنامج PowerShell النصي التالي للتحقق باستمرار من حالة تشغيل البنية الأساسية حتى تنتهي من نسخ البيانات. انسخ / الصق البرنامج النصي التالي في نافذة PowerShell، واضغط على ENTER.

    while ($True) {
        $Run = Get-AzDataFactoryV2PipelineRun `
            -ResourceGroupName $ResGrp.ResourceGroupName `
            -DataFactoryName $DataFactory.DataFactoryName `
            -PipelineRunId $RunId
    
        if ($Run) {
            if ( ($Run.Status -ne "InProgress") -and ($Run.Status -ne "Queued") ) {
                Write-Output ("Pipeline run finished. The status is: " +  $Run.Status)
                $Run
                break
            }
            Write-Output ("Pipeline is running...status: " + $Run.Status)
        }
    
        Start-Sleep -Seconds 10
    }
    

    فيما يلي إخراج عينة من تشغيل البنية الأساسية:

    Pipeline is running...status: InProgress
    Pipeline run finished. The status is:  Succeeded
    
    ResourceGroupName : ADFQuickStartRG
    DataFactoryName   : ADFQuickStartFactory
    RunId             : 00000000-0000-0000-0000-0000000000000
    PipelineName      : Adfv2QuickStartPipeline
    LastUpdated       : 8/27/2019 7:23:07 AM
    Parameters        : {}
    RunStart          : 8/27/2019 7:22:56 AM
    RunEnd            : 8/27/2019 7:23:07 AM
    DurationInMs      : 11324
    Status            : Succeeded
    Message           : 
    
  2. تشغيل البرنامج النصي التالي لاسترداد نسخ نشاط تشغيل التفاصيل، على سبيل المثال، حجم البيانات قراءة/ كتابة.

    Write-Output "Activity run details:"
    $Result = Get-AzDataFactoryV2ActivityRun -DataFactoryName $DataFactory.DataFactoryName -ResourceGroupName $ResGrp.ResourceGroupName -PipelineRunId $RunId -RunStartedAfter (Get-Date).AddMinutes(-30) -RunStartedBefore (Get-Date).AddMinutes(30)
    $Result
    
    Write-Output "Activity 'Output' section:"
    $Result.Output -join "`r`n"
    
    Write-Output "Activity 'Error' section:"
    $Result.Error -join "`r`n"
    
  3. تأكد من أنك ترى المخرجات مشابهة لعينة المخرجات التالية لنتيجة تشغيل النشاط:

    ResourceGroupName : ADFQuickStartRG
    DataFactoryName   : ADFQuickStartFactory
    ActivityRunId     : 00000000-0000-0000-0000-000000000000
    ActivityName      : CopyFromBlobToBlob
    PipelineRunId     : 00000000-0000-0000-0000-000000000000
    PipelineName      : Adfv2QuickStartPipeline
    Input             : {source, sink, enableStaging}
    Output            : {dataRead, dataWritten, filesRead, filesWritten...}
    LinkedServiceName :
    ActivityRunStart  : 8/27/2019 7:22:58 AM
    ActivityRunEnd    : 8/27/2019 7:23:05 AM
    DurationInMs      : 6828
    Status            : Succeeded
    Error             : {errorCode, message, failureType, target}
    
    Activity 'Output' section:
    "dataRead": 20
    "dataWritten": 20
    "filesRead": 1
    "filesWritten": 1
    "sourcePeakConnections": 1
    "sinkPeakConnections": 1
    "copyDuration": 4
    "throughput": 0.01
    "errors": []
    "effectiveIntegrationRuntime": "DefaultIntegrationRuntime (Central US)"
    "usedDataIntegrationUnits": 4
    "usedParallelCopies": 1
    "executionDetails": [
      {
        "source": {
          "type": "AzureBlobStorage"
        },
        "sink": {
          "type": "AzureBlobStorage"
        },
        "status": "Succeeded",
        "start": "2019-08-27T07:22:59.1045645Z",
        "duration": 4,
        "usedDataIntegrationUnits": 4,
        "usedParallelCopies": 1,
        "detailedDurations": {
          "queuingDuration": 3,
          "transferDuration": 1
        }
      }
    ]
    
    Activity 'Error' section:
    "errorCode": ""
    "message": ""
    "failureType": ""
    "target": "CopyFromBlobToBlob"
    

مراجعة الموارد الموزعة

ينشئ خط الأنابيب تلقائياً مجلد إخراج في حاوية adftutorial blob. ثم ينسخ ملف "emp.txt" من مجلد الإدخال إلى مجلد الإخراج.

  1. في مدخل Azure، في صفحة حاوية adftutorial حدد تحديث لرؤية مجلد الإخراج.

    تظهر لقطة الشاشة صفحة الحاوية التي يمكنك من خلالها تحديث الصفحة.

  2. حدد الإخراج من قائمة المجلدات.

  3. تأكد من نسخ emp.txt إلى مجلد الإخراج.

    تظهر لقطة الشاشة محتويات مجلد الإخراج.

تنظيف الموارد

يمكنك تنظيف الموارد التي أنشأتها في قائمة التشغيل السريع بطريقتين. يمكنك حذف مجموعة موارد Azure، التي تتضمن كافة الموارد الموجودة في مجموعة الموارد. إذا كنت ترغب في الحفاظ على سلامة الموارد الأخرى، فاحذف مصنع البيانات الذي أنشأته في هذا البرنامج التعليمي.

يسفر حذف مجموعة موارد عن حذف كافة الموارد بما في ذلك مصانع البيانات الموجودة بها. شغل الأمر التالي بهدف الحذف الكلي لمجموعة الموارد:

Remove-AzResourceGroup -ResourceGroupName $resourcegroupname

إشعار

وربما يستغرق إسقاط مجموعة موارد ما بعض الوقت. يرجى التحلي بالصبر في أثناء إجراء هذه العملية

إذا كنت ترغب في حذف مصنع البيانات بمفرده، لا مجموعة الموارد بأكملها، فشغل الأمر التالي:

Remove-AzDataFactoryV2 -Name $dataFactoryName -ResourceGroupName $resourceGroupName

تنسخ البنية الأساسية في هذه العينة البيانات من موقع إلى موقع آخر في تخزين Azure blob. انتقل إلىtutorials للتعرف على استخدام Data Factory في المزيد من السيناريوهات.