ml الحزمة
الحِزم
automl |
يحتوي على فئات التعلم الآلي المؤتمتة ل Azure Machine Learning SDKv2. تتضمن المجالات الرئيسية إدارة مهام AutoML. |
constants |
تحدد هذه الحزمة الثوابت المستخدمة في التعلم الآلي من Microsoft Azure SDKv2. |
data_transfer | |
dsl | |
entities |
يحتوي على كيانات وعناصر SDK ل Azure Machine Learning SDKv2. تشمل المجالات الرئيسية إدارة أهداف الحوسبة وإنشاء/إدارة مساحات العمل والوظائف وإرسال/الوصول إلى النموذج وتشغيل المخرجات/التسجيل وما إلى ذلك. |
identity |
يحتوي على تكوين الهوية ل SDKv2 للتعلم الآلي من Microsoft Azure. |
operations |
يحتوي على عمليات مدعومة ل SDKv2 للتعلم الآلي من Microsoft Azure. العمليات هي فئات تحتوي على منطق للتفاعل مع خدمات الواجهة الخلفية، وعادة ما يتم إنشاء استدعاء العمليات تلقائيا. |
parallel | |
sweep |
الوحدات النمطية
exceptions |
يحتوي على وحدة استثناء في التعلم الآلي من Microsoft Azure SDKv2. يتضمن ذلك التعدادات والفئات للاستثناءات. |
الفصول
AmlTokenConfiguration |
تكوين هوية الرمز المميز ل AzureML. |
Input |
تهيئة كائن الإدخال. |
MLClient |
فئة عميل للتفاعل مع خدمات التعلم الآلي من Microsoft Azure. استخدم هذا العميل لإدارة موارد التعلم الآلي من Microsoft Azure مثل مساحات العمل والوظائف والنماذج وما إلى ذلك. |
ManagedIdentityConfiguration |
تكوين بيانات اعتماد الهوية المدارة. |
MpiDistribution |
تكوين توزيع MPI. |
Output | |
PyTorchDistribution |
تكوين توزيع PyTorch. |
RayDistribution |
ملاحظة هذه فئة تجريبية، وقد تتغير في أي وقت. يرجى مراجعة https://aka.ms/azuremlexperimental لمزيد من المعلومات. تكوين توزيع Ray. |
TensorFlowDistribution |
تكوين توزيع TensorFlow. |
UserIdentityConfiguration |
تكوين هوية المستخدم. |
الوظائف
command
إنشاء كائن أمر يمكن استخدامه داخل دالة dsl.pipeline أو استخدامه كمهمة أمر مستقلة.
command(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, properties: Dict | None = None, display_name: str | None = None, command: str | None = None, experiment_name: str | None = None, environment: str | Environment | None = None, environment_variables: Dict | None = None, distribution: Dict | MpiDistribution | TensorFlowDistribution | PyTorchDistribution | RayDistribution | None = None, compute: str | None = None, inputs: Dict | None = None, outputs: Dict | None = None, instance_count: int | None = None, instance_type: str | None = None, locations: List[str] | None = None, docker_args: str | None = None, shm_size: str | None = None, timeout: int | None = None, code: PathLike | str | None = None, identity: ManagedIdentityConfiguration | AmlTokenConfiguration | UserIdentityConfiguration | None = None, is_deterministic: bool = True, services: Dict[str, JobService | JupyterLabJobService | SshJobService | TensorBoardJobService | VsCodeJobService] | None = None, job_tier: str | None = None, priority: str | None = None, **kwargs) -> Command
المعلمات
قاموس العلامات. يمكن إضافة العلامات وإزالتها وتحديثها. الإعدادات الافتراضية إلى بلا.
اسم التجربة التي سيتم إنشاء الوظيفة ضمنها. الإعدادات الافتراضية لاسم الدليل الحالي.
- environment
- Optional[Union[str, Environment]]
البيئة التي سيتم تشغيل الوظيفة فيها.
قاموس لأسماء وقيم متغيرات البيئة. يتم تعيين متغيرات البيئة هذه على العملية التي يتم فيها تنفيذ البرنامج النصي للمستخدم. الإعدادات الافتراضية إلى بلا.
- distribution
- Optional[Union[dict, PyTorchDistribution, MpiDistribution, TensorFlowDistribution, RayDistribution]]
تكوين الوظائف الموزعة. الإعدادات الافتراضية إلى بلا.
هدف الحساب الذي سيتم تشغيل المهمة عليه. الإعدادات الافتراضية للحساب الافتراضي.
تعيين أسماء الإدخال لإدخال مصادر البيانات المستخدمة في الوظيفة. الإعدادات الافتراضية إلى بلا.
تعيين أسماء الإخراج إلى مصادر بيانات الإخراج المستخدمة في الوظيفة. الإعدادات الافتراضية إلى بلا.
عدد المثيلات أو العقد التي سيتم استخدامها بواسطة هدف الحساب. تعود الإعدادات الافتراضية على 1.
وسيطات إضافية لتمريرها إلى أمر تشغيل Docker. سيؤدي هذا إلى تجاوز أي معلمات تم تعيينها بالفعل بواسطة النظام، أو في هذا القسم. هذه المعلمة مدعومة فقط أنواع حوسبة التعلم الآلي من Microsoft Azure. الإعدادات الافتراضية إلى بلا.
حجم كتلة الذاكرة المشتركة لحاوية Docker. يجب أن يكون هذا بتنسيق (number)(unit) حيث يجب أن يكون الرقم أكبر من 0 ويمكن أن تكون الوحدة واحدة من b(بايت) أو k(كيلوبايت) أو m(ميغابايت) أو g(غيغابايت).
التعليمات البرمجية المصدر لتشغيل المهمة. يمكن أن يكون مسارا محليا أو "http:" أو "https:" أو "azureml:" url يشير إلى موقع بعيد.
- identity
- Optional[Union[ ManagedIdentityConfiguration, AmlTokenConfiguration, UserIdentityConfiguration]]
الهوية التي ستستخدمها مهمة الأمر أثناء التشغيل على الحساب.
- is_deterministic
- bool
يحدد ما إذا كان الأمر سيعيد نفس الإخراج نظرا لنفس الإدخال. الإعدادات الافتراضية إلى True. عندما يكون True، إذا كان مكون الأمر محددا وتم تشغيله من قبل في مساحة العمل الحالية بنفس الإدخال والإعدادات، فسيعيد استخدام النتائج من مهمة تم إرسالها مسبقا عند استخدامها كعقدة أو خطوة في البنية الأساسية لبرنامج ربط العمليات التجارية. في هذا السيناريو، لن يتم استخدام موارد الحوسبة.
- services
- Optional[dict[str, Union[JobService, JupyterLabJobService, SshJobService, TensorBoardJobService, VsCodeJobService]]]
الخدمات التفاعلية للعقدة. الإعدادات الافتراضية إلى بلا. هذه معلمة تجريبية، وقد تتغير في أي وقت. يرجى مراجعة https://aka.ms/azuremlexperimental لمزيد من المعلومات.
مستوى الوظيفة. القيم المقبولة هي "Spot" أو "Basic" أو "Standard" أو "Premium".
أولوية الوظيفة على الحساب. القيم المقبولة هي "منخفضة" و"متوسطة" و"عالية". الإعدادات الافتراضية إلى "متوسط".
المرتجعات
عنصر أمر.
نوع الإرجاع
أمثلة
إنشاء مهمة أمر باستخدام أسلوب منشئ الأوامر().
from azure.ai.ml import Input, Output, command
train_func = command(
environment="AzureML-sklearn-1.0-ubuntu20.04-py38-cpu:33",
command='echo "hello world"',
distribution={"type": "Pytorch", "process_count_per_instance": 2},
inputs={
"training_data": Input(type="uri_folder"),
"max_epochs": 20,
"learning_rate": 1.8,
"learning_rate_schedule": "time-based",
},
outputs={"model_output": Output(type="uri_folder")},
)
load_batch_deployment
إنشاء كائن نشر دفعي من ملف yaml.
load_batch_deployment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> BatchDeployment
المعلمات
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
مصدر yaml المحلي لكائن توزيع دفعة. يجب أن يكون إما مسارا إلى ملف محلي، أو ملفا مفتوحا بالفعل. إذا كان المصدر مسارا، فسيكون مفتوحا وقراءته. يتم رفع استثناء إذا لم يكن الملف موجودا. إذا كان المصدر ملفا مفتوحا، فستتم قراءة الملف مباشرة، ويتم رفع استثناء إذا لم يكن الملف قابلا للقراءة.
- relative_origin
- str
الأصل الذي سيتم استخدامه عند استكشاف المواقع النسبية للملفات المشار إليها في yaml الذي تم تحليله. الإعدادات الافتراضية لدليل المصدر المدخل إذا كان إدخال مسار ملف أو ملف. يتم تعيين الإعدادات الافتراضية إلى "./" إذا كان المصدر إدخال دفق بدون قيمة اسم.
حقول للكتابة فوق ملف yaml. التنسيق هو [{"field1": "value1"}، {"field2": "value2"}]
المرتجعات
كائن نشر الدفعة الذي تم إنشاؤه.
نوع الإرجاع
load_batch_endpoint
إنشاء كائن نقطة نهاية دفعية من ملف yaml.
load_batch_endpoint(source: str | PathLike | IO, relative_origin: str | None = None, **kwargs) -> BatchEndpoint
المعلمات
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
مصدر yaml المحلي لكائن نقطة نهاية دفعية. يجب أن يكون إما مسارا إلى ملف محلي، أو ملفا مفتوحا بالفعل. إذا كان المصدر مسارا، فسيكون مفتوحا وقراءته. يتم رفع استثناء إذا لم يكن الملف موجودا. إذا كان المصدر ملفا مفتوحا، فستتم قراءة الملف مباشرة، ويتم رفع استثناء إذا لم يكن الملف قابلا للقراءة.
- relative_origin
- str
الأصل الذي سيتم استخدامه عند استكشاف المواقع النسبية للملفات المشار إليها في yaml الذي تم تحليله. الإعدادات الافتراضية لدليل المصدر المدخل إذا كان إدخال مسار ملف أو ملف. يتم تعيين الإعدادات الافتراضية إلى "./" إذا كان المصدر إدخال دفق بدون قيمة اسم.
حقول للكتابة فوق ملف yaml. التنسيق هو [{"field1": "value1"}، {"field2": "value2"}]
المرتجعات
كائن نقطة نهاية دفعية تم إنشاؤه.
نوع الإرجاع
load_component
تحميل المكون من محلي أو بعيد إلى دالة مكون.
load_component(source: str | PathLike | IO | None = None, *, relative_origin: str | None = None, **kwargs) -> CommandComponent | ParallelComponent | PipelineComponent
المعلمات
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
مصدر yaml المحلي لمكون. يجب أن يكون إما مسارا إلى ملف محلي، أو ملفا مفتوحا بالفعل. إذا كان المصدر مسارا، فسيكون مفتوحا وقراءته. يتم رفع استثناء إذا لم يكن الملف موجودا. إذا كان المصدر ملفا مفتوحا، فستتم قراءة الملف مباشرة، ويتم رفع استثناء إذا لم يكن الملف قابلا للقراءة.
- relative_origin
- str
الأصل الذي سيتم استخدامه عند استكشاف المواقع النسبية للملفات المشار إليها في yaml الذي تم تحليله. الإعدادات الافتراضية لدليل المصدر المدخل إذا كان إدخال مسار ملف أو ملف. يتم تعيين الإعدادات الافتراضية إلى "./" إذا كان المصدر إدخال دفق بدون قيمة اسم.
حقول للكتابة فوق ملف yaml. التنسيق هو [{"field1": "value1"}، {"field2": "value2"}]
المرتجعات
عنصر مكون
نوع الإرجاع
أمثلة
تحميل عنصر مكون من ملف YAML، وتجاوز إصداره إلى "1.0.2"، وتسجيله عن بعد.
from azure.ai.ml import load_component
component = load_component(
source="./sdk/ml/azure-ai-ml/tests/test_configs/components/helloworld_component.yml",
params_override=[{"version": "1.0.2"}],
)
registered_component = ml_client.components.create_or_update(component)
load_compute
إنشاء كائن حساب من ملف yaml.
load_compute(source: str | PathLike | IO, *, relative_origin: str | None = None, params_override: List[Dict[str, str]] | None = None, **kwargs) -> Compute
المعلمات
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
مصدر yaml المحلي للحساب. يجب أن يكون إما مسارا إلى ملف محلي، أو ملفا مفتوحا بالفعل. إذا كان المصدر مسارا، فسيكون مفتوحا وقراءته. يتم رفع استثناء إذا لم يكن الملف موجودا. إذا كان المصدر ملفا مفتوحا، فستتم قراءة الملف مباشرة، ويتم رفع استثناء إذا لم يكن الملف قابلا للقراءة.
الأصل الذي سيتم استخدامه عند استكشاف المواقع النسبية للملفات المشار إليها في yaml الذي تم تحليله. الإعدادات الافتراضية لدليل المصدر المدخل إذا كان إدخال مسار ملف أو ملف. يتم تعيين الإعدادات الافتراضية إلى "./" إذا كان المصدر إدخال دفق بدون قيمة اسم.
حقول للكتابة فوق ملف yaml. التنسيق هو [{"field1": "value1"}، {"field2": "value2"}]
المرتجعات
كائن الحساب المحمل.
نوع الإرجاع
أمثلة
تحميل كائن حساب من ملف YAML وتجاوز وصفه.
from azure.ai.ml import load_compute
compute = load_compute(
"../tests/test_configs/compute/compute-vm.yaml",
params_override=[{"description": "loaded from compute-vm.yaml"}],
)
load_data
إنشاء كائن بيانات من ملف yaml.
load_data(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Data
المعلمات
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
مصدر yaml المحلي لكائن بيانات. يجب أن يكون إما مسارا إلى ملف محلي، أو ملفا مفتوحا بالفعل. إذا كان المصدر مسارا، فسيكون مفتوحا وقراءته. يتم رفع استثناء إذا لم يكن الملف موجودا. إذا كان المصدر ملفا مفتوحا، فستتم قراءة الملف مباشرة، ويتم رفع استثناء إذا لم يكن الملف قابلا للقراءة.
- relative_origin
- str
الأصل الذي سيتم استخدامه عند استكشاف المواقع النسبية للملفات المشار إليها في yaml الذي تم تحليله. الإعدادات الافتراضية لدليل المصدر المدخل إذا كان إدخال مسار ملف أو ملف. يتم تعيين الإعدادات الافتراضية إلى "./" إذا كان المصدر إدخال دفق بدون قيمة اسم.
حقول للكتابة فوق ملف yaml. التنسيق هو [{"field1": "value1"}، {"field2": "value2"}]
المرتجعات
البيانات المنشأة أو كائن DataImport.
نوع الإرجاع
استثناءات
يتم رفعه إذا تعذر التحقق من صحة البيانات بنجاح. سيتم توفير التفاصيل في رسالة الخطأ.
load_datastore
إنشاء كائن مخزن بيانات من ملف yaml.
load_datastore(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Datastore
المعلمات
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
مصدر yaml المحلي لمتلقي البيانات. يجب أن يكون إما مسارا إلى ملف محلي، أو ملفا مفتوحا بالفعل. إذا كان المصدر مسارا، فسيكون مفتوحا وقراءته. يتم رفع استثناء إذا لم يكن الملف موجودا. إذا كان المصدر ملفا مفتوحا، فستتم قراءة الملف مباشرة، ويتم رفع استثناء إذا لم يكن الملف قابلا للقراءة.
- relative_origin
- str
الأصل الذي سيتم استخدامه عند استكشاف المواقع النسبية للملفات المشار إليها في yaml الذي تم تحليله. الإعدادات الافتراضية لدليل المصدر المدخل إذا كان إدخال مسار ملف أو ملف. يتم تعيين الإعدادات الافتراضية إلى "./" إذا كان المصدر إدخال دفق بدون قيمة اسم.
حقول للكتابة فوق ملف yaml. التنسيق هو [{"field1": "value1"}، {"field2": "value2"}]
المرتجعات
كائن مخزن البيانات المحمل.
نوع الإرجاع
استثناءات
يتم رفعه إذا تعذر التحقق من صحة مخزن البيانات بنجاح. سيتم توفير التفاصيل في رسالة الخطأ.
load_environment
إنشاء كائن بيئة من ملف yaml.
load_environment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Environment
المعلمات
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
مصدر yaml المحلي للبيئة. يجب أن يكون إما مسارا إلى ملف محلي، أو ملفا مفتوحا بالفعل. إذا كان المصدر مسارا، فسيكون مفتوحا وقراءته. يتم رفع استثناء إذا لم يكن الملف موجودا. إذا كان المصدر ملفا مفتوحا، فستتم قراءة الملف مباشرة، ويتم رفع استثناء إذا لم يكن الملف قابلا للقراءة.
- relative_origin
- str
الأصل الذي سيتم استخدامه عند استكشاف المواقع النسبية للملفات المشار إليها في yaml الذي تم تحليله. الإعدادات الافتراضية لدليل المصدر المدخل إذا كان إدخال مسار ملف أو ملف. يتم تعيين الإعدادات الافتراضية إلى "./" إذا كان المصدر إدخال دفق بدون قيمة اسم.
حقول للكتابة فوق ملف yaml. التنسيق هو [{"field1": "value1"}، {"field2": "value2"}]
المرتجعات
كائن البيئة الذي تم إنشاؤه.
نوع الإرجاع
استثناءات
يتم رفعه إذا تعذر التحقق من صحة البيئة بنجاح. سيتم توفير التفاصيل في رسالة الخطأ.
load_job
إنشاء كائن مهمة من ملف YAML.
load_job(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Job
المعلمات
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
مسار إلى ملف YAML محلي أو كائن ملف مفتوح بالفعل يحتوي على تكوين مهمة. إذا كان المصدر مسارا، فسيتم فتحه وقراءته. إذا كان المصدر ملفا مفتوحا، فستتم قراءة الملف مباشرة.
الدليل الجذر ل YAML. سيتم استخدام هذا الدليل كأصل لتحليل المواقع النسبية للملفات المشار إليها في YAML الذي تم تحليله. الإعدادات الافتراضية لنفس الدليل مثل المصدر إذا كان المصدر هو إدخال ملف أو مسار ملف. يتم تعيين الإعدادات الافتراضية إلى "./" إذا كان المصدر إدخال دفق بدون قيمة اسم.
المرتجعات
عنصر مهمة محمل.
نوع الإرجاع
استثناءات
يرفع إذا تعذر التحقق من صحة الوظيفة بنجاح. سيتم توفير التفاصيل في رسالة الخطأ.
أمثلة
تحميل مهمة من ملف تكوين YAML.
from azure.ai.ml import load_job
job = load_job(source="./sdk/ml/azure-ai-ml/tests/test_configs/command_job/command_job_test_local_env.yml")
load_model
إنشاء كائن نموذج من ملف YAML.
load_model(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Model
المعلمات
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
مسار إلى ملف YAML محلي أو كائن ملف مفتوح بالفعل يحتوي على تكوين مهمة. إذا كان المصدر مسارا، فسيتم فتحه وقراءته. إذا كان المصدر ملفا مفتوحا، فستتم قراءة الملف مباشرة.
الدليل الجذر ل YAML. سيتم استخدام هذا الدليل كأصل لتحليل المواقع النسبية للملفات المشار إليها في YAML الذي تم تحليله. الإعدادات الافتراضية لنفس الدليل مثل المصدر إذا كان المصدر هو إدخال ملف أو مسار ملف. يتم تعيين الإعدادات الافتراضية إلى "./" إذا كان المصدر إدخال دفق بدون قيمة اسم.
المرتجعات
كائن نموذج محمل.
نوع الإرجاع
استثناءات
يرفع إذا تعذر التحقق من صحة الوظيفة بنجاح. سيتم توفير التفاصيل في رسالة الخطأ.
أمثلة
تحميل نموذج من ملف تكوين YAML، وتجاوز معلمات الاسم والإصدار.
from azure.ai.ml import load_model
model = load_model(
source="./sdk/ml/azure-ai-ml/tests/test_configs/model/model_with_stage.yml",
params_override=[{"name": "new_model_name"}, {"version": "1"}],
)
load_model_package
ملاحظة
هذه طريقة تجريبية، وقد تتغير في أي وقت. يرجى مراجعة https://aka.ms/azuremlexperimental لمزيد من المعلومات.
إنشاء كائن ModelPackage من ملف YAML.
load_model_package(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> ModelPackage
المعلمات
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
مسار إلى ملف YAML محلي أو كائن ملف مفتوح بالفعل يحتوي على تكوين مهمة. إذا كان المصدر مسارا، فسيتم فتحه وقراءته. إذا كان المصدر ملفا مفتوحا، فستتم قراءة الملف مباشرة.
الدليل الجذر ل YAML. سيتم استخدام هذا الدليل كأصل لتحليل المواقع النسبية للملفات المشار إليها في YAML الذي تم تحليله. الإعدادات الافتراضية لنفس الدليل مثل المصدر إذا كان المصدر هو إدخال ملف أو مسار ملف. يتم تعيين الإعدادات الافتراضية إلى "./" إذا كان المصدر إدخال دفق بدون قيمة اسم.
المرتجعات
كائن ModelPackage محمل.
نوع الإرجاع
استثناءات
يرفع إذا تعذر التحقق من صحة الوظيفة بنجاح. سيتم توفير التفاصيل في رسالة الخطأ.
أمثلة
تحميل ModelPackage من ملف تكوين YAML.
from azure.ai.ml import load_model_package
model_package = load_model_package(
"./sdk/ml/azure-ai-ml/tests/test_configs/model_package/model_package_simple.yml"
)
load_online_deployment
إنشاء عنصر توزيع عبر الإنترنت من ملف yaml.
load_online_deployment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> OnlineDeployment
المعلمات
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
مصدر yaml المحلي لكائن نشر عبر الإنترنت. يجب أن يكون إما مسارا إلى ملف محلي، أو ملفا مفتوحا بالفعل. إذا كان المصدر مسارا، فسيكون مفتوحا وقراءته. يتم رفع استثناء إذا لم يكن الملف موجودا. إذا كان المصدر ملفا مفتوحا، فستتم قراءة الملف مباشرة، ويتم رفع استثناء إذا لم يكن الملف قابلا للقراءة.
- relative_origin
- str
الأصل الذي سيتم استخدامه عند استكشاف المواقع النسبية للملفات المشار إليها في yaml الذي تم تحليله. الإعدادات الافتراضية لدليل المصدر المدخل إذا كان إدخال مسار ملف أو ملف. يتم تعيين الإعدادات الافتراضية إلى "./" إذا كان المصدر إدخال دفق بدون قيمة اسم.
حقول للكتابة فوق ملف yaml. التنسيق هو [{"field1": "value1"}، {"field2": "value2"}]
المرتجعات
كائن نشر عبر الإنترنت تم إنشاؤه.
نوع الإرجاع
استثناءات
يتم رفعه إذا تعذر التحقق من صحة النشر عبر الإنترنت بنجاح. سيتم توفير التفاصيل في رسالة الخطأ.
load_online_endpoint
إنشاء كائن نقطة نهاية عبر الإنترنت من ملف yaml.
load_online_endpoint(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> OnlineEndpoint
المعلمات
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
مصدر yaml المحلي لكائن نقطة نهاية عبر الإنترنت. يجب أن يكون إما مسارا إلى ملف محلي، أو ملفا مفتوحا بالفعل. إذا كان المصدر مسارا، فسيكون مفتوحا وقراءته. يتم رفع استثناء إذا لم يكن الملف موجودا. إذا كان المصدر ملفا مفتوحا، فستتم قراءة الملف مباشرة، ويتم رفع استثناء إذا لم يكن الملف قابلا للقراءة.
- relative_origin
- str
الأصل الذي سيتم استخدامه عند استكشاف المواقع النسبية للملفات المشار إليها في yaml الذي تم تحليله. الإعدادات الافتراضية لدليل المصدر المدخل إذا كان إدخال مسار ملف أو ملف. يتم تعيين الإعدادات الافتراضية إلى "./" إذا كان المصدر إدخال دفق بدون قيمة اسم.
حقول للكتابة فوق ملف yaml. التنسيق هو [{"field1": "value1"}، {"field2": "value2"}]
المرتجعات
كائن نقطة النهاية عبر الإنترنت الذي تم إنشاؤه.
نوع الإرجاع
استثناءات
يتم رفعه إذا تعذر التحقق من صحة نقطة النهاية عبر الإنترنت بنجاح. سيتم توفير التفاصيل في رسالة الخطأ.
load_registry
تحميل كائن تسجيل من ملف yaml.
load_registry(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Registry
المعلمات
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
مصدر yaml المحلي للسجل. يجب أن يكون إما مسارا إلى ملف محلي، أو ملفا مفتوحا بالفعل. إذا كان المصدر مسارا، فسيكون مفتوحا وقراءته. يتم رفع استثناء إذا لم يكن الملف موجودا. إذا كان المصدر ملفا مفتوحا، فستتم قراءة الملف مباشرة، ويتم رفع استثناء إذا لم يكن الملف قابلا للقراءة.
- relative_origin
- str
الأصل الذي سيتم استخدامه عند استكشاف المواقع النسبية للملفات المشار إليها في yaml الذي تم تحليله. الإعدادات الافتراضية لدليل المصدر المدخل إذا كان إدخال مسار ملف أو ملف. يتم تعيين الإعدادات الافتراضية إلى "./" إذا كان المصدر إدخال دفق بدون قيمة اسم.
حقول للكتابة فوق ملف yaml. التنسيق هو [{"field1": "value1"}، {"field2": "value2"}]
المرتجعات
كائن التسجيل المحمل.
نوع الإرجاع
load_workspace
تحميل كائن مساحة عمل من ملف yaml.
load_workspace(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Workspace
المعلمات
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
مصدر yaml المحلي لمساحة العمل. يجب أن يكون إما مسارا إلى ملف محلي، أو ملفا مفتوحا بالفعل. إذا كان المصدر مسارا، فسيكون مفتوحا وقراءته. يتم رفع استثناء إذا لم يكن الملف موجودا. إذا كان المصدر ملفا مفتوحا، فستتم قراءة الملف مباشرة، ويتم رفع استثناء إذا لم يكن الملف قابلا للقراءة.
- relative_origin
- str
الأصل الذي سيتم استخدامه عند استكشاف المواقع النسبية للملفات المشار إليها في yaml الذي تم تحليله. الإعدادات الافتراضية لدليل المصدر المدخل إذا كان إدخال مسار ملف أو ملف. يتم تعيين الإعدادات الافتراضية إلى "./" إذا كان المصدر إدخال دفق بدون قيمة اسم.
حقول للكتابة فوق ملف yaml. التنسيق هو [{"field1": "value1"}، {"field2": "value2"}]
المرتجعات
كائن مساحة العمل المحمل.
نوع الإرجاع
load_workspace_connection
إنشاء كائن اتصال مساحة عمل من ملف yaml.
load_workspace_connection(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> WorkspaceConnection
المعلمات
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
مصدر yaml المحلي لكائن اتصال مساحة العمل. يجب أن يكون إما مسارا إلى ملف محلي، أو ملفا مفتوحا بالفعل. إذا كان المصدر مسارا، فسيكون مفتوحا وقراءته. يتم رفع استثناء إذا لم يكن الملف موجودا. إذا كان المصدر ملفا مفتوحا، فستتم قراءة الملف مباشرة، ويتم رفع استثناء إذا لم يكن الملف قابلا للقراءة.
- relative_origin
- str
الأصل الذي سيتم استخدامه عند استكشاف المواقع النسبية للملفات المشار إليها في yaml الذي تم تحليله. الإعدادات الافتراضية لدليل المصدر المدخل إذا كان إدخال مسار ملف أو ملف. يتم تعيين الإعدادات الافتراضية إلى "./" إذا كان المصدر إدخال دفق بدون قيمة اسم.
حقول للكتابة فوق ملف yaml. التنسيق هو [{"field1": "value1"}، {"field2": "value2"}]
المرتجعات
كائن اتصال مساحة العمل الذي تم إنشاؤه.
نوع الإرجاع
load_workspace_hub
ملاحظة
هذه طريقة تجريبية، وقد تتغير في أي وقت. يرجى مراجعة https://aka.ms/azuremlexperimental لمزيد من المعلومات.
تحميل كائن WorkspaceHub من ملف yaml.
load_workspace_hub(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> WorkspaceHub
المعلمات
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
مصدر yaml المحلي ل WorkspaceHub. يجب أن يكون إما مسارا إلى ملف محلي، أو ملفا مفتوحا بالفعل. إذا كان المصدر مسارا، فسيكون مفتوحا وقراءته. يتم رفع استثناء إذا لم يكن الملف موجودا. إذا كان المصدر ملفا مفتوحا، فستتم قراءة الملف مباشرة، ويتم رفع استثناء إذا لم يكن الملف قابلا للقراءة.
- relative_origin
- str
الأصل الذي سيتم استخدامه عند استكشاف المواقع النسبية للملفات المشار إليها في yaml الذي تم تحليله. الإعدادات الافتراضية لدليل المصدر المدخل إذا كان إدخال مسار ملف أو ملف. يتم تعيين الإعدادات الافتراضية إلى "./" إذا كان المصدر إدخال دفق بدون قيمة اسم.
حقول للكتابة فوق ملف yaml. التنسيق هو [{"field1": "value1"}، {"field2": "value2"}]
المرتجعات
عنصر WorkspaceHub المحمل.
نوع الإرجاع
spark
إنشاء كائن Spark الذي يمكن استخدامه داخل دالة dsl.pipeline أو استخدامه كوظيفة Spark مستقلة.
spark(*, experiment_name: str | None = None, name: str | None = None, display_name: str | None = None, description: str | None = None, tags: Dict | None = None, code: PathLike | str | None = None, entry: Dict[str, str] | SparkJobEntry | None = None, py_files: List[str] | None = None, jars: List[str] | None = None, files: List[str] | None = None, archives: List[str] | None = None, identity: Dict[str, str] | ManagedIdentity | AmlToken | UserIdentity | None = None, driver_cores: int | None = None, driver_memory: str | None = None, executor_cores: int | None = None, executor_memory: str | None = None, executor_instances: int | None = None, dynamic_allocation_enabled: bool | None = None, dynamic_allocation_min_executors: int | None = None, dynamic_allocation_max_executors: int | None = None, conf: Dict[str, str] | None = None, environment: str | Environment | None = None, inputs: Dict | None = None, outputs: Dict | None = None, args: str | None = None, compute: str | None = None, resources: Dict | SparkResourceConfiguration | None = None, **kwargs) -> Spark
المعلمات
قاموس العلامات للوظيفة. يمكن إضافة العلامات وإزالتها وتحديثها. الإعدادات الافتراضية إلى بلا.
- code
التعليمات البرمجية المصدر لتشغيل المهمة. يمكن أن يكون مسارا محليا أو "http:" أو "https:" أو "azureml:" url يشير إلى موقع بعيد.
قائمة ملفات .zip أو .egg أو .py لوضعها على PYTHONPATH لتطبيقات Python. الإعدادات الافتراضية إلى بلا.
قائمة . ملفات JAR لتضمينها على مسارات فئة برنامج التشغيل والمنفذ. الإعدادات الافتراضية إلى بلا.
قائمة الملفات التي سيتم وضعها في دليل العمل لكل منفذ. الإعدادات الافتراضية إلى بلا.
قائمة الأرشيفات التي سيتم استخراجها في دليل العمل لكل منفذ. الإعدادات الافتراضية إلى بلا.
- identity
- Optional[Union[ dict[str, str], ManagedIdentityConfiguration, AmlTokenConfiguration, UserIdentityConfiguration]]
الهوية التي ستستخدمها مهمة Spark أثناء التشغيل على الحساب.
عدد الذاكرات الأساسية التي يجب استخدامها لعملية برنامج التشغيل، فقط في وضع نظام المجموعة.
مقدار الذاكرة التي يجب استخدامها لعملية برنامج التشغيل، منسقة كسلاسل ذات لاحقة وحدة حجم ("k"، "m"، "g" أو "t") (على سبيل المثال، "512m"، "2g").
مقدار الذاكرة التي يجب استخدامها لكل عملية منفذ، منسقة كسلاسل ذات لاحقة وحدة حجم ("k"، "m"، "g" أو "t") (على سبيل المثال، "512m"، "2g").
ما إذا كنت تريد استخدام تخصيص الموارد الديناميكية، والذي يحجم عدد المنفذين المسجلين في هذا التطبيق لأعلى ولأسفل استنادا إلى حمل العمل.
الحد الأدنى لعدد المنفذين إذا تم تمكين التخصيص الديناميكي.
الحد الأعلى لعدد المنفذين إذا تم تمكين التخصيص الديناميكي.
قاموس مع مفتاح وقيم تكوينات Spark المعرفة مسبقا. الإعدادات الافتراضية إلى بلا.
- environment
- Optional[Union[str, Environment]]
بيئة التعلم الآلي من Microsoft Azure لتشغيل المهمة فيها.
تعيين أسماء الإدخال لإدخال البيانات المستخدمة في الوظيفة. الإعدادات الافتراضية إلى بلا.
تعيين أسماء الإخراج لإخراج البيانات المستخدمة في الوظيفة. الإعدادات الافتراضية إلى بلا.
- resources
- Optional[Union[dict, SparkResourceConfiguration]]
تكوين مورد الحساب للوظيفة.
المرتجعات
كائن Spark.
نوع الإرجاع
أمثلة
إنشاء مسار Spark باستخدام مصمم البنية الأساسية لبرنامج ربط العمليات التجارية DSL
from azure.ai.ml import Input, Output, dsl, spark
from azure.ai.ml.constants import AssetTypes, InputOutputModes
# define the spark task
first_step = spark(
code="/src",
entry={"file": "add_greeting_column.py"},
py_files=["utils.zip"],
files=["my_files.txt"],
driver_cores=2,
driver_memory="1g",
executor_cores=1,
executor_memory="1g",
executor_instances=1,
inputs=dict(
file_input=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT)
),
args="--file_input ${{inputs.file_input}}",
resources={"instance_type": "standard_e4s_v3", "runtime_version": "3.2.0"},
)
second_step = spark(
code="/src",
entry={"file": "count_by_row.py"},
jars=["scala_project.jar"],
files=["my_files.txt"],
driver_cores=2,
driver_memory="1g",
executor_cores=1,
executor_memory="1g",
executor_instances=1,
inputs=dict(
file_input=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT)
),
outputs=dict(output=Output(type="uri_folder", mode=InputOutputModes.DIRECT)),
args="--file_input ${{inputs.file_input}} --output ${{outputs.output}}",
resources={"instance_type": "standard_e4s_v3", "runtime_version": "3.2.0"},
)
# Define pipeline
@dsl.pipeline(description="submit a pipeline with spark job")
def spark_pipeline_from_builder(data):
add_greeting_column = first_step(file_input=data)
count_by_row = second_step(file_input=data)
return {"output": count_by_row.outputs.output}
pipeline = spark_pipeline_from_builder(
data=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT),
)
Azure SDK for Python