إشعار
يتطلب الوصول إلى هذه الصفحة تخويلاً. يمكنك محاولة تسجيل الدخول أو تغيير الدلائل.
يتطلب الوصول إلى هذه الصفحة تخويلاً. يمكنك محاولة تغيير الدلائل.
توضح هذه المقالة كيفية التأكد من توفر ملف النموذج وتبعيات البيانات الاصطناعية على نموذجك الذي يخدم مع نقطة نهاية Azure Databricks .
المتطلبات
MLflow 1.29 وما فوق
حزمة البيانات الاصطناعية مع النماذج
عندما يتطلب النموذج الخاص بك ملفات أو بيانات اصطناعية أثناء الاستدلال، يمكنك حزمها في البيانات الاصطناعية للنموذج عند تسجيل النموذج.
إذا كنت تعمل مع دفاتر ملاحظات Azure Databricks، فمن الممارسات الشائعة أن تكون هذه الملفات موجودة في وحدات تخزين كتالوج Unity. يتم تكوين النماذج أيضا في بعض الأحيان لتنزيل البيانات الاصطناعية من الإنترنت (مثل HuggingFace Tokenizers). أداء أحمال العمل في الوقت الحقيقي على نطاق واسع أفضل عند تسجيل جميع التبعيات المطلوبة بشكل ثابت في وقت النشر. لهذا السبب، تتطلب خدمة النموذج حزم عناصر وحدات تخزين كتالوج Unity في البيانات الاصطناعية للنموذج نفسه باستخدام واجهات MLflow. يجب حزم البيانات الاصطناعية للشبكة المحملة بالنموذج مع النموذج كلما أمكن ذلك.
باستخدام الأمر MLflow log_model() يمكنك تسجيل نموذج والبيانات الاصطناعية التابعة له باستخدام المعلمة artifacts .
mlflow.pyfunc.log_model(
...
artifacts={'model-weights': "/Volumes/catalog/schema/volume/path/to/file", "tokenizer_cache": "./tokenizer_cache"},
...
)
في نماذج PyFunc، يمكن الوصول إلى مسارات هذه البيانات الاصطناعية من context الكائن ضمن context.artifacts، ويمكن تحميلها بالطريقة القياسية لنوع الملف هذا.
على سبيل المثال، في نموذج MLflow مخصص:
class ModelPyfunc(mlflow.pyfunc.PythonModel):
def load_context(self, context):
self.model = torch.load(context.artifacts["model-weights"])
self.tokenizer = transformers.BertweetTokenizer.from_pretrained("model-base", local_files_only=True, cache_dir=context.artifacts["tokenizer_cache"])
...
بعد حزم الملفات والبيانات الاصطناعية داخل البيانات الاصطناعية للنموذج الخاص بك، يمكنك تقديم النموذج الخاص بك إلى نقطة نهاية خدمة النموذج.