تدريب نموذج الفسيفساء الذكاء الاصطناعي للنماذج الأساسية
هام
هذه الميزة موجودة في المعاينة العامة في المناطق التالية: centralus
وeastus2
eastus
northcentralus
.westus
باستخدام Mosaic الذكاء الاصطناعي Model Training (المعروف سابقا ب Foundation Model Training)، يمكنك استخدام بياناتك الخاصة لتخصيص نموذج أساسي لتحسين أدائه لتطبيقك المحدد. من خلال إجراء ضبط كامل للمعلمات أو التدريب المستمر لنموذج أساسي، يمكنك تدريب النموذج الخاص بك باستخدام بيانات ووقت وموارد حساب أقل بكثير من تدريب نموذج من البداية.
مع Databricks لديك كل شيء في نظام أساسي واحد: بياناتك الخاصة لاستخدامها للتدريب، والنموذج الأساسي للتدريب، ونقاط التحقق المحفوظة في MLflow، والنموذج المسجل في كتالوج Unity وجاهز للتوزيع.
راجع البرنامج التعليمي: إنشاء وتوزيع تشغيل تدريب نموذج الفسيفساء الذكاء الاصطناعي لمعرفة كيفية إنشاء تشغيل باستخدام واجهة برمجة تطبيقات تدريب نموذج الفسيفساء الذكاء الاصطناعي، ثم مراجعة النتائج ونشر النموذج باستخدام واجهة مستخدم Databricks والفسيفساء الذكاء الاصطناعي خدمة النموذج.
ما هو تدريب نموذج الفسيفساء الذكاء الاصطناعي؟
يتيح لك تدريب نموذج الفسيفساء الذكاء الاصطناعي استخدام واجهة برمجة تطبيقات Databricks أو واجهة المستخدم لضبط نموذج أساسي أو تدريبه بشكل أكبر.
باستخدام تدريب نموذج الذكاء الاصطناعي الفسيفساء، يمكنك:
- تدريب نموذج باستخدام بياناتك المخصصة، مع نقاط التحقق المحفوظة في MLflow. يمكنك الاحتفاظ بالتحكم الكامل في النموذج المدرب.
- تسجيل النموذج تلقائيا في كتالوج Unity، ما يسمح بالنشر السهل مع خدمة النموذج.
- قم بتدريب نموذج كامل مملوك عن طريق تحميل أوزان نموذج مدرب مسبقا.
توصي Databricks بتجربة تدريب نموذج الفسيفساء الذكاء الاصطناعي إذا:
- لقد جربت القليل من التعلم وتريد نتائج أفضل.
- لقد جربت الهندسة السريعة على نموذج موجود وتريد نتائج أفضل.
- تريد الملكية الكاملة على نموذج مخصص لخصوصية البيانات.
- أنت حساس لزمن الانتقال أو حساس للتكلفة وتريد استخدام نموذج أصغر وأرخص مع البيانات الخاصة بالمهمة.
المهام المدعومة
يدعم تدريب نموذج الفسيفساء الذكاء الاصطناعي حالات الاستخدام التالية:
- إكمال الدردشة: المهمة الموصى بها. تدريب النموذج الخاص بك على سجلات الدردشة بين مستخدم ومساعد الذكاء الاصطناعي. يمكن استخدام هذا التنسيق لكل من سجلات الدردشة الفعلية، وكتهيئة قياسية للإجابة على الأسئلة ونص المحادثة. يتم تنسيق النص تلقائيا في التنسيق المناسب للنموذج المحدد. راجع مثال قوالب الدردشة في وثائق HuggingFace للحصول على مزيد من المعلومات حول القالب.
- الضبط الدقيق الخاضع للإشراف: تدريب النموذج الخاص بك على بيانات الاستجابة السريعة المنظمة. استخدم هذا لتكييف النموذج الخاص بك مع مهمة جديدة، أو تغيير نمط الاستجابة الخاص به، أو إضافة قدرات اتباع التعليمات. لا تطبق هذه المهمة تلقائيا أي تنسيق على بياناتك، ويوصى بها فقط عند الحاجة إلى تنسيق بيانات مخصص.
- التدريب المسبق المستمر: تدريب النموذج الخاص بك باستخدام بيانات نصية إضافية. استخدم هذا لإضافة معرفة جديدة إلى نموذج أو تركيز نموذج على مجال معين.
المتطلبات
- مساحة عمل Databricks في إحدى مناطق Azure التالية:
centralus
أوeastus
northcentralus
eastus2
westus
. - تم تثبيت واجهات برمجة تطبيقات تدريب نموذج الفسيفساء الذكاء الاصطناعي باستخدام
pip install databricks_genai
. - Databricks Runtime 12.2 LTS ML أو أعلى إذا كانت بياناتك في جدول Delta.
راجع إعداد البيانات لنموذج الذكاء الاصطناعي الفسيفساء للحصول على معلومات حول تنسيقات بيانات الإدخال المطلوبة.
حجم البيانات الموصى به لتدريب النموذج
توصي Databricks بالتدريب في البداية باستخدام فترة واحدة إلى أربع فترات. بعد تقييم النموذج الذي تم ضبطه بدقة، إذا كنت تريد أن تكون مخرجات النموذج أكثر تشابها مع بيانات التدريب الخاصة بك، يمكنك البدء في متابعة التدريب باستخدام فترة واحدة إلى فترين إضافيتين.
إذا انخفض أداء النموذج بشكل كبير في المهام غير الممثلة في بيانات الضبط الدقيقة الخاصة بك، أو إذا بدا أن النموذج يقوم بإخراج نسخ دقيقة من بيانات الضبط الدقيقة الخاصة بك، توصي Databricks بتقليص عدد فترات التدريب.
للضبط الدقيق الخاضع للإشراف وإكمال الدردشة، يجب توفير رموز مميزة كافية لطول سياق كامل واحد على الأقل للنموذج. على سبيل المثال، 4096 رمزا مميزا ل meta-llama/Llama-2-7b-chat-hf
أو 32768 رمزا مميزا ل mistralai/Mistral-7B-v0.1
.
للحصول على التدريب المسبق المستمر، توصي Databricks بحد أدنى 1.5 مليون رمز مميز للحصول على نموذج عالي الجودة يتعلم بياناتك المخصصة.
النماذج المدعومة
يسرد الجدول التالي النماذج المدعومة. للحصول على أحدث النماذج المدعومة وأطوال السياق المقترنة بها، استخدم الدالة get_models()
.
from databricks.model_training import foundation_model
foundation_model.get_models()
هام
تم ترخيص Meta Llama 3.2 بموجب ترخيص مجتمع LLAMA 3.2، ومنصة Meta لحقوق النشر ©، وشركة. كافة الحقوق محفوظة. يتحمل العملاء مسؤولية ضمان امتثالهم لشروط هذا الترخيص ونهج الاستخدام المقبول ل Llama 3.2.
تم ترخيص Meta Llama 3.1 بموجب ترخيص مجتمع LLAMA 3.1، ومنصة Meta لحقوق النشر ©، وشركة. كافة الحقوق محفوظة. يتحمل العملاء مسؤولية ضمان الامتثال لتراخيص النموذج المعمول بها.
تم ترخيص Llama 3 بموجب ترخيص مجتمع LLAMA 3، ومنصة Meta ل حقوق النشر ©، وشركة. كافة الحقوق محفوظة. يتحمل العملاء مسؤولية ضمان الامتثال لتراخيص النموذج المعمول بها.
يتم ترخيص نماذج Llama 2 و Code Llama بموجب ترخيص مجتمع LLAMA 2 و Copyright © Meta Platforms و Inc. كافة الحقوق محفوظة. يتحمل العملاء مسؤولية ضمان الامتثال لتراخيص النموذج المعمول بها.
يتم توفير DBRX بموجب وتخضع لترخيص Databricks Open Model، Copyright © Databricks، Inc. كافة الحقوق محفوظة. يتحمل العملاء مسؤولية ضمان الامتثال لتراخيص النموذج المعمول بها، بما في ذلك نهج الاستخدام المقبول ل Databricks.
النموذج | الحد الأقصى لطول السياق | ملاحظات |
---|---|---|
databricks/dbrx-base |
32768 | |
databricks/dbrx-instruct |
32768 | |
meta-llama/Llama-3.2-1B |
131072 | |
meta-llama/Llama-3.2-1B-Instruct |
131072 | |
meta-llama/Llama-3.2-3B |
131072 | |
meta-llama/Llama-3.2-3B-Instruct |
131072 | |
meta-llama/Meta-Llama-3.1-405B |
131072 | |
meta-llama/Meta-Llama-3.1-405B-Instruct |
131072 | |
meta-llama/Meta-Llama-3.1-70B |
131072 | |
meta-llama/Meta-Llama-3.1-70B-Instruct |
131072 | |
meta-llama/Meta-Llama-3.1-8B |
131072 | |
meta-llama/Meta-Llama-3.1-8B-Instruct |
131072 | |
meta-llama/Meta-Llama-3-70B |
8192 | بعد 13 ديسمبر 2024، لن يتم دعم هذا النموذج بعد الآن. راجع النماذج المتوقفة للاستبدال الموصى به. |
meta-llama/Meta-Llama-3-70B-Instruct |
8192 | بعد 13 ديسمبر 2024، لن يتم دعم هذا النموذج بعد الآن. راجع النماذج المتوقفة للاستبدال الموصى به. |
meta-llama/Meta-Llama-3-8B |
8192 | بعد 13 ديسمبر 2024، لن يتم دعم هذا النموذج بعد الآن. راجع النماذج المتوقفة للاستبدال الموصى به. |
meta-llama/Meta-Llama-3-8B-Instruct |
8192 | بعد 13 ديسمبر 2024، لن يتم دعم هذا النموذج بعد الآن. راجع النماذج المتوقفة للاستبدال الموصى به. |
meta-llama/Llama-2-7b-hf |
4096 | بعد 13 ديسمبر 2024، لن يتم دعم هذا النموذج بعد الآن. راجع النماذج المتوقفة للاستبدال الموصى به. |
meta-llama/Llama-2-13b-hf |
4096 | بعد 13 ديسمبر 2024، لن يتم دعم هذا النموذج بعد الآن. راجع النماذج المتوقفة للاستبدال الموصى به. |
meta-llama/Llama-2-70b-hf |
4096 | بعد 13 ديسمبر 2024، لن يتم دعم هذا النموذج بعد الآن. راجع النماذج المتوقفة للاستبدال الموصى به. |
meta-llama/Llama-2-7b-chat-hf |
4096 | بعد 13 ديسمبر 2024، لن يتم دعم هذا النموذج بعد الآن. راجع النماذج المتوقفة للاستبدال الموصى به. |
meta-llama/Llama-2-13b-chat-hf |
4096 | بعد 13 ديسمبر 2024، لن يتم دعم هذا النموذج بعد الآن. راجع النماذج المتوقفة للاستبدال الموصى به. |
meta-llama/Llama-2-70b-chat-hf |
4096 | بعد 13 ديسمبر 2024، لن يتم دعم هذا النموذج بعد الآن. راجع النماذج المتوقفة للاستبدال الموصى به. |
codellama/CodeLlama-7b-hf |
16384 | بعد 13 ديسمبر 2024، لن يتم دعم هذا النموذج بعد الآن. راجع النماذج المتوقفة للاستبدال الموصى به. |
codellama/CodeLlama-13b-hf |
16384 | بعد 13 ديسمبر 2024، لن يتم دعم هذا النموذج بعد الآن. راجع النماذج المتوقفة للاستبدال الموصى به. |
codellama/CodeLlama-34b-hf |
16384 | بعد 13 ديسمبر 2024، لن يتم دعم هذا النموذج بعد الآن. راجع النماذج المتوقفة للاستبدال الموصى به. |
codellama/CodeLlama-7b-Instruct-hf |
16384 | بعد 13 ديسمبر 2024، لن يتم دعم هذا النموذج بعد الآن. راجع النماذج المتوقفة للاستبدال الموصى به. |
codellama/CodeLlama-13b-Instruct-hf |
16384 | بعد 13 ديسمبر 2024، لن يتم دعم هذا النموذج بعد الآن. راجع النماذج المتوقفة للاستبدال الموصى به. |
codellama/CodeLlama-34b-Instruct-hf |
16384 | بعد 13 ديسمبر 2024، لن يتم دعم هذا النموذج بعد الآن. راجع النماذج المتوقفة للاستبدال الموصى به. |
codellama/CodeLlama-7b-Python-hf |
16384 | بعد 13 ديسمبر 2024، لن يتم دعم هذا النموذج بعد الآن. راجع النماذج المتوقفة للاستبدال الموصى به. |
codellama/CodeLlama-13b-Python-hf |
16384 | بعد 13 ديسمبر 2024، لن يتم دعم هذا النموذج بعد الآن. راجع النماذج المتوقفة للاستبدال الموصى به. |
codellama/CodeLlama-34b-Python-hf |
16384 | بعد 13 ديسمبر 2024، لن يتم دعم هذا النموذج بعد الآن. راجع النماذج المتوقفة للاستبدال الموصى به. |
mistralai/Mistral-7B-v0.1 |
32768 | |
mistralai/Mistral-7B-Instruct-v0.2 |
32768 | |
mistralai/Mixtral-8x7B-v0.1 |
32768 |
استخدام تدريب نموذج الذكاء الاصطناعي الفسيفساء
يمكن الوصول إلى تدريب نموذج الفسيفساء الذكاء الاصطناعي باستخدام databricks_genai
SDK. يقوم المثال التالي بإنشاء وتشغيل تشغيل تدريب يستخدم البيانات من وحدات تخزين كتالوج Unity. راجع إنشاء تشغيل تدريب باستخدام واجهة برمجة تطبيقات تدريب نموذج الفسيفساء الذكاء الاصطناعي للحصول على تفاصيل التكوين.
from databricks.model_training import foundation_model as fm
model = 'meta-llama/Meta-Llama-3.1-8B-Instruct'
# UC Volume with JSONL formatted data
train_data_path = 'dbfs:/Volumes/main/mydirectory/ift/train.jsonl'
register_to = 'main.mydirectory'
run = fm.create(
model=model,
train_data_path=train_data_path,
register_to=register_to,
)
راجع دفتر الملاحظات التجريبي للضبط الدقيق للتعليمات: التعرف على الكيان المسمى للحصول على مثال لضبط التعليمات الذي يستعرض إعداد البيانات وتكوين تشغيل التدريب الدقيق ونشره.
القيود
مجموعات البيانات الكبيرة (10B+ الرموز المميزة) غير مدعومة بسبب توفر الحساب.
للتدريب المسبق المستمر، تقتصر أحمال العمل على ملفات 60-256 ميغابايت. قد تتسبب الملفات التي يزيد حجمها عن 1 غيغابايت في أوقات معالجة أطول.
تسعى Databricks جاهدة لجعل أحدث النماذج الحديثة متاحة للتخصيص باستخدام تدريب نموذج الفسيفساء الذكاء الاصطناعي. مع توفر نماذج جديدة، قد تتم إزالة القدرة على الوصول إلى النماذج القديمة من واجهة برمجة التطبيقات أو واجهة المستخدم، أو قد يتم إهمال النماذج القديمة، أو تحديث النماذج المدعومة. راجع نهج صيانة نماذج الذكاء الاصطناعي التوليدية.
يدعم تدريب نموذج الفسيفساء الذكاء الاصطناعي فقط تدريب النموذج لمساحات عمل Azure باستخدام التخزين خلف Private Link.
- يتم حاليا دعم قراءة البيانات فقط من التخزين خلف Private Link في
eastus2
.
- يتم حاليا دعم قراءة البيانات فقط من التخزين خلف Private Link في
إذا كان لديك جدران حماية ممكنة على حساب Azure Data Lake Storage الذي يخزن بياناتك في كتالوج Unity، فأنت بحاجة إلى السماح بنسبة استخدام الشبكة من مجموعات مستوى البيانات بلا خادم Databricks من أجل استخدام تدريب نموذج الذكاء الاصطناعي الفسيفساء. تواصل مع فريق حساب Databricks للحصول على مزيد من المعلومات والحلول المخصصة الممكنة.