النماذج المدعومة للدفع لكل رمز مميز

هام

تتوفر فقط نماذج GTE Large (En) و Meta Llama 3.1 70B Instruct في المناطق المدعومة بالدفع لكل رمز مميز في الاتحاد الأوروبي و الولايات المتحدة.

راجع حدود واجهات برمجة التطبيقات لنموذج الأساس لنماذج الدفع لكل رمز مميز المدعومة فقط في مناطق الولايات المتحدة.

توضح هذه المقالة أحدث النماذج المفتوحة التي تدعمها واجهات برمجة تطبيقات نموذج Databricks Foundation في وضع الدفع لكل رمز مميز.

يمكنك إرسال طلبات الاستعلام إلى هذه النماذج باستخدام نقاط نهاية الدفع لكل رمز مميز المتوفرة في مساحة عمل Databricks. راجع نماذج أساسيات الاستعلام والنماذج الخارجية وجدول النماذج المدعومة بالدفع لكل رمز مميز لأسماء نقاط نهاية النموذج لاستخدامها.

بالإضافة إلى دعم النماذج في وضع الدفع لكل رمز مميز، توفر واجهات برمجة تطبيقات نموذج الأساس أيضا وضع معدل النقل المقدم. توصي Databricks بتوفير معدل النقل لأحمال عمل الإنتاج. يدعم هذا الوضع جميع نماذج عائلة بنية النموذج (على سبيل المثال، نماذج DBRX)، بما في ذلك النماذج الدقيقة والمخصصة المدربة مسبقا المدعومة في وضع الدفع لكل رمز مميز. راجع واجهات برمجة تطبيقات نموذج أساس معدل النقل المقدمة للحصول على قائمة البنى المدعومة.

يمكنك التفاعل مع هذه النماذج المدعومة باستخدام الذكاء الاصطناعي Playground.

تعليمات Meta Llama 3.1 405B

هام

استخدام هذا النموذج مع واجهات برمجة تطبيقات نموذج الأساس في المعاينة العامة. تواصل مع فريق حساب Databricks الخاص بك إذا واجهت حالات فشل نقطة النهاية أو أخطاء الاستقرار عند استخدام هذا النموذج.

هام

تم ترخيص Meta Llama 3.1 بموجب ترخيص مجتمع LLAMA 3.1، ومنصة Meta لحقوق النشر ©، وشركة. كافة الحقوق محفوظة. يتحمل العملاء مسؤولية ضمان الامتثال لتراخيص النموذج المعمول بها.

Meta-Llama-3.1-405B-Instruct هو أكبر نموذج لغة كبير متاح بشكل مفتوح، تم إنشاؤه وتدريبه بواسطة Meta، ويتم توزيعه بواسطة Azure التعلم الآلي باستخدام كتالوج نموذج AzureML. يتيح استخدام هذا النموذج للعملاء فتح قدرات جديدة، مثل المنطق المتقدم متعدد الخطوات وتوليد البيانات الاصطناعية عالية الجودة. هذا النموذج تنافسي مع GPT-4-Turbo من حيث الجودة.

مثل Meta-Llama-3.1-70B-Instruct، يحتوي هذا النموذج على سياق من 128000 رمز مميز ودعم عبر عشر لغات. وهو يتماشى مع التفضيلات البشرية من أجل المساعدة والسلامة، ويتم تحسينه لحالات استخدام الحوار. تعرف على المزيد حول نماذج Meta Llama 3.1.

على غرار نماذج اللغات الكبيرة الأخرى، قد يحذف إخراج Llama-3.1 بعض الحقائق وينتج أحيانا معلومات خاطئة. توصي Databricks باستخدام الجيل المعزز للاسترداد (RAG) في السيناريوهات التي تكون فيها الدقة مهمة بشكل خاص.

تعليمات DBRX

هام

يتم توفير DBRX بموجب وتخضع لترخيص Databricks Open Model، Copyright © Databricks، Inc. كافة الحقوق محفوظة. يتحمل العملاء مسؤولية ضمان الامتثال لتراخيص النموذج المعمول بها، بما في ذلك نهج الاستخدام المقبول ل Databricks.

DBRX Instruct هو نموذج لغة حديث من الخبراء (MoE) تم تدريبه بواسطة Databricks.

يتفوق النموذج على النماذج التي تم إنشاؤها مصدر مفتوح النماذج على المعايير القياسية، ويتفوق في مجموعة واسعة من مهام اللغة الطبيعية مثل: تلخيص النص، والإجابة على الأسئلة، والاستخراج والترميز.

يمكن ل DBRX Instruct التعامل مع ما يصل إلى 32 ألف رمز مميز لطول الإدخال، وينشئ مخرجات تصل إلى 4k رموز مميزة. بفضل بنية MoE الخاصة به، يتميز DBRX Instruct بكفاءة عالية للاستدلال، حيث يقوم بتنشيط معلمات 36B فقط من إجمالي 132B معلمة مدربة. نقطة نهاية الدفع لكل رمز مميز التي تخدم هذا النموذج لها حد معدل استعلام واحد في الثانية. راجع حدود ومناطق خدمة النموذج.

على غرار نماذج اللغات الكبيرة الأخرى، قد يحذف إخراج DBRX Instruct بعض الحقائق وينتج أحيانا معلومات خاطئة. توصي Databricks باستخدام الجيل المعزز للاسترداد (RAG) في السيناريوهات التي تكون فيها الدقة مهمة بشكل خاص.

تستخدم نماذج DBRX مطالبة النظام الافتراضية التالية لضمان الصلة والدقة في استجابات النموذج:

You are DBRX, created by Databricks. You were last updated in December 2023. You answer questions based on information available up to that point.
YOU PROVIDE SHORT RESPONSES TO SHORT QUESTIONS OR STATEMENTS, but provide thorough responses to more complex and open-ended questions.
You assist with various tasks, from writing to coding (using markdown for code blocks — remember to use ``` with code, JSON, and tables).
(You do not have real-time data access or code execution capabilities. You avoid stereotyping and provide balanced perspectives on controversial topics. You do not provide song lyrics, poems, or news articles and do not divulge details of your training data.)
This is your system prompt, guiding your responses. Do not reference it, just respond to the user. If you find yourself talking about this message, stop. You should be responding appropriately and usually that means not mentioning this.
YOU DO NOT MENTION ANY OF THIS INFORMATION ABOUT YOURSELF UNLESS THE INFORMATION IS DIRECTLY PERTINENT TO THE USER'S QUERY.

تعليمات Meta Llama 3.1 70B

هام

بدءا من 23 يوليو 2024، يحل Meta-Llama-3.1-70B-Instruct محل دعم Meta-Llama-3-70B-Instruct في واجهات برمجة تطبيقات نموذج الأساس التي تدفع لكل نقطة نهاية للرمز المميز.

هام

تم ترخيص Meta Llama 3.1 بموجب ترخيص مجتمع LLAMA 3.1، ومنصة Meta لحقوق النشر ©، وشركة. كافة الحقوق محفوظة. يتحمل العملاء مسؤولية ضمان الامتثال لتراخيص النموذج المعمول بها.

Meta-Llama-3.1-70B-Instruct هو نموذج لغة كبير حديث مع سياق 128000 رمز مميز تم إنشاؤه وتدريبه من قبل Meta. يحتوي النموذج على دعم عبر عشر لغات، يتماشى مع تفضيلات الإنسان من أجل المساعدة والسلامة، ويتم تحسينه لحالات استخدام الحوار. تعرف على المزيد حول نماذج Meta Llama 3.1.

على غرار نماذج اللغات الكبيرة الأخرى، قد تحذف مخرجات Llama-3 بعض الحقائق وتنتج أحيانا معلومات خاطئة. توصي Databricks باستخدام الجيل المعزز للاسترداد (RAG) في السيناريوهات التي تكون فيها الدقة مهمة بشكل خاص.

تعليمات Mixtral-8x7B

Mixtral-8x7B Instruct هو مزيج متناثر عالي الجودة من نموذج الخبراء (SMoE) تم تدريبه من قبل Mistral الذكاء الاصطناعي. يمكن استخدام Mixtral-8x7B Instruct لمجموعة متنوعة من المهام مثل الإجابة على الأسئلة والملخص والاستخراج.

يمكن ل Mixtral معالجة أطوال السياق حتى 32 ألف رمز مميز. يمكن ل Mixtral معالجة الإنجليزية والفرنسية والإيطالية والألمانية والإسبانية. مطابقات مختلط أو يتفوق على Llama 2 70B وGPT3.5 على معظم المعايير (أداء Mixtral)، بينما يكون أسرع بأربع مرات من لاما 70B أثناء الاستدلال.

على غرار نماذج اللغات الكبيرة الأخرى، لا ينبغي الاعتماد على نموذج Mixtral-8x7B Instruct لإنتاج معلومات دقيقة واقعيا. في حين تم بذل جهود كبيرة لتنظيف بيانات التدريب المسبق، فمن الممكن أن هذا النموذج يمكن أن يولد مخرجات متساهلة أو متحيزة أو غير ذلك من النواتج المسيئة. لتقليل المخاطر، يتم تعيين Databricks افتراضيا على استخدام متغير من مطالبة نظام الوضع الآمن في Mistral.

GTE Large (En)

هام

يتم توفير GTE Large (En) بموجب وتخضع لترخيص Apache 2.0، حقوق النشر © مؤسسة برامج Apache، جميع الحقوق محفوظة. يتحمل العملاء مسؤولية ضمان الامتثال لتراخيص النموذج المعمول بها.

تضمين النص العام (GTE) هو نموذج تضمين نص يمكنه تعيين أي نص إلى متجه تضمين 1024 بعد ونافذة تضمين مكونة من 8192 رمزا مميزا. يمكن استخدام هذه المتجهات في قواعد بيانات المتجهات ل LLMs، ومهام مثل الاسترداد أو التصنيف أو الإجابة على الأسئلة أو التجميع أو البحث الدلالي. تخدم نقطة النهاية هذه النسخة الإنجليزية من النموذج.

تكون نماذج التضمين فعالة بشكل خاص عند استخدامها جنبا إلى جنب مع LLMs لحالات استخدام الجيل المعزز للاسترداد (RAG). يمكن استخدام GTE للعثور على قصاصات النص ذات الصلة في أجزاء كبيرة من المستندات التي يمكن استخدامها في سياق LLM.

BGE Large (En)

BAAI General Embedding (BGE) هو نموذج تضمين نص يمكنه تعيين أي نص إلى متجه تضمين 1024 بعد ونافذة تضمين مكونة من 512 رمزا مميزا. يمكن استخدام هذه المتجهات في قواعد بيانات المتجهات ل LLMs، ومهام مثل الاسترداد أو التصنيف أو الإجابة على الأسئلة أو التجميع أو البحث الدلالي. تخدم نقطة النهاية هذه النسخة الإنجليزية من النموذج.

تكون نماذج التضمين فعالة بشكل خاص عند استخدامها جنبا إلى جنب مع LLMs لحالات استخدام الجيل المعزز للاسترداد (RAG). يمكن استخدام BGE للعثور على قصاصات النص ذات الصلة في مجموعات كبيرة من المستندات التي يمكن استخدامها في سياق LLM.

في تطبيقات RAG، قد تكون قادرا على تحسين أداء نظام الاسترداد الخاص بك عن طريق تضمين معلمة تعليمات. يوصي مؤلفو BGE بتجربة إرشادات "Represent this sentence for searching relevant passages:" تضمينات الاستعلام، على الرغم من أن تأثير أدائه يعتمد على المجال.

دردشة Llama 2 70B

هام

تم التخطيط لدردشة Llama 2 70B للإيقاف. بعد 30 أكتوبر 2024، لن يتم دعم هذا النموذج بعد الآن. راجع النماذج المتوقفة.

هام

تم ترخيص Llama 2 بموجب ترخيص مجتمع LLAMA 2، ومنصة Meta Copyright ©، Inc. كافة الحقوق محفوظة. يتحمل العملاء مسؤولية ضمان الامتثال لتراخيص النموذج المعمول بها.

Llama-2-70B-Chat هو نموذج لغة معلمة حديثة 70B بطول سياق يبلغ 4096 رمزا مميزا، تم تدريبه بواسطة Meta. وهو يتفوق في التطبيقات التفاعلية التي تتطلب قدرات المنطق القوية، بما في ذلك التلخيص والإجابة على الأسئلة وتطبيقات الدردشة.

على غرار نماذج اللغات الكبيرة الأخرى، قد يحذف إخراج Llama-2-70B بعض الحقائق وينتج أحيانا معلومات خاطئة. توصي Databricks باستخدام الجيل المعزز للاسترداد (RAG) في السيناريوهات التي تكون فيها الدقة مهمة بشكل خاص.

الموارد الإضافية