مشاركة عبر


أمثلة على استدلال واجهة برمجة التطبيقات بدون خادم لنماذج Foundry (الكلاسيكي)

ينطبق فقط على:بوابة Foundry (كلاسيكية). هذه المقالة غير متاحة لبوابة Foundry الجديدة. تعرف على المزيد حول البوابة الجديدة.

ملحوظة

بعض الروابط في هذا المقال قد تفتح محتوى في وثائق Microsoft Foundry الجديدة بدلا من وثائق Foundry (الكلاسيكية) التي تشاهدها الآن.

يقدم كتالوج نماذج Foundry مجموعة كبيرة من نماذج Microsoft Foundry من مجموعة واسعة من المزودين. لديك خيارات مختلفة لنشر النماذج من كتالوج النموذج. تسرد هذه المقالة أمثلة الاستدلال لعمليات نشر واجهة برمجة التطبيقات بلا خادم.

مهم

يتم وضع علامة على النماذج الموجودة في المعاينة كمعاينة على بطاقات النموذج الخاصة بها في كتالوج النموذج.

لإجراء الاستدلال باستخدام النماذج، تتطلب بعض النماذج مثل TimeGEN-1 من Nixtla وإعادة ترتيب Cohere استخدام واجهات برمجة التطبيقات المخصصة من موفري النماذج. يدعم آخرون الاستدلال باستخدام واجهة برمجة تطبيقات الاستدلال Model Inference API. يمكنك العثور على مزيد من التفاصيل حول النماذج الفردية من خلال مراجعة بطاقات النماذج الخاصة بهم في كتالوج model الخاص ب Foundry portal.

Cohere

تتضمن مجموعة النماذج Cohere نماذج مختلفة محسنة لحالات الاستخدام المختلفة، بما في ذلك إعادة التشغيل وإكمال الدردشة ونماذج التضمين.

أمثلة الاستدلال: أمر Cohere وتضمينه

يوفر الجدول التالي ارتباطات لأمثلة حول كيفية استخدام نماذج Cohere.

وصف اللغة‬ عينة
طلبات الويب باش Command-RCommand-R+
cohere-embed.ipynb
حزمة Azure AI Inference for C#‎ C#‎ Link
حزمة Azure AI Inference for JavaScript JavaScript Link
حزمة Azure AI Inference for Python Python Link
OpenAI SDK (تجريبي) Python Link
LangChain Python Link
كوهير SDK Python الأمر
Embed
حزمة تطوير LiteLLM Python Link

يستخدم الجيل المعزز الاسترجاعي (RAG) والأدوات عينات: أمر Cohere وتضمينه

وصف الحِزم عينة
إنشاء فهرس متجهات بحث التشابه في Facebook الذكاء الاصطناعي (FAISS)، باستخدام Cohere embeddings - Langchain langchain، langchain_cohere cohere_faiss_langchain_embed.ipynb
استخدام Cohere Command R/R+ للإجابة عن الأسئلة من البيانات في فهرس متجه FAISS المحلي - Langchain langchain، langchain_cohere command_faiss_langchain.ipynb
استخدام Cohere Command R/R+ للإجابة عن الأسئلة الواردة من البيانات في الذكاء الاصطناعي فهرس متجه البحث - Langchain langchain، langchain_cohere cohere-aisearch-langchain-rag.ipynb
استخدام Cohere Command R/R+ للإجابة على الأسئلة الواردة من البيانات في الذكاء الاصطناعي فهرس متجه البحث - Cohere SDK cohere، azure_search_documents cohere-aisearch-rag.ipynb
Command R+ tool/function calling، باستخدام LangChain cohere، ، langchainlangchain_cohere command_tools-langchain.ipynb

إعادة ترتيب Cohere

لإجراء الاستدلال باستخدام نماذج إعادة ترتيب Cohere، يجب عليك استخدام واجهات برمجة تطبيقات إعادة الترتيب المخصصة ل Cohere. لمزيد من المعلومات حول نموذج إعادة ترتيب كوهير وقدراته، انظر Cohere rerank.

تسعير نماذج إعادة ترتيب Cohere

الاستعلامات، التي لا يجب الخلط بينها وبين استعلام المستخدم، هي مقياس تسعير يشير إلى التكلفة المرتبطة بالرموز المميزة المستخدمة كمدخل للاستدلال على نموذج Cohere Rerank. تحسب Cohere وحدة بحث واحدة كتعلام مع ما يصل إلى 100 مستند ليتم تصنيفها. المستندات الأطول من 500 رمز مميز (ل Cohere-rerank-v3.5) أو أطول من 4096 رمزا مميزا (ل Cohere-rerank-v3-English و Cohere-rerank-v3-multilingual) عند تضمين طول استعلام البحث مقسمة إلى مجموعات متعددة، حيث يتم حساب كل مجموعة كمستند واحد.

انظر مجموعة نماذج Cohere في Foundry portal.

Core42

يوفر الجدول التالي ارتباطات لأمثلة حول كيفية استخدام نماذج Jais.

وصف اللغة‬ عينة
حزمة Azure AI Inference for C#‎ C#‎ Link
حزمة Azure AI Inference for JavaScript JavaScript Link
حزمة Azure AI Inference for Python Python Link

DeepSeek

تتضمن عائلة DeepSeek من النماذج DeepSeek-R1، والتي تتفوق في مهام التفكير باستخدام عملية تدريب خطوة بخطوة، مثل اللغة والاستدلال العلمي ومهام الترميز و DeepSeek-V3-0324 ونموذج لغة مزيج من الخبراء (MoE) والمزيد.

يوفر الجدول التالي ارتباطات لأمثلة حول كيفية استخدام نماذج DeepSee.

وصف اللغة‬ عينة
حزمة Azure AI Inference for Python Python Link
حزمة Azure AI Inference for JavaScript JavaScript Link
حزمة Azure AI Inference for C#‎ C#‎ Link
حزمة Azure AI Inference for Java Java Link

Meta

نماذج وأدوات Meta Llama هي مجموعة من نماذج إنشاء الذكاء الاصطناعي النصوص والصور المدربة مسبقا والمضبطة بدقة. نطاق نماذج التعريف هو مقياس لتضمين:

  • نماذج اللغات الصغيرة (SLMs) مثل 1B و3B Base ونماذج Instruct للاستدلال على الجهاز والحافة
  • نماذج لغة كبيرة متوسطة الحجم (LLMs) مثل نماذج 7B و8B و70B Base and Instruct
  • نماذج عالية الأداء مثل Meta Llama 3.1-405B Instruct لإنشاء البيانات الاصطناعية وحالات استخدام التقطير.
  • نماذج متعددة الوسائط عالية الأداء في الأصل، Llama 4 Scout و Llama 4 Maverick، تستفيد من بنية مزيج من الخبراء لتقديم أداء رائد في الصناعة في فهم النص والصور.

يوفر الجدول التالي روابط لأمثلة حول كيفية استخدام نماذج Meta Llama.

وصف اللغة‬ عينة
طلب CURL باش Link
حزمة Azure AI Inference for C#‎ C#‎ Link
حزمة Azure AI Inference for JavaScript JavaScript Link
حزمة Azure AI Inference for Python Python Link
طلبات ويب Python Python Link
OpenAI SDK (تجريبي) Python Link
LangChain Python Link
LiteLLM Python Link

Microsoft

تتضمن نماذج Microsoft مجموعات نماذج مختلفة مثل نماذج MAI ونماذج Phi ونماذج الذكاء الاصطناعي الرعاية الصحية والمزيد. لرؤية جميع نماذج مايكروسوفت المتاحة، يمكنك عرض مجموعة نماذج مايكروسوفت في بوابة Foundry.

يوفر الجدول التالي ارتباطات لأمثلة حول كيفية استخدام نماذج Microsoft.

وصف اللغة‬ عينة
حزمة Azure AI Inference for C#‎ C#‎ Link
حزمة Azure AI Inference for JavaScript JavaScript Link
حزمة Azure AI Inference for Python Python Link
LangChain Python Link
Llama-Index Python Link

انظر مجموعة نماذج مايكروسوفت في Foundry portal.

الذكاء الاصطناعي ميسترال

تقدم الذكاء الاصطناعي الميسترالية فئتين من النماذج، وهما:

  • النماذج المتميزة: تشمل نماذج Mistral Large و Mistral Small و Mistral-OCR-2503 و Mistral Medium 3 (25.05) و Ministral 3B، وتتوفر كواجهات برمجة تطبيقات بلا خادم مع الفوترة المستندة إلى الرمز المميز للدفع أولا بأول.
  • النماذج المفتوحة: تتضمن هذه النماذج Mistral-small-2503 و Codestral و Mistral Nemo (المتوفرة كواجهات برمجة تطبيقات بلا خادم مع فوترة قائمة على الرمز المميز للدفع أولا بأول) و Mixtral-8x7B-Instruct-v01 و Mixtral-8x7B-v01 و Mistral-7B-v01 (المتوفرة للتنزيل والتشغيل على نقاط النهاية المدارة المستضافة ذاتيا).

يوفر الجدول التالي روابط لأمثلة حول كيفية استخدام نماذج ميسترال.

وصف اللغة‬ عينة
طلب CURL باش Link
حزمة Azure AI Inference for C#‎ C#‎ Link
حزمة Azure AI Inference for JavaScript JavaScript Link
حزمة Azure AI Inference for Python Python Link
طلبات ويب Python Python Link
OpenAI SDK (تجريبي) Python Mistral - عينة OpenAI SDK
LangChain Python Mistral - عينة LangChain
الذكاء الاصطناعي ميسترال Python Mistral - نموذج الذكاء الاصطناعي mistral
LiteLLM Python Mistral - عينة LiteLLM

Nixtla

يعد TimeGEN-1 من Nixtla نموذجا تنبؤيا مدربا مسبقا على الإنشاء واكتشاف الحالات الشاذة لبيانات السلاسل الزمنية. يمكن أن ينتج TimeGEN-1 تنبؤات دقيقة للسلسلة الزمنية الجديدة دون تدريب، وذلك باستخدام القيم التاريخية والكوفاريات الخارجية فقط كمدخلات.

لإجراء الاستدلال، يتطلب منك TimeGEN-1 استخدام واجهة برمجة تطبيقات الاستدلال المخصصة من Nixtla. لمزيد من المعلومات حول نموذج TimeGEN-1 وقدراته، راجع Nixtla.

تقدير عدد الرموز المميزة المطلوبة

قبل إنشاء توزيع TimeGEN-1، من المفيد تقدير عدد الرموز المميزة التي تخطط لاستهلاكها وفواتيرها. يتوافق رمز مميز واحد مع نقطة بيانات واحدة في مجموعة بيانات الإدخال أو مجموعة بيانات الإخراج.

لنفترض أن لديك مجموعة بيانات سلسلة وقت الإدخال التالية:

Unique_id Timestamp المتغير المستهدف متغير غير متجانس 1 متغير غير متجانس 2
BE 2016-10-22 00:00:00 70.00 49593.0 57253.0
BE 2016-10-22 01:00:00 37.10 46073.0 51887.0

لتحديد عدد الرموز المميزة، اضرب عدد الصفوف (في هذا المثال، اثنان) وعدد الأعمدة المستخدمة للتنبؤ - دون حساب أعمدة unique_id والطابع الزمني (في هذا المثال، ثلاثة) للحصول على ما مجموعه ستة رموز مميزة.

نظرا لمجموعة بيانات الإخراج التالية:

Unique_id Timestamp المتغير الهدف المتوقع
BE 2016-10-22 02:00:00 46.57
BE 2016-10-22 03:00:00 48.57

يمكنك أيضا تحديد عدد الرموز المميزة عن طريق حساب عدد نقاط البيانات التي تم إرجاعها بعد التنبؤ بالبيانات. في هذا المثال، عدد الرموز المميزة هو اثنان.

تقدير التسعير استنادا إلى الرموز المميزة

هناك أربعة عدادات تسعير تحدد السعر الذي تدفعه. هذه العدادات هي كما يلي:

مقياس التسعير وصف
paygo-inference-input-tokens التكاليف المقترنة بالرموز المميزة المستخدمة كمدخل للاستدلال عند finetune_steps = 0
paygo-inference-output-tokens التكاليف المقترنة بالرموز المميزة المستخدمة كإخراج للاستدلال عند finetune_steps = 0
paygo-finetuned-model-inference-input-tokens التكاليف المقترنة بالرموز المميزة المستخدمة كمدخل للاستدلال عند finetune_steps> 0
paygo-finetuned-model-inference-output-tokens التكاليف المرتبطة بالرموز المميزة المستخدمة كإخراج للاستدلال عند finetune_steps> 0

انظر مجموعة نماذج Nixtla في Foundry portal.

الذكاء الاصطناعي للاستقرار

الاستقرار الذكاء الاصطناعي النماذج الموزعة عبر نشر واجهة برمجة التطبيقات بلا خادم تنفذ واجهة برمجة تطبيقات الاستدلال النموذجي على المسار /image/generations. للحصول على أمثلة حول كيفية استخدام نماذج الذكاء الاصطناعي الاستقرار، راجع الأمثلة التالية:

جريتيل نافيجيتور

تستخدم Gretel Navigator بنية الذكاء الاصطناعي المركبة المصممة خصيصا للبيانات التركيبية ، من خلال الجمع بين أفضل نماذج اللغات الصغيرة مفتوحة المصدر (SLMs) المضبوطة بدقة عبر أكثر من 10 مجالات صناعية. ينشئ هذا النظام المصمم لهذا الغرض مجموعات بيانات متنوعة خاصة بالمجال على نطاقات من مئات إلى ملايين الأمثلة. كما يحافظ النظام على العلاقات الإحصائية المعقدة ويوفر زيادة السرعة والدقة مقارنة بإنشاء البيانات اليدوية.

وصف اللغة‬ عينة
حزمة Azure AI Inference for JavaScript JavaScript Link
حزمة Azure AI Inference for Python Python Link