نظرة عامة على المطالبات

تشرح هذه المقالة الهندسة السريعة والمفاهيم الأساسية الأخرى لمساعدتك في إنشاء تطبيقات قوية يمكنها إنشاء نص من إدخال (موجه).

المطالبة هي تعليمات باللغة الطبيعية تخبر نموذج اللغة الكبير (LLM) بأداء مهمة. تُعرف العملية أيضًا باسم ضبط التعليمات. يتبع النموذج الموجه لتحديد بنية ومحتوى النص الذي يحتاج إلى إنشائه. الهندسة السريعة هي عملية إنشاء وتحسين الموجه الذي يستخدمه النموذج.

AI Builder يوفر منشئًا سريعًا يسمح للصانعين بكتابة المطالبات واختبارها وحفظها واستخدامها لإنشاء نص.

مهم

المتطلبات

  • لديك فهم أساسي لكيفية كتابة المطالبات.
  • البيئة الخاصة بك موجودة في قائمة المناطق المتاحة.
  • لديك Power Apps او Power Automate ترخيص.
  • قاعدةبيانات Microsoft Dataverse يتم تثبيته على البيئة.
  • لديك إضافة AI Builder .

ما هو الموجه وكيفية استخدامه

يمكنك التفكير في المطالبة كمهمة أو هدف تقوم امنحه لنموذج اللغة الكبيرة (LLM). باستخدام أداة إنشاء المطالبات، يمكنك إنشاء مطالباتك المخصصة واختبارها وحفظها. يمكنك أيضا استخدام متغيرات الإدخال لتوفير بيانات سياق ديناميكية في وقت التشغيل. يمكنك مشاركة هذه المطالبات مع الآخرين واستخدامها في Power Automate, Power Apps, او Copilot Studio. على سبيل المثال، يمكنك Power Automate إرسال مطالبة لاختيار عناصر الإجراء من رسائل البريد الإلكتروني الخاصة بالشركة واستخدامها في تدفق لإنشاء التنفيذ التلقائي لمعالجة البريد الإلكتروني.

ويمكن منشئ المطالبات صناع الأعمال من ابتكار موجهات مخصصة تلبي احتياجات أعمالهم الخاصة باستخدام لغة طبيعية. يمكن استخدام هذه المطالبات للعديد من المهام أو سيناريوهات العمل، مثل تلخيص المحتوى أو تصنيف البيانات أو استخراج الكيانات أو ترجمة اللغات أو تقييم الشعور أو تلقي استجابة للشكوى.

يمكن دمج المطالبات في عمليات التشغيل التلقائي لبناء التنفيذ التلقائي الذكي للتسليم. كما يمكن للصانع بناء قدرات الذكاء الاصطناعي متقدمة على تطبيقاتهم من خلال وصفها كمطالب بلغات طبيعية. ويمكن استخدام هذه المطالبات لتوسيع نطاق المساعد المخصص، وبالتالي تبسيط العمليات التجارية اليومية وتعزيز الكفاءة."

الإشراف البشري

إن الإشراف البشري عبارة عن خطوة مهمة في التعامل مع المحتوى الذي يتم إنشاؤه من نموذج GPT. يتم تدريب نماذج اللغات الكبيرة مثل GPT على كميات كبيرة من البيانات. بإمكان المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي أن يحتوي على أخطاء وتحيزات. ويجب على الإنسان مراجعته قبل نشره عبر الإنترنت أو إرساله إلى العميل أو استخدامه لاتخاذ قرارات العمل الصائبة. ولا يساعد الإشراف البشري على تحديد الأخطاء المحتملة والتحيزات فحسب، بل يساعد أيضًا في التأكد المحتوى وثيق الصلة بحالة الاستخدام المقصودة ويتوافق مع قيم الشركة.

يمكن أن تساعد المراجعة البشرية أيضًا في تحديد أي مشكلات تتعلق بنموذج GPT نفسه. على سبيل المثال، إذا كان النموذج ينشئ محتوى غير ذي صلة بحالة الاستخدام المقصودة، فقد تحتاج إلى تعديل المطالبة.

الذكاء الاصطناعي المسؤول

نحن ملتزمون بإنشاء ذكاء اصطناعي مسؤول بشكل مقصود. يخضع عملنا لإرشادات مجموعة أساسية من المبادئ وهي: العدالة والموثوقية والسلامة والخصوصية والأمان والشمولية والشفافية والمساءلة. نحن نضع هذه المبادئ موضع التنفيذ في كل أقسام الشركة لتطوير ونشر الذكاء الاصطناعي الذي له تأثير إيجابي على المجتمع. ونحن نتبع نهجًا شاملاً، يجمع بين البحث المبتكر والهندسة الاستثنائية والحوكمة المسؤولة. إلى جانب البحث الرائد لخدمة OpenAI حول التوافق مع الذكاء الاصطناعي، نحن تعمل على تطوير إطار عمل للنشر الآمن لتقنيات الذكاء الاصطناعي الخاصة بنا والتي تهدف إلى المساعدة في توجيه الصناعة نحو نتائج أكثر مسؤولية.

تعرف على المزيد حول الشفافية في Azure OpenAI Service