مقدمة
يمكن لنماذج اللغة الكبيرة الإجابة على الأسئلة، تلخيص المحتوى، وتوليد نصوص. لكنهم يعرفون فقط ما تعلموه أثناء التدريب. اسأل عن منتجات شركتك، أو طلبات العملاء، أو المكونات المتوافقة، ولا يوجد جواب مفيد للنموذج. يحل التوليد المعزز الاسترجاعي (RAG) هذه المشكلة من خلال منح النموذج وصولا إلى بياناتك في وقت الاستعلام. بدلا من أن تأمل أن يعرف النموذج كتالوج منتجاتك، تقوم باسترجاع المنتجات ذات الصلة من قاعدة بياناتك وتضمينها في الطلب. ثم يولد النموذج استجابة مبنية على معلومات فعلية وحديثة.
يحافظ RAG على معالجة الذكاء الاصطناعي داخل طبقة قاعدة البيانات، حيث توجد بياناتك بالفعل. هذا النهج يتجنب نقل البيانات بين الأنظمة ويسمح لك باستخدام Transact-SQL للتحكم في السياق الذي يتلقاه النموذج. والنتيجة هي تطبيق يمكنه الإجابة على أسئلة محددة باستخدام معلومات حقيقية up-toتاريخ من جداولك.
تخيل فريق بيع بالتجزئة يبني تطبيق دعم عملاء فوق قاعدة بيانات منتج. يسأل أحد الزبائن: "أي القفازات تناسب ركوب الدراجات في الطقس البارد؟" يحتاج التطبيق إلى البحث في كتالوج المنتجات، والعثور على ملحقات مطابقة، وتوليد رد مفيد باستخدام نموذج اللغة الكبيرة. هذا السير هو RAG أثناء العمل: استرجاع البيانات ذات الصلة، تعزيز التوجيه بتلك البيانات، وتوليد استجابة موصولة. من خلال بناء هذا السير في SQL، يحافظ الفريق على خطوة الاسترجاع بالقرب من البيانات ويتجنب بناء خدمة استرجاع منفصلة.
بعد الانتهاء من هذه الوحدة النمطية، ستتمكن من:
- حدد متى يكون RAG هو النهج الصحيح لطلبك.
- تحويل نتائج استعلام SQL إلى JSON لمعالجة نماذج اللغة الكبيرة (LLM).
- قم بإنشاء محفزات تجمع بين التعليمات وسياق قاعدة البيانات.
- اتصل بنقاط نهاية نماذج اللغة الكبيرة من SQL.
- تحليل ردود LLM وإرجاع الإجابات على طلبك.