الحلقة

تشغيل نماذج الذكاء الاصطناعي على جهازك المحلي باستخدام Ollama (الجزء 5 من 10)

مع Yohan Lasorsa

تعرف على كيفية دمج نماذج الذكاء الاصطناعي المحلية بسلاسة في سير عمل التطوير باستخدام Ollama. سترى كيفية تنزيل نماذج الذكاء الاصطناعي القوية وتشغيلها والتفاعل معها على جهازك، والحفاظ على التوافق مع واجهة برمجة تطبيقات OpenAI. سنستكشف عائلة نموذج Phi-3 ونكتشف كيف يمكنك استخدامها لإنشاء نماذج أولية وتجربة تطبيقات الذكاء الاصطناعي.

الفصول

  • 00:00 - مقدمة إلى نماذج الذكاء الاصطناعي المحلية
  • 00:12 - فوائد استخدام النماذج المحلية
  • 00:52 - نظرة عامة على Phi-3 Model Family
  • 01:30 - مقدمة إلى أولاما
  • 02:10 - تثبيت Ollama وتنزيل النماذج
  • 03:10 - تشغيل واجهة مستخدم باستخدام Ollama
  • 04:20 - استخدام واجهة برمجة تطبيقات HTTP من Ollama
  • 05:50 - ميزات واجهة برمجة التطبيقات المتوافقة مع OpenAI
  • 06:40 - الخطوات التالية مع Ollama وPhi-3