تشغيل الذكاء الاصطناعي محليًا على ماك ميني M4
باستخدام Ollama و OpenWebUI و N8N


مقدمة
مع التقدم الكبير في الذكاء الاصطناعي، أصبحت النماذج اللغوية الضخمة (LLMs) مثل ChatGPT و Gemini و Claude أدوات أساسية في العديد من المجالات، ولكن المشكلة الأساسية هي أنها تتطلب اتصالاً دائمًا بالإنترنت وغالبًا ما تكون مدفوعة. فماذا لو كنت تريد تشغيل نموذج ذكاء اصطناعي على جهازك الخاص، بدون الحاجة للإنترنت، وبدون دفع اشتراكات شهرية؟
في هذا المقال، سنتعلم كيفية تشغيل نماذج الذكاء الاصطناعي محليًا على جهاز ماك ميني M4 باستخدام:
- Ollama: منصة لتشغيل نماذج الذكاء الاصطناعي محليًا.
- OpenWebUI: واجهة مستخدم للتحكم في النماذج بسهولة.
- N8N: أداة أتمتة لإنشاء "وكلاء ذكاء اصطناعي" ينفذون المهام تلقائيًا.
سنستعرض بالتفصيل كيفية تثبيت هذه الأدوات وربطها معًا لإنشاء بيئة ذكاء اصطناعي متكاملة تعمل على جهازك المحلي بسرعة وأمان. بنهاية المقال، ستكون قادرًا على تشغيل الذكاء الاصطناعي محليًا بالكامل، بدون أي اشتراكات، مع سرعة أكبر وخصوصية تامة!
1️⃣ تثبيت Ollama على ماك ميني M4
ما هو Ollama؟
Ollama هي منصة تسمح لك بتشغيل نماذج الذكاء الاصطناعي محليًا على جهازك. الميزة الأساسية هنا هي أنه يعمل مباشرة على الجهاز، بدون الحاجة للإنترنت أو الاعتماد على سيرفرات خارجية. كما يوفر إمكانية تشغيل نماذج متعددة بأداء سريع نسبيًا نظرًا لاستغلاله لقدرات العتاد المحلي، مما يجعله خيارًا مثاليًا لمحبي الذكاء الاصطناعي الذين يهتمون بالخصوصية والأمان.
طريقة تثبيت Ollama
1. افتح متصفح الإنترنت وانتقل إلى الموقع الرسمي لـ Ollama:
2. اضغط على زر التحميل (Download) للحصول على النسخة المناسبة لنظام macOS.
3. بعد تحميل الملف، قم بتشغيله واتبع تعليمات التثبيت.
4. بعد التثبيت، افتح Terminal وتأكد أن Ollama يعمل بكتابة الأمر التالي:
4️⃣ تشغيل N8N - أتمتة الذكاء الاصطناعي وإنشاء وكلاء ذكيين
N8N هي أداة أتمتة قوية تمكنك من إنشاء وكلاء ذكاء اصطناعي يقومون بمهام تلقائية، مثل استخراج المعلومات، تحليل البيانات، وإرسال الإشعارات، وربط أدوات الذكاء الاصطناعي بمصادر بيانات متعددة لإنشاء حلول ذكية متكاملة.
🔹 أمثلة على الاستخدامات:
- إنشاء روبوت يراقب البريد الإلكتروني ويرد تلقائيًا.
- استخراج البيانات من مواقع الأخبار وتلخيصها باستخدام الذكاء الاصطناعي.
- جدولة المهام وإرسال الإشعارات بناءً على تحليل البيانات.
إذا ظهر رقم الإصدار فهذا يعني أن التثبيت قد تم بنجاح، ويمكنك الانتقال للخطوة التالية.
2️⃣ تحميل نماذج الذكاء الاصطناعي على Ollama
بعد تثبيت Ollama، يمكنك الآن تحميل وتشغيل نماذج الذكاء الاصطناعي المختلفة.
كيفية تحميل نموذج ذكاء اصطناعي؟
1. افتح Terminal واكتب الأمر التالي لتحميل موديل ذكاء اصطناعي مثل Llama 3:
أو لتحميل موديل DeepSeek R1، يمكنك استخدام الأمر:
2. بعد انتهاء التحميل، يمكنك تشغيل النموذج والتفاعل معه مباشرة باستخدام الأمر التالي:
يمكنك تجربة النماذج المختلفة ومعرفة مدى استجابتها وأدائها مقارنة بالنماذج السحابية، حيث يعتمد الأداء على قوة المعالج والذاكرة المتاحة على جهازك.
3️⃣ تشغيل OpenWebUI - واجهة المستخدم لإدارة الذكاء الاصطناعي
ما هو OpenWebUI؟
هو عبارة عن واجهة رسومية تمكنك من التفاعل مع النماذج بسهولة بدلًا من كتابة الأوامر في Terminal. هذا يعني أنه يمكنك التحدث مع النماذج كما تفعل في ChatGPT، ولكن على جهازك الخاص!
تشغيل OpenWebUI عبر Portainer Stacks
افتح Portainer وانتقل إلى Stacks.
أنشئ Stack جديدًا وأضف الكود التالي:
💡 الخاتمة: لماذا تشغيل الذكاء الاصطناعي محليًا فكرة عبقرية؟
✅ خصوصية كاملة – بياناتك تظل على جهازك ولا يتم إرسالها للخوادم السحابية.
✅ بدون اشتراكات – لا تحتاج لدفع 20$ شهريًا لاستخدام ChatGPT Plus.
✅ سرعة أعلى – استجابة أسرع لأن البيانات لا تمر عبر الإنترنت.
✅ إمكانية التخصيص – يمكنك تجربة نماذج مختلفة بسهولة.
تشغيل N8N عبر Portainer Stacks
افتح Portainer وانتقل إلى Stacks.
أنشئ Stack جديدًا وأضف الكود التالي: