لم يعد روبوت DeepSeek مجرد اسم عابر في عالم الذكاء الاصطناعي، بل أصبح حديث
الجميع بعد أن تصدّر متاجر التطبيقات متجاوزًا حتى
ChatGPT الشهير، مما أدى إلى اضطرابات ملحوظة في الأسواق المالية العالمية. في مقال سابق،
تناولنا بالتفصيل كل شيء عن DeepSeek والضجة التي أثارها، والتي لا تعود فقط إلى كونه يوازي أحدث النماذج
الرائدة من OpenAI و Meta و Google مع تكلفة تشغيل أقل بما يكسر قواعد
المألوف، بل أيضًا لكونه نموذجًا
مفتوح المصدر
بالكامل يمكن تحميله وتثبيته على الكمبيوتر حتى يتم تشغيله بشكل محلي دون الحاجة
إلى استخدامه عبر الإنترنت. ورغم أن DeepSeek ليس أول نموذج مفتوح المصدر،
فإن إصداره R1 يعد الأقوى على الإطلاق ضمن هذه الفئة، إذ يُعادل
نماذج مثل o1
و Claude 3.5 Sonnet. لذلك دعونا نستعرض في السطور التالية كيفية تحميل
وتشغيل DeepSeek محليًا بسهولة، مما يضمن لك تحكمًا كاملاً في بياناتك وخصوصية
محادثاتك.
تشغيل DeepSeek بدون إنترنت
مزايا تشغيل DeepSeek محليًا
تعتمد روبوتات الذكاء الاصطناعي الشهيرة مثل ChatGPT وCopilot وGemini وClaude
على خوادم الشركات المطورة لها، حيث تُعالَج بيانات المستخدمين في مراكز بيانات
بعيدة، يقع معظمها في الولايات المتحدة. هذه البيانات (المحادثات) قد يتم
الاحتفاظ بها واستخدامها لأغراض تجارية دون علمك. ولا يُعد DeepSeek استثناءً،
إذ تشير سياسة الاستخدام والخصوصية الخاصة به إلى أن البيانات تُخزَّن في مراكز
تقع داخل الصين.
هنا تبرز أهمية نماذج الذكاء الاصطناعي اللغوية مفتوحة المصدر، فهي لا تمنح
المطورين القدرة على تعديلها واستنساخها بحرية فحسب، بل تتيح تشغيل روبوتات
الدردشة محليًا وفقًا لاحتياجات المستخدم، دون الحاجة إلى اتصال بالإنترنت. هذا
الأمر كفيل أن يضمن حماية البيانات الحساسة من الإرسال إلى مراكز بيانات
خارجية، مما يحمي معلوماتك الشخصية من أي تسريب أو مراقبة غير مرغوبة.
إضافةً إلى ذلك، يؤدي تشغيل النموذج على الجهاز مباشرة إلى تقليل زمن الاستجابة
مقارنة بالخدمات السحابية، حيث يُلغى التأخير الناجم عن الاتصال بالخوادم
البعيدة، مما يجعل تجربة التفاعل مع الروبوت أكثر سرعة وسلاسة.
كما لا تحتاج إلى القلق بشأن تعطل النموذج أو توقفه المؤقت، حيث سيبقى
الروبوت يعمل على جهازك في أي وقت تحتاج إليه. يمكنك أيضًا تعديله أو تدريبه على
بياناتك الخاصة، مما يمنحك مرونة أكبر في التحكم في استجابته وتحسين أدائه وفقًا
لمتطلباتك. بوضع هذه النقاط في الاعتبار، إليك الخطوات اللازمة لتشغيل DeepSeek
R1 محليًا وبشكل مجاني تمامًا.
أسهل طريقة لتشغيل DeepSeek محليًا
نحتاج في أول خُطوة إلى تثبيت برنامج قادر على استضافة ومعالجة بيانات نماذج
الذكاء الاصطناعي محليًا. هناك خيارات كثيرة حاليًا لكن يبقى Ollama
المرشح الأفضل لكل المستخدمين. هذا البرنامج – مفتوح المصدر – يجعل من السهل
تثبيت وتشغيل نماذج الذكاء الاصطناعي اللغوية محليًا على أجهزة الكمبيوتر، سواء
كانت تعمل بنظام macOS أو لينكس وطبعًا نظام ويندوز. البرنامج لا يحتاج من
المستخدم ضبط أي إعدادات مُسبقة، حيث سيستخدم Ollama تلقائيًا موارد
الكمبيوتر المتاحة – مثل كارت الشاشة والرامات – ويوظفها بكفاءة لتشغيل
هذه النماذج. ولكن تظل سرعة الاستجابة والمعالجة معتمدة على قدرة حاسوبك.
على الرغم من أن اسم البرنامج مستوحى من نموذج "Meta Llama" الشهير، إلا أنه
يدعم تشغيل
العديد من النماذج الأخرى
مفتوحة المصدر، بما في ذلك DeepSeek R1 بإصداراته المختلفة. كل ما عليك فعله هو
تنزيل البرنامج من موقعه الرسمي وتثبيته عبر الضغط على زر "Install"، ثم إدخال
الأمر المناسب لتحميل النموذج المطلوب. يجدر بالذكر أن برنامج Ollama لا يوفر
واجهة مستخدم رسومية، بل يعتمد بالكامل على موجه الأوامر (CMD) للتفاعل مع
النماذج، ولكن هناك طرق لتجاوز هذا الأمر سنتناولها لاحقًا.
بعد الانتهاء من تثبيت البرنامج، توجه إلى صفحة
ollama.com/library/deepseek-r1
من خلال المتصفح على جهازك، ثم اضغط على القائمة المنسدلة بجانب "Tags" كما هو
موضح في الصورة أعلاه. ستجد في هذه القائمة "النماذج المُقطّرة" المتاحة من نموذج
التفكير المنطقي DeepSeek R1، حيث قدمت الشركة الصينية ستة نماذج مفتوحة المصدر
أصغر حجمًا بالإضافة إلى النموذج الأساسي، مع قدرات تتراوح بين 1.5 و70 مليار
متغير (Parameter)، بينما يحتوي النموذج الأساسي على 671 مليار متغير.
عمومًا الفكرة هنا أن النماذج الأكبر تعني ذكاءً اصطناعيًا أكثر مهارة،
ولكنها تحتاج في المقابل إلى قوة معالجة رسومية مذهلة. أي أن كل إصدار من هذه
النماذج يحتاج موارد حاسوبية خاصة، فمثلًا النماذج الكبيرة مثل 32B و 70B تتطلب
وجود بطاقات رسومية قوية، بينما النموذج الأساسي "671B" يحتاج خوادم فائقة مخصصة
لتشغيل النماذج اللغوية الضخمة. لذا، يُفضل البدء بتجربة النماذج الأصغر أولًا
لاختبار كيفية تعامل جهازك معها. ولا داعي للقلق، فحتى الإصدارات الصغيرة من
DeepSeek توفر أداءً قويًا في مختلف المهام. إذًا فبعد الاستقرار على النموذج
الذي تريد تشغيله محليًا، قم باختياره من القائمة وانسخ الامر اللازم لتحميله،
مثل "ollama run deepseek-r1:8b"
لتحميل نموذج Distill-Llama-8B المشتق من R1.
بعد نسخ الأمر، قم بتشغيل أداة موجه الأوامر (Command Prompt) على الويندوز بأي طريقة من الطرق التي قمنا باستعراضها من قبل إلا إن الطريقة الأسهل هي الضغط على مفتاحي Win + حرف S (سـ) معًا على الكيبورد لفتح شريط البحث ومن ثم أكتب "CMD" أو "Windows Terminal" في حال كنت تستخدم ويندوز 11، ثم من نتائج البحث اضغط على Open. وفي النافذة التي تظهر قم بلصق الأمر واضغط Enter. سيتولى برنامج Ollama عملية تنزيل نموذج الذكاء الاصطناعي والملفات اللازمة لتشغيله تلقائيًا، حيث سيظهر شريط يوضح تقدم عملية التنزيل، والتي قد تستغرق بعض الوقت. على سبيل المثال، عند تنزيل نموذج Distill-Llama-8B، سيحتاج البرنامج إلى تحميل حوالي 5 جيجابايت من البيانات، مما يجعل سرعة اتصالك بالإنترنت عاملًا مؤثرًا في مدة الانتظار.
بمجرد انتهاء التنزيل، سيعمل نموذج DeepSeek R1 بنسبة 100% على جهازك، مما يعني أنه يمكنك استخدامه حتى دون الحاجة إلى اتصال بالإنترنت. كل ما عليك فعله هو فتح موجه الأوامر وكتابة نفس الأمر الذي استخدمته لتنزيل النموذج – والذي في حالتنا هو ollama run deepseek-r1:8b – ولكن هذه المرة لن يتم تحميل أي ملفات، بل سيظهر لك مؤشر "Send a message" حيث يمكنك كتابة استفسارك والضغط Enter للحصول على الرد مباشرة داخل موجه الأوامر.
يمكنك أيضًا نسخ النصوص ولصقها باستخدام الماوس، تمامًا كما تفعل عند التعامل مع النموذج عبر المتصفح. ولكن بما إن DeepSeek R1 هو نموذج تفكير منطقي، فقد تلاحظ أن الاستجابة لا تظهر فورًا، بل سترى مؤشر "think/" الذي يشير إلى أن النموذج يقوم بتحليل الطلب وفهمه قبل تقديم الإجابة النهائية.
نظرًا لأن نموذج DeepSeek R1 – أو بالأحرى نسخته المصغرة – يعمل بالكامل على جهازك، فقد تلاحظ استهلاكًا عاليًا للموارد فور تشغيله عبر موجه الأوامر، ويزداد هذا الاستهلاك بشكل ملحوظ أثناء توليد الإجابات. كما هو موضح في الصورة أعلاه، يستهلك نموذج Distill-Llama-8B أثناء عملية إنشاء الرد حوالي 40% من قدرة المعالج الرسومي – في حالتنا هو RTX 3050 Ti – بالإضافة إلى أكثر من 3 جيجابايت من الرامات. يعكس هذا الاستهلاك كفاءة النموذج في إدارة الموارد، فهي أحد أبرز نقاط القوة لـ DeepSeek حاليًا. بشكل عام، يمكنك اختبار النماذج الأصغر أو الأكبر وفقًا لإمكانات جهازك لضمان أداء سلس واستجابة سريعة.
لكن تشغيل النموذج عبر موجه الأوامر لا يوفر تجربة مثالية، خصوصًا أن اللغة العربية غير مدعومة برمجيًا داخله، مما يعني أن المحادثات يجب أن تتم باللغة الإنجليزية فقط. بالإضافة إلى ذلك، فإن استدعاء النموذج من خلال CMD في كل مرة يعد أمرًا غير عملي، كما أن المحادثات لا يتم حفظها كما هو الحال في نسخة الويب. لحل هذه المشكلة، يمكن الاعتماد على أدوات توفر واجهة رسومية لتسهيل استخدام النموذج محليًا. من بين هذه الأدوات، نوصي ببرنامج Chatbox، نظرًا لما يقدمه من مرونة وسهولة في الاستخدام، بالإضافة إلى دعمه لأنظمة تشغيل متعددة، بما فيها ويندوز، وإمكانية استخدامه بلغات مختلفة، بما فيها العربية.
كل ما عليك فعله هو تحميل وتثبيت البرنامج على جهازك، ثم عند تشغيله لأول مرة ستظهر أمامك نافذة "الإعدادات" Settings وفي حال لم تظهر فأضغط على أيقونة الترس (⚙️) في الجانب الأيسر. بعد ذلك اضغط على قائمة "Model Provider" وحدد منها "OLLAMA API". لا داعي لتعديل أي إعدادات أخرى، فقط حدد اسم النموذج من قائمة "Model"، ثم اضغط على "Save".
وهكذا، يمكنك الآن الاستفادة من نموذج DeepSeek محليًا من خلال واجهة مستخدم مألوفة، حيث يمكنك إدخال استفساراتك أو طلباتك بأي لغة وستحصل على الإجابة – بعد انتهاء مرحلة التفكير – والتي يمكن تعديلها ونسخها أو طلب إعادة توليد الإجابة مرة أخرى. بالإضافة إلى ذلك، يمكنك إدراج الصور لاستخراج النصوص منها أو تضمين المستندات داخل المحادثة لطلب تلخيصها. في جميع الحالات، يعتمد النموذج على إمكانيات جهازك فقط، مما يتيح لك العمل دون الحاجة إلى اتصال بالإنترنت.