الجميع الآن يتحدث عن الذكاء الاصطناعي وتقنياته التي أصبحت تُستخدم في معظم، إن
لم يكن كل المجالات. أنت فكّر بنفسك وحاول أن تجد مجالًا محوريًا
لا يمكن للذكاء الاصطناعي
أن يتدخل فيه وأخبرنا إن وجدت! بدايةً من
القطاع الطبي
وحتى المحاماة وصناعة السيارات، أصبح
الذكاء الاصطناعي عنصرًا أساسيًا
ليس فقط على مستوى تحسين بعض الجوانب، بل حتى في اتخاذ القرارات. لكن، على الرغم
من دور الذكاء الاصطناعي الذي لا يمكن الاستغناء عنه، فإن هناك جندي مجهول يعمل
في الخفاء ويبذل كل نواة – حرفيًا – في سبيل نجاح العمليات الحسابية المعقدة ولا
ينال قدره من الإشادة، وهذا الجندي المجهول هو
البطاقة الرسومية
أو كارت الشاشة.
كروت شاشة والذكاء الاصطناعي
بماذا تتميز المعالجات الرسومية ؟
المعالج الرسومي، أو البطاقة الرسومية، أو كارت الشاشة (GPU) كلها مُصطلحات تشير
إلى تلك القطعة الإلكترونية التي تم تصميمها بالأساس لعرض الصور والفيديوهات على
أجهزة الكمبيوتر، لكنها سرعان ما تطورت وأصبح لها دور كبير في مجالات أكثر
تقدمًا، على رأسها مجال الذكاء الاصطناعي. على عكس المعالج المركزي (CPU) الذي
يتعامل مع المهام العامة في الكمبيوتر، يتميز كارت الشاشة بالقدرة على تنفيذ آلاف
المهام في نفس الوقت فيما يُعرف بالمعالجة المتوازية (Parallel Processing).
هذا النوع من المعالجة يجعل كروت الشاشة حجر الأساس لتطبيقات الذكاء الاصطناعي
وتعلّم الآلة وذلك لأنها – تطبيقات الذكاء الاصطناعي – تعتمد بشكل كبير على إجراء
عمليات حسابية ضخمة ومعقدة آلاف أو حتى ملايين المرات في نفس الوقت، وهذا ما تبرع
فيه البطاقات الرسومية كما أشرنا. الحقيقة المختصرة هي أنه
لولا وجود كروت الشاشة، لما رأينا شيئًا اسمه الذكاء الاصطناعي.
لماذا لا نستخدم المعالجات المركزية؟
أجبنا على هذا السؤال بشكلٍ سريع مُسلطين الضوء على الفكرة العامة لأهمية كروت
الشاشة مقارنةً بالمعالجات المركزية وهي المعالجة المتوازية. لكن بعيدًا عن هذه
الفكرة، لماذا تُعد كروت الشاشة أساس مجال الذكاء الاصطناعي وليس المعالجات
المركزية؟
حسنًا، أولًا، على عكس المعالجات المركزية التي تملك عددًا محدودًا من الأنوية
(لدرجة أن 16 نواة يكون رقمًا كبيرًا جدًا) وتستغرق وقتًا طويلًا لإتمام
العمليات، فإن كروت الشاشة تحوي مئات أو آلاف الأنوية الصغيرة المُصممة خصيصًا
للعمل بشكلٍ متوازٍ، بالتالي تكون مثالية للمهام التي تتطلب حسابات ضخمة
ومتوازية، مثل الذكاء الاصطناعي.
النقطة الثانية هي أن كروت الشاشة تتمتع بقدرة كبيرة على نقل البيانات بسرعة بين
الذاكرة وشريحة المعالجة، وهذه واحدة من أكثر الخصائص التي تُميز كارت الشاشة عن
المعالج المركزي. بشكلٍ عملي، تتجلى أهمية هذه الميزة عندما نستخدم تطبيقات مثل
ChatGPT أو غيره من نماذج الذكاء الاصطناعي ويأتينا الرد على استفساراتنا سريعًا؛
قد تظن أن هذه مهمة سهلة، لكنها في الواقع تتطلب موارد رسومية ضخمة، خاصةً إذا
كان الطلب أو الخدمة التي تحتاجها مُعقدة.
ثالثًا، عند تطوير مشاريع الذكاء الاصطناعي، يستخدم المبرمجون أُطرًا
(Frameworks) جاهزة مثل
TensorFlow و
PyTorch و
Keras لتسهيل بناء النماذج
وتدريبها. هذه الأطر لا تُجبر المطوّر على كتابة المعادلات الرياضية أو التعامل
يدويًا مع تفاصيل العمليات الحسابية المعقدة، بل توفر أدوات جاهزة لذلك. الميزة
المهمة هنا هي أن هذه الأطر مصممة للاستفادة تلقائيًا من قدرات كروت الشاشة، دون
أن يحتاج المطوّر إلى إعدادات معقدة. بمجرد أن يكون هناك كارت شاشة متوفر على
الجهاز، تتولى الأطر توجيه العمليات الحسابية إليه لتُنفَّذ بشكل أسرع، مما يُقلل
بشكل كبير من وقت التدريب.
الجدير بالذكر أن كروت الشاشة القوية التي تُستخدم في مجال الذكاء الاصطناعي
تكلفتها باهظة، لكن لحسن الحظ أن ذلك لم يعد يُشكل عائقًا حيث أتاحت الخدمات
السحابية مثل
Google Cloud و
Microsoft Azure و
AWS إمكانية استئجار
خوادم افتراضية عبر الإنترنت تحتوي على كروت شاشة قوية مما يعفي المطورين من
التفكير في مشاكل البنية التحتية وتدبير القطع باهظة الثمن.
أشهر كروت الشاشة المخصصة للذكاء الاصطناعي
تزداد شهرة كروت الشاشة الموجهة للذكاء الاصطناعي يومًا تلو الآخر، ومن أشهر هذه
الكروت نجد بطاقة NVIDIA A100 المخصصة لمراكز البيانات والمُصممة لتلبية احتياجات
الذكاء الاصطناعي والحوسبة عالية الأداء (HPC). تحتوي هذه البطاقة على عددٍ ضخم من
الأنوية كما تتمتع بمميزات قوية مثل تقنية MIG التي تتيح "تقسيمها" إلى أجزاء
مستقلة بحيث يمكن استخدامها من قِبل عدة مستخدمين أو تطبيقات في نفس الوقت دون أن
يؤثر أحدهم على الآخر، بمعنى أنك تستطيع تشغيل 5 نماذج مثلًا على جهازٍ واحد وكل
جهاز يحصل على حصته من كارت الشاشة دون أن يؤثر أو يتأثر ببقية التطبيقات وما
تستهلكه من موارد.
نفس الشيء ينطبق على بطاقة الـ H100 التي تُعتبر الجيل الأحدث لبطاقة الـ A100،
حيث تقدم أداءً أعلى بكثير خصوصًا مع النماذج الأكثر تطلبًا. أما من ناحية AMD،
فهناك الـ MI250 من سلسلة Instinct والتي تُعد من الخيارات الصاعدة في مجال
الذكاء الاصطناعي. تم تصميم هذه البطاقة خصيصًا لمراكز البيانات، حيث تدعم معدل
نقل ضخم يناسب أحمال التعلم العميق.
هناك أيضًا الـ RTX 5090 والـ RTX 4090؛ نعم كروت الشاشة الموجهة بالأصل لعامة
المستخدمين. تُبلي هذه الكروت بلاءً حسنًا في تطبيقات الذكاء الاصطناعي والدليل
على ذلك أنها تستهلك كمية كبيرة من الطاقة، ناهيك أن تصديرها بكميات كبيرة لبعض
الدول، وتحديدًا الصين، ممنوع.
أخيرًا، وعلى الرغم من أنها ليست بطاقة رسومية بالمعنى التقليدي، فإن وحدات تنسور TPU (Tensor Processing Units) التي طورتها جوجل تستحق الذكر، حيث تُستخدم في
تدريب الكثير من أنظمة الذكاء الاصطناعي بسهولة وكفاءة، وكذلك بتكلفة أقل وذلك
لأنها تُستخدم عبر خوادم جوجل السحابية.