Yantronic Technology
الذكاء الاصطناعي الطرفي

وحدة المعالجة الرسومية مقابل المركزية للذكاء الاصطناعي الطرفي: بنية الأجهزة للاستنتاج

يتطلب الذكاء الاصطناعي الطرفي بنيات حوسبة محددة. اكتشف لماذا غالباً ما يكون عرض نطاق الذاكرة (GB/s) أكثر أهمية من ذروة TOPS، وكيفية الاختيار بين تسريع x86 و ARM.

تاريخ النشر

٧ أبريل ٢٠٢٦

مدة القراءة

12 دقيقة للقراءة

مصدر المحتوى

AR

وحدة المعالجة الرسومية مقابل المركزية للذكاء الاصطناعي الطرفي: بنية الأجهزة للاستنتاج

ملخص الدليل

الذكاء الاصطناعي الطرفي

معايير اختيار، وسياق ميداني، وملاحظات نشر عملية لفرق العتاد الصناعي.

خلاصة سريعة

إجابة سريعة

تعد وحدة المعالجة المركزية (CPU) مثالية للمنطق المتسلسل منخفض التأخير وهي مناسبة للاستنتاج الخفيف (1-2 تدفق لنماذج منخفضة الدقة). أما وحدة المعالجة الرسومية (GPU) فهي محرك متوازٍ ضخم يحتوي على الآلاف من أنوية التنسور (Tensor Cores)، المصممة للتعلم العميق عالي الإنتاجية. بالنسبة لـ محولات الرؤية (ViT) الحديثة أو فحص الجودة عالي السرعة (30+ إطار في الثانية)، يلزم وجود GPU مخصص أو وحدة معالجة عصبية (NPU)، ويرجع ذلك أساسًا إلى أنها توفر عرض نطاق الذاكرة (GB/s) اللازم لنقل أوزان النماذج الكبيرة إلى وحدات الحساب.

أدى انتقال الذكاء الاصطناعي من السحابة إلى أرض المصنع إلى خلق "فجوة حوسبة". فأجهزة الأتمتة القياسية مصممة للمنطق المتسلسل، بينما يعتمد استنتاج الذكاء الاصطناعي على عمليات حسابية ضخمة ومتكررة للمصفوفات.

يؤدي اختيار الأجهزة الخاطئة لـ الذكاء الاصطناعي الطرفي (Edge AI) إلى "سقوط الإطارات" في الرؤية الآلية أو حمل حراري مفرط يؤدي إلى اختناق النظام. يوفر هذا الدليل مقارنة معمارية لمحركات الاستنتاج الحديثة.

المعماريات: ما وراء الاختصارات

لتصميم نظام موثوق، يجب على المهندسين فهم كيفية معالجة هذه المكونات فعليًا لـ "التنسور" (Tensor - مصفوفة بيانات متعددة الأبعاد).

1. CPU: الوزن الثقيل للمنطق المتسلسل

تتضمن وحدات المعالجة المركزية الصناعية الحديثة (مثل الجيل 13 من Intel) تعليمات مثل AVX-512 و AMX (Advanced Matrix Extensions).

  • الواقع: على الرغم من قوتها، لا تزال وحدة CPU تعالج البيانات في "دفعات" صغيرة. وهي ممتازة للمعالجة المسبقة (تغيير حجم الصور، التطبيع) قبل تسليم الحسابات الثقيلة إلى وحدة GPU.
  • أفضل استخدام: 1-2 تدفق لنموذج YOLOv8-tiny أو عد الكائنات في الخدمات اللوجستية.

2. GPU: محركات المصفوفات المتوازية

تستخدم معماريات Ampere و Blackwell من NVIDIA أنوية تنسور متخصصة يمكنها إجراء عمليات ضرب مصفوفات $4 \times 4$ متعددة في دورة ساعة واحدة.

  • الواقع: يقاس الأداء الذروي بـ TFLOPS (تيرا عمليات نقطة عائمة في الثانية) أو TOPS (تيرا عمليات في الثانية لـ INT8).
  • أفضل استخدام: الكشف عن العيوب بدقة عالية، الروبوتات المتنقلة ذاتية القيادة (AMR)، وتدفقات كاميرات 4K المتعددة.

3. NPU / VPU: متخصصو الكفاءة

تم تصميم مسرعات الذكاء الاصطناعي المخصصة (مثل Hailo أو Intel Movidius) بمسار منطقي ثابت للذكاء الاصطناعي.

  • الواقع: توفر أعلى أداء لكل واط. يمكن لوحدة Hailo-8 بقدرة 5 واط أن تتفوق أحيانًا على GPU مدمج بقدرة 60 واط لنماذج YOLO محددة.
  • أفضل استخدام: الأجهزة التي تعمل بالبطارية، أدوات الفحص المحمولة، والحواسيب عديمة المراوح ذات القيود الحرارية.

مصفوفة مقارنة أجهزة الذكاء الاصطناعي الطرفي

المقياسCPU صناعي (x86)GPU مدمج (iGPU)GPU مخصص / سوفت (SoM)مسرع ذكاء اصطناعي (NPU)
محرك الحساب8-24 نواة كبيرة96-256 وحدة تنفيذ1000+ نواة تنسورمحرك عصبي ASIC
عرض نطاق الذاكرة~50 - 100 جيجابايت/ثمشترك مع CPU200 - 1000+ جيجابايت/ثذاكرة تخزين مؤقت مخصصة
سرعة الذكاء الذروية< 10 TOPS10 - 30 TOPS100 - 500+ TOPS20 - 80 TOPS
كثافة الطاقةمتوسطةمنخفضة (مدمج)عالية (75 واط - 350 واط)منخفضة جداً (2 واط - 10 واط)
مجموعة البرامجOpenVINO, ONNXOpenVINO, CUDANVIDIA TensorRTSDK متخصص

عامل "عنق الزجاجة": لماذا يهم عرض نطاق الذاكرة؟

يركز معظم المشترين على TOPS، ولكن في الذكاء الاصطناعي الطرفي في العالم الحقيقي، غالبًا ما يكون عنق الزجاجة هو عرض نطاق الذاكرة.

  • المشكلة: يحتوي نموذج التعلم العميق (مثل المحول) على ملايين المعلمات التي يجب تحميلها في الذاكرة لكل إطار.
  • الحسابات: إذا كان حجم نموذجك 1 جيجابايت وعرض نطاق الذاكرة 50 جيجابايت/ثانية، فمن الناحية النظرية يمكنك تشغيل هذا النموذج بسرعة 50 إطارًا في الثانية كحد أقصى، حتى لو كانت سرعة الحساب لديك غير محدودة.
  • رؤية متينة: هذا هو السبب في أن أنظمة الذكاء الاصطناعي الطرفي المتطورة تستخدم ذاكرة LPDDR5X أو HBM (High Bandwidth Memory) مباشرة على وحدة الحساب.

مقايضات الدقة: FP16 مقابل INT8

يرتبط أداء الذكاء الاصطناعي بالدقة الرياضية.

  • FP32 (دقة مفردة): الأكثر دقة، ولكنها الأبطأ وتستهلك طاقة أكبر.
  • FP16 (نصف دقة): المعيار للاستنتاج الصناعي عالي الجودة.
  • INT8 (정수 8비트): يستخدم التكميم (Quantization) لضغط النموذج. وهو أسرع بمرتين إلى أربع مرات من FP16 مع خسارة حوالي 1% فقط في الدقة.
  • قائمة مراجعة: اسأل دائمًا ما إذا كان تصنيف "TOPS" للحاسوب هو لـ FP16 أو INT8. عادةً ما تستخدم أرقام التسويق INT8.

الأسئلة الشائعة: واقع التنفيذ

هل يتطلب الذكاء الاصطناعي الطرفي مروحة؟

بشكل عام، نعم لوحدات GPU عالية الأداء. ومع ذلك، يمكن لأنظمة الذكاء الاصطناعي الطرفي المتخصصة عديمة المراوح (باستخدام NVIDIA Jetson Orin أو Intel Core مع NPUs مدمجة) تبديد ما يصل إلى ~60 واط حراريًا بشكل ساكن. أبعد من ذلك، يلزم التبريد النشط لمنع الاختناق الحراري.

ما هو "الاستنتاج" مقابل "التدريب"؟

يحدث التدريب (Learning) في مركز البيانات على مجموعات ضخمة من وحدات GPU. يحدث الاستنتاج (Doing) على الحافة. أنت تقوم بـ "نشر" نموذج تم تدريبه مسبقًا على الحاسوب الميداني.

هل يمكنني تشغيل الذكاء الاصطناعي على حاسوب يعتمد على ARM؟

نعم. تعد سلسلة NVIDIA Jetson تعتمد على ARM وهي المعيار الذهبي للصناعة في الذكاء الاصطناعي الطرفي الفعال في استهلاك الطاقة. للتوافق مع x86، يعد Intel مع OpenVINO الخيار الرائد.