أفضل هواتف لتشغيل نماذج LLM محلياً في 2025 — Gemini Nano، أداء NPUs ومتطلبات التخزين
مقدمة: لماذا يهم تشغيل LLMs محلياً على الهاتف في 2025؟
عام 2025 أصبح تشغيل نماذج مُولِّدة صغيرة الحجم (on‑device LLMs) ميزة عملية ومهمّة للسرعة والخصوصية — بدلاً من إرسال كل شيء للسحابة. الهواتف التي تدعم Gemini Nano أو قادرة على تشغيل نسخ مُكمَّشة من نماذج مفتوحة تساعد في تقليل الكمون، تحسين استجابة التطبيقات والمحافظة على بيانات المستخدم محلياً.
في هذا المقال نغطي: الأجهزة الحالية التي تدعم Gemini Nano أو أنسبها لتشغيل LLMs محلياً، اختلاف أحجام إصدارات Gemini Nano، متطلبات التخزين والذاكرة لنماذج مُكمَّشة (quantized)، وأفضل ممارسات للمطوّرين والمستخدمين المتقدّمين.
ملاحظة: القائمة مبنية على إعلانات ومذكِّرات مطوّرين وتقارير اختبار حتى فبراير 2026 — تأكد من صفحة دعم جهازك أو وثائق ML Kit لتأكيد التوافق قبل النشر.
أجهزة بارزة تدعم Gemini Nano أو مناسبة لتشغيل LLMs محلياً
في الواقع هناك تدرّج بين إصدارات Gemini Nano: نسخ خفيفة جداً (XXS)، نسخ نصّية صغيرة (~100MB) ونسخ متعددة الوسائط أكبر حجماً. بعض مُصنّعي الهواتف دمجوا دعم Gemini Nano عبر AICore / ML Kit، بينما سمحت Google للمطوّرين بالوصول إلى النموذج عبر ML Kit GenAI؛ لذا سيختلف السلوك حسب الطراز والإصدار.
- سلسلة Google Pixel (Pixel 8، 8 Pro، 9، 9 Pro، 9 Pro Fold ...) — من أوائل الأجهزة التي شغّلت Gemini Nano المحلي، والإصدارات الأحدث (Pixel 9+) تقدّم النسخ متعددة الوسائط. ووفرت Google واجهات ML Kit للمطوّرين للوصول إلى Gemini Nano على أجهزة مدعومة.
- Samsung Galaxy S25 / طرز Galaxy الحديثة — أُشير إلى دعم Gemini Nano على Galaxy S25 وميزات TalkBack المشغّلة محلياً عبر AICore على بعض الطرازات. الأحجام المنزّلة من AICore اختلفت حسب الجهاز (أحياناً تصل خطوات التهيئة إلى جيجابايت).
- OnePlus 13 — تلقى تحديثاً رسمياً لدعم Gemini Nano في طرح ما بعد الإطلاق. هذا يجعل OnePlus 13 خياراً قوياً لميزات on‑device AI.
- مجموعات شركات صينية ومصنّعين آخرين — طرازات من Xiaomi وrealme وvivo وHonor وأجهزة iQOO وMotorola Razr الحديثة تم إدراجها ضمن أجهزة قادرة على تشغيل إصدارات nano عبر ML Kit/برنامج AICore حسب قوّة الشريحة وتعاون المصنع مع Google/MediaTek. راجع صفحة ML Kit للأجهزة المدعومة قبل التطوير.
خلاصة سريعة: إن أردت أقصى توافق لميزات Gemini Nano متعددة الوسائط فاختر طرازات Pixel الأحدث أو أجهزة رائدة من شركات أعلنت دعماً صريحاً (Samsung S25، OnePlus 13، طرازات Xiaomi/realme المذكورة في توثيق ML Kit). راجع قائمة الأجهزة المدعومة في وثائق ML Kit لصياغة سياسة الاستهداف في تطبيقك.
حجم النماذج والذاكرة المطلوبة: دليل عملي للاختيار والتخزين
قبل تنزيل نموذج على الهاتف، افهم أن هناك فروقاً كبيرة بين «حجم ملف النموذج» و"الموارد المطلوبة أثناء التشغيل" (RAM/kv‑cache). التكمُّش (quantization) يخفض الحجم والذاكرة المطلوبة بكفاءة كبيرة:
| نموذج (تقديري) | حجم ملف مقنن نموذجي (GGUF / Q4_K_M) | ذاكرة تشغيل تقريبية (مع KV cache) |
|---|---|---|
| 7B | ~3.5–4.5 GB | ~4.5–6 GB |
| 13B | ~7–8.5 GB | ~9–11 GB |
| 30B | ~19–20 GB (Q4) | ~22–30 GB |
هذه الأرقام مستمدة من نتائج المجتمع وأدوات مثل llama.cpp وملفات GGUF على مستودعات النماذج: مثال عملي أن نموذج 7B بعد quantize (Q4_0 / Q4_K_M) يهبط لقرابة 3.5–4GB بدلاً من ~13GB الأصلي. ضع في الحسبان زيادة ~20% للـ KV cache وذاكرة التشغيل.
أما بالنسبة لـGemini Nano نفسها — فهناك إصدارات صغيرة جداً نصّية (Gemini Nano XXS) وإصدارات أكبر متعددة الوسائط. تقارير ظهرت أن النسخة القياسية قد تكون في نطاق مئات ميغابايت، بينما بعض حزم AICore أو مكونات النظام التي تُحمّل للدعم قد تستهلك جيجابايت على الجهاز حسب ميزات الوسائط المطلوبة. هذا يفسر الاختلاف بين تقارير مثل حجم ML Kit/AICore على Galaxy S25 مقابل أحجام النسخ الـ«nano» المعلنة.
توصيات عملية للمطورين والمستخدمين المتقدّمين
اختيار الهاتف
- لأفضل توافق مع Gemini Nano والواجهات الرسمية: اختر طرازات Pixel 9/9 Pro أو طرازات رائدة أعلنت دعم ML Kit (مثل Galaxy S25 وOnePlus 13). تحقق من قائمة أجهزة ML Kit قبل الإصدار.
- للمشاريع التي تتطلّب نماذج مفتوحة (مثلاً تشغيل 7B/13B مقنَّصة): فكّر في هواتف رائدة بذاكرة رام عالية (12GB+) وتخزين UFS سريع (256GB+) — لأن ملفات النماذج الكبيرة تحتاج مساحة وأداء I/O جيد.
استراتيجيات تقليل التخزين والاستهلاك
- استخدم نماذج مقنَّصة (Q4_QK / Q5) لتقليل حجم الملف والذاكرة: 7B مقنَّص يصبح قابلًا للتشغيل على هواتف قوية مع 4–6GB RAM مجانية للمستخدم.
- اعتمد نهج تنزيل على الطلب (on‑demand): خزّن الإصدار النصي الأصغر وأنزل وحدات الوسائط فقط عند الحاجة (مثلاً: صورة/صوت). تقنيات مثل ML Kit/Prompt API تدير هذا السلوك لمستخدمي Gemini Nano.
- إذا كنت مطوِّراً: اختبر عبر "checkFeatureStatus()" و"warmup()" في ML Kit لتجنّب حالات فشل التحميل أو استنزاف البطارية.
أداء NPUs: ماذا تتوقّع؟
مع أن NPUs المحمولة (مثل Hexagon في كوالكوم أو محركات NPU في Tensor/Exynos) تحسّنت كثيراً، فالأداء الفعلي يختلف حسب السنن البرمجية (runtime) والدعم الرسمي. منصات مثل Snapdragon X‑class تظهر أرقام TOPS كبيرة في أجهزة الحاسوب المحمولة، وأيضاً تحسينات NPU في شرائح الهواتف الحديثة تُحسّن زمن الاستجابة عند تشغيل نماذج صغيرة أو طبقات محددة من النماذج، لكن لا تتوقّع نفس مرونة الخوادم المخصصة بالـGPU.
خلاصة وتوصيات نهائية
إذا كان هدفك تطبيقات on‑device سريعة وآمنة مع Gemini Nano (نسخ متعددة الوسائط): التزم بالأجهزة التي أعلنت دعماً عبر ML Kit (Pixel 9، طرازات Galaxy/OnePlus المعلنة). للمشاريع التي تحتاج إلى مرونة أعلى ونماذج مفتوحة، استهدف نماذج 7B مقنَّصة وتأكد من وجود 12GB+ رام و256GB+ تخزين — واستعمل تنزيل النماذج عند الحاجة وتقنيات warmup لتقليل التأخير وتجربة المستخدم السيئة.
إذا رغبت، أستطيع إعداد جدول مقارن تفصيلي لطرازات محدّدة (Pixel 9/9 Pro، Galaxy S25، OnePlus 13، Xiaomi 15…) يتضمّن: نُسخ Gemini Nano المدعومة، حجم التخزين المتوقع، مقدار الـRAM الموصى به، ونقاط القوة والقيود لكل هاتف.