جوجل Gemma 4: ثورة الذكاء الاصطناعي المفتوح على جهازك

عصر جديد للذكاء الاصطناعي مفتوح المصدر

في الثاني من أبريل 2026، أحدثت Google DeepMind تحولاً جذرياً في عالم الذكاء الاصطناعي مفتوح المصدر. جاء إطلاق Gemma 4 — عائلة من النماذج المفتوحة مبنية مباشرة من الأبحاث والهندسة التي تقف وراء نموذج Gemini 3 الاحتكاري — ليمثّل أجرأ خطوة تتخذها مختبرات الذكاء الاصطناعي الكبرى نحو إتاحة الذكاء الحدّي للجميع.

على عكس أجيال Gemma السابقة، لا يطلب منك Gemma 4 أن تختار بين القدرة وسهولة الوصول. فهو يقدم الاثنين معاً: نماذج تعمل دون اتصال بالإنترنت على Raspberry Pi أو أحدث هواتف أندرويد، وفي الوقت ذاته تنافس النماذج التجارية المغلقة الأكبر منها حجماً بكثير في مؤشرات الأداء المعيارية.

ما الذي يميّز Gemma 4؟

دأبت النماذج المفتوحة السابقة على فرض مقايضة صعبة: إما نموذج صغير وسريع أو نموذج قادر، نادراً ما تجد الاثنين معاً. يغيّر Gemma 4 هذه المعادلة من خلال ما تصفه جوجل بـ"مستوى غير مسبوق من الذكاء لكل معامل". حقق النموذج ذو 31 مليار معامل كثيف ونموذج خبراء المزيج ذو 26 مليار معامل المرتبتين الثالثة والسادسة على لوحة Arena AI التنافسية، متفوقَين على نماذج تفوقهما بأكثر من عشرين ضعفاً في الحجم.

تأتي العائلة في أربعة أحجام مصمَّمة لسيناريوهات نشر مختلفة. نموذجا E2B وE4B مهندَسان للأجهزة المحمولة وحافة الشبكة، ويعملان بالكامل دون اتصال بالإنترنت مع زمن استجابة شبه معدوم. أما النموذجان الأكبر 26B MoE و31B Dense فيستهدفان محطات العمل وخوادم السحابة.

التعدد الحسّي بشكل افتراضي

للمرة الأولى في سلسلة Gemma، لا تُعدّ القدرات متعددة الوسائط إضافةً اختيارية — بل هي الأساس. جميع النماذج قادرة على معالجة الصور ومقاطع الفيديو. وتتعامل النموذجان الأصغر للحافة أيضاً مع الإدخال الصوتي، مما يتيح فهم الكلام أصلياً على الجهاز. هذا يفتح الباب أمام جيل من تطبيقات الجوال التي تستطيع الرؤية والسماع والاستدلال دون إرسال بيانات إلى خادم بعيد.

مبنيٌّ من أجل سير عمل الوكلاء الذكيين

وصل Gemma 4 مُصمَّماً خصيصاً لعصر الذكاء الاصطناعي العاملي. استدعاء الوظائف الأصلي يتيح للنماذج التفاعل مع الأدوات الخارجية وواجهات برمجة التطبيقات بطريقة منظمة، بينما يُمكّن "وضع التفكير" المدمج من الاستدلال المتسلسل قبل أن يلتزم النموذج بإجابة ما.

يتكامل Agent Development Kit (ADK) من جوجل مباشرةً مع Gemma 4، مما يتيح للمطورين تجميع خطوط معالجة وكيلة متعددة الخطوات للمهام التي تتراوح بين توليد الكود وأتمتة سير العمل. وضع الوكيل في Android Studio مدعوم بالفعل بـ Gemma 4.

الترخيص الذي يغيّر كل شيء

ظهرت من قبل نماذج متميزة تقنياً في ظل شروط مقيّدة. إصدار Gemma 4 تحت ترخيص Apache 2.0 هو ما يحوّل القدرة إلى تحوّل منصوي حقيقي. يمكن للمطورين تنزيل أي من النماذج الأربعة وضبطها وتوظيفها تجارياً دون رسوم ترخيص أو قيود استخدام أو التزامات حقوق ملكية.

لا توجد حدود استخدام، ولا متطلبات مشاركة، ولا غموض حول النشر التجاري. الأوزان مجانية ببساطة — وهو موقف نادر لعائلة نماذج بهذا المستوى من الأداء.

يعمل على كل شيء

تم التحقق من صلاحية Gemma 4 على مجموعة واسعة بشكل غير عادي من الأجهزة. على صعيد الأجهزة المحمولة، يعمل النموذج على أجهزة مدعومة بمعالجات Qualcomm وMediaTek للذكاء الاصطناعي. على صعيد المطورين، يعمل على معالجات NVIDIA من Jetson Orin Nano إلى Blackwell، ومعالجات AMD عبر ROCm، ووحدات TPU الخاصة بجوجل.

يشمل دعم النظام البيئي Hugging Face Transformers وvLLM وllama.cpp وMLX وOllama وKeras وLM Studio وأكثر من دزينة من الأُطر الشائعة الأخرى. الضبط الدقيق مدعوم على Google Colab وVertex AI ومعالجات الألعاب الاستهلاكية على حدٍّ سواء.

ماذا يعني ذلك للمطورين والشركات؟

بالنسبة للمطورين الأفراد، يعني Gemma 4 نموذج استدلال متعدد الوسائط بتكلفة صفر، يعمل محلياً دون اتصال بالإنترنت، وقابل للضبط الدقيق على أجهزة المستهلكين. انخفض الحاجز أمام بناء تطبيقات متطورة مدعومة بالذكاء الاصطناعي بشكل كبير.

بالنسبة للشركات، يوفر الجمع بين الأداء على مستوى الحدود وترخيص Apache 2.0 وخيارات النشر على Google Cloud — بما فيها تكوينات السحابة السيادية — مساراً نحو ذكاء اصطناعي قادر يحافظ على البيانات الحساسة ضمن حدود محددة.

مع Gemma 4، رسمت جوجل خطاً واضحاً: الذكاء الاصطناعي مفتوح المصدر لم يعد من الدرجة الثانية. إنه الحدّ الأمامي.

أرسل رسالة

×
اضغط على فريق المساعدة في الاسفل لكي يتم نقلك لتطبيق الواتساب