ظهور منافس قوي.. DeepSeek-R2 نموذج لغوي متقدم من تطوير ديبسيك

تستعد شركة ديبسيك الصينية لإطلاق نموذجها اللغوي الجديد DeepSeek-R2 بين 15 و30 أغسطس 2025، ليكون منافساً قوياً لـ ChatGPT-5 من OpenAI. يعتمد النموذج الجديد على بنية متطورة وبنية تحتية محلية بالكامل، مما يقلل التكاليف بشكل كبير. ومن المتوقع أن يحدث هذا الإطلاق نقلة نوعية في سوق الذكاء الاصطناعي.

منافس جديد لـ ChatGPT في عالم الذكاء الاصطناعي

يعتمد DeepSeek-R2 على بنية Mixture of Experts (MoE) المتقدمة، مع شبكة توجيه ذكية لتحسين أداء التحليل والاستدلال. ويصل حجم النموذج إلى 1.2 تريليون معلمة، ضعف حجم الجيل السابق DeepSeek-R1. رغم ذلك، يبقى حجمه أقل من ChatGPT-4 و ChatGPT-5 اللذين يتجاوزان 1.8 تريليون معلمة.

اقرأ أيضًا: دعم الحرفيين.. المجلس القومي للحرف اليدوية لتوحيد الجهود وتطوير القطاع

DeepSeek-R2: الذكاء الاصطناعي محلي الصنع

اتبعت ديبسيك استراتيجية الاكتفاء الذاتي بتدريب النموذج بالكامل على شرائح Huawei Ascend 910B المحلية. ويعمل مركز الحوسبة التابع لهواوي بكفاءة عالية، مما قلل تكلفة تدريب DeepSeek-R2 بنسبة 97% مقارنة بـ GPT-4. هذا الانخفاض الكبير في التكاليف سيُمكن ديبسيك من تقديم خدمات بأسعار تنافسية قد تعيد تشكيل سوق الذكاء الاصطناعي الذي تهيمن عليه OpenAI و Anthropic.

تأثير إطلاق DeepSeek-R2 على سوق الأسهم

أدى خبر إطلاق DeepSeek-R2 إلى ارتفاع أسهم شركة Cambricon المتخصصة في شرائح الذكاء الاصطناعي بنسبة 20%، ليتجاوز تقييمها السوقي 49.7 مليار دولار. يعكس هذا الارتفاع ثقة المستثمرين بقدرات ديبسيك على المنافسة في قطاع الذكاء الاصطناعي.

اقرأ أيضًا: رسميًا.. القابضة الكيماوية تستهدف إيرادات 22.4 مليار جنيه وأرباحًا بـ 7.1 مليار

هواوي تعزز أداء نماذج الذكاء الاصطناعي

كشفت هواوي عن إطار عمل جديد لمعالجة الاستدلال في نماذج الذكاء الاصطناعي يسمى Unified Cache Manager (UCM). يعيد UCM تنظيم التعامل مع بيانات ذاكرة التخزين المؤقت عبر مستويات مختلفة من الذاكرة. وقد حقق UCM خفض زمن الاستجابة بنسبة 90% وزيادة الأداء بمقدار 22 مرة، مما يُعزز من قدرات النشر التجاري للنماذج. وستقوم هواوي بفتح مصدر UCM في سبتمبر المقبل.

مستقبل صناعة الذكاء الاصطناعي في الصين

يمثل إطلاق DeepSeek-R2 وتطوير UCM خطوة مهمة نحو بناء منظومة ذكاء اصطناعي صينية مستقلة. تعكس هذه التطورات سعي الصين لتطوير نماذج عالية الأداء باستخدام بنية تحتية وخوارزميات محلية بالكامل، مما يعزز مكانتها في سباق التطور التكنولوجي العالمي.

اقرأ أيضًا: تحويلات غير مسبوقة.. المصريون بالخارج يسجلون رقمًا قياسيًا يدعم الاقتصاد المصري

النموذج عدد المعلمات
DeepSeek-R1 671 مليار
DeepSeek-R2 1.2 تريليون
ChatGPT-4/5 أكثر من 1.8 تريليون
  • إطلاق DeepSeek-R2 بين 15 و 30 أغسطس 2025
  • بنية Mixture of Experts (MoE) متقدمة
  • تدريب على شرائح Huawei Ascend 910B
  • تكلفة تدريب أقل بنسبة 97% من GPT-4
  • هواوي تطلق إطار عمل UCM لتحسين الأداء

تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *