ظهور منافس قوي.. DeepSeek-R2 نموذج لغوي متقدم من تطوير ديبسيك
تستعد شركة ديبسيك الصينية لإطلاق نموذجها اللغوي الجديد DeepSeek-R2 بين 15 و30 أغسطس 2025، ليكون منافساً قوياً لـ ChatGPT-5 من OpenAI. يعتمد النموذج الجديد على بنية متطورة وبنية تحتية محلية بالكامل، مما يقلل التكاليف بشكل كبير. ومن المتوقع أن يحدث هذا الإطلاق نقلة نوعية في سوق الذكاء الاصطناعي.
منافس جديد لـ ChatGPT في عالم الذكاء الاصطناعي
يعتمد DeepSeek-R2 على بنية Mixture of Experts (MoE) المتقدمة، مع شبكة توجيه ذكية لتحسين أداء التحليل والاستدلال. ويصل حجم النموذج إلى 1.2 تريليون معلمة، ضعف حجم الجيل السابق DeepSeek-R1. رغم ذلك، يبقى حجمه أقل من ChatGPT-4 و ChatGPT-5 اللذين يتجاوزان 1.8 تريليون معلمة.
DeepSeek-R2: الذكاء الاصطناعي محلي الصنع
اتبعت ديبسيك استراتيجية الاكتفاء الذاتي بتدريب النموذج بالكامل على شرائح Huawei Ascend 910B المحلية. ويعمل مركز الحوسبة التابع لهواوي بكفاءة عالية، مما قلل تكلفة تدريب DeepSeek-R2 بنسبة 97% مقارنة بـ GPT-4. هذا الانخفاض الكبير في التكاليف سيُمكن ديبسيك من تقديم خدمات بأسعار تنافسية قد تعيد تشكيل سوق الذكاء الاصطناعي الذي تهيمن عليه OpenAI و Anthropic.
تأثير إطلاق DeepSeek-R2 على سوق الأسهم
أدى خبر إطلاق DeepSeek-R2 إلى ارتفاع أسهم شركة Cambricon المتخصصة في شرائح الذكاء الاصطناعي بنسبة 20%، ليتجاوز تقييمها السوقي 49.7 مليار دولار. يعكس هذا الارتفاع ثقة المستثمرين بقدرات ديبسيك على المنافسة في قطاع الذكاء الاصطناعي.
هواوي تعزز أداء نماذج الذكاء الاصطناعي
كشفت هواوي عن إطار عمل جديد لمعالجة الاستدلال في نماذج الذكاء الاصطناعي يسمى Unified Cache Manager (UCM). يعيد UCM تنظيم التعامل مع بيانات ذاكرة التخزين المؤقت عبر مستويات مختلفة من الذاكرة. وقد حقق UCM خفض زمن الاستجابة بنسبة 90% وزيادة الأداء بمقدار 22 مرة، مما يُعزز من قدرات النشر التجاري للنماذج. وستقوم هواوي بفتح مصدر UCM في سبتمبر المقبل.
مستقبل صناعة الذكاء الاصطناعي في الصين
يمثل إطلاق DeepSeek-R2 وتطوير UCM خطوة مهمة نحو بناء منظومة ذكاء اصطناعي صينية مستقلة. تعكس هذه التطورات سعي الصين لتطوير نماذج عالية الأداء باستخدام بنية تحتية وخوارزميات محلية بالكامل، مما يعزز مكانتها في سباق التطور التكنولوجي العالمي.
النموذج | عدد المعلمات |
DeepSeek-R1 | 671 مليار |
DeepSeek-R2 | 1.2 تريليون |
ChatGPT-4/5 | أكثر من 1.8 تريليون |
- إطلاق DeepSeek-R2 بين 15 و 30 أغسطس 2025
- بنية Mixture of Experts (MoE) متقدمة
- تدريب على شرائح Huawei Ascend 910B
- تكلفة تدريب أقل بنسبة 97% من GPT-4
- هواوي تطلق إطار عمل UCM لتحسين الأداء