الذكاء الاصطناعي يُحدث تحولًا غير مسبوق في الأخبار: 45% من المحتوى مُشوه ودراسة دولية عاجلة تكشف التفاصيل.

كشفت دراسة دولية موسعة أن تقنيات الذكاء الاصطناعي، التي أصبحت بديلاً متناميًا لمحركات البحث التقليدية، تُولّد محتوى إخباريًا مشوهًا أو مضللًا في نحو 45% من الحالات، بغض النظر عن اللغة أو المنطقة الجغرافية. وقد حللت الدراسة، بمشاركة 22 هيئة بث عامة، أكثر من 3 آلاف إجابة من مساعدات ذكية مثل ChatGPT وGemini، مما يثير تساؤلات جدية حول موثوقية الأخبار التي يستهلكها الجمهور عبر هذه التقنيات الحديثة.

الذكاء الاصطناعي يُقدم معلومات إخبارية مضللة: نتائج صادمة لدراسة دولية

أظهرت النتائج أن ما يقرب من نصف الردود التي قدمتها مساعدات الذكاء الاصطناعي احتوت على أخطاء جوهرية. هذه المشكلات تنوعت بين معلومات غير دقيقة أو غياب الإسناد الصحيح للمصادر، مما يؤثر على جودة المحتوى الإخباري. وتوزعت الأخطاء كالتالي:

اقرأ أيضًا: مع تقلبات الخريف.. المصل واللقاح يكشف تطورًا بشأن انتشار العدوى التنفسية بين الطلاب

  • 31% من الحالات تضمنت مراجع مفقودة أو مضللة.
  • 20% احتوت على بيانات قديمة أو غير صحيحة.

ولفتت الدراسة إلى أن نموذج Gemini سجل الأداء الأسوأ بين جميع المساعدات التي خضعت للتحليل، حيث رُصدت مشكلات في 76% من الردود التي قدمها. وقد شملت الدراسة تحليلاً معمقًا لإجابات نماذج مثل ChatGPT وCopilot وGemini وPerplexity، بمشاركة جهات بث مرموقة كالتحاد الأوروبي للبث (EBU) وهيئة الإذاعة البريطانية (BBC) وهيئة الإذاعة الفلمنكية (VRT).

تزايد اعتماد الجمهور على مساعدات الذكاء الاصطناعي في متابعة الأخبار

على الرغم من هذه الأخطاء المتكررة في توليد المحتوى الإخباري، تشير التقارير إلى تزايد اعتماد الجمهور على المساعدات الذكية كمصدر للأخبار. فقد أظهر تقرير معهد رويترز للأخبار الرقمية لعام 2025 أن 7% من الجمهور العام يعتمد على هذه التقنيات لمتابعة الأخبار بشكل منتظم. وترتفع هذه النسبة بشكل ملحوظ لتصل إلى 15% بين شريحة الشباب، مما يسلط الضوء على ضرورة معالجة قضايا دقة المعلومات وموثوقية المحتوى الإخباري الذي تنتجه أنظمة الذكاء الاصطناعي لضمان حصول المستخدمين على معلومات صحيحة.

اقرأ أيضًا: رسميًا.. رابط مباشر للاستعلام عن رواتب المتقاعدين لشهر أغسطس 2025

إجراءات حاسمة ومطالبات تشريعية لمواجهة تحديات الذكاء الاصطناعي في الإعلام

استجابة لهذه النتائج المقلقة بشأن موثوقية أخبار الذكاء الاصطناعي، قامت هيئة الإذاعة الفلمنكية (VRT) بتقييد وصول المساعدات الذكية إلى محتواها الإخباري. وأعلنت الهيئة نيتها التعاون مع وسائل إعلام أخرى في فلاندرز لمواجهة ظاهرة تضليل الأخبار الناتجة عن هذه التقنيات. وصرحت جريت دي كرين، مديرة المعلومات في الهيئة، بأن الطريقة التي تتعامل بها روبوتات الدردشة مع الأخبار تفتقر إلى الموثوقية الكافية، مؤكدة أن قرار الحظر يهدف إلى توجيه رسالة واضحة لشركات التكنولوجيا الكبرى بضرورة احترام المصادر الموثقة. من جانبه، دعا الاتحاد الأوروبي للبث (EBU) إلى سن تشريعات أكثر صرامة ضمن قوانين الخدمات والمعلومات الرقمية، لضمان الشفافية والمراقبة المستقلة لأداء هذه المساعدات الذكية في تقديم المحتوى الإخباري بدقة.

مبادرات لتعزيز الوعي الإعلامي ومستقبل الأخبار في عصر الذكاء الاصطناعي

تواصل هيئة VRT جهودها لتعزيز الثقافة الإعلامية والوعي بتقنيات الذكاء الاصطناعي من خلال إطلاق مبادرات تعليمية وتوعوية تستهدف الشباب. تهدف هذه المبادرات إلى ترسيخ التفكير النقدي تجاه التكنولوجيا وتمكينهم من استخدامها بوعي ومسؤولية لتمييز المحتوى الموثوق. وفي هذا السياق، أوضح ليفين فيرمال، مدير الشراكات والبيانات والذكاء الاصطناعي في الهيئة، أن استخدام الذكاء الاصطناعي لدى VRT ليس مجرد موضة عابرة، بل هو جزء أساسي من استراتيجية مجتمعية شاملة ترتكز على الشفافية والثقة والرقابة البشرية لضمان جودة المحتوى الإخباري. وفي خطوة تالية، أطلق الفريق البحثي الدولي مشروعًا جديدًا بعنوان “مجموعة أدوات سلامة الأخبار في مساعدات الذكاء الاصطناعي”، بهدف تطوير حلول عملية لتحسين أداء هذه الأنظمة وتعزيز دقة المعلومات المقدمة للمستخدمين. ويأتي هذا البحث استكمالًا لدراسة سابقة أجرتها هيئة الإذاعة البريطانية في فبراير 2025، والتي كانت أول من نبه إلى تزايد أخطاء الذكاء الاصطناعي في تغطية الأخبار، مما يؤكد الحاجة الملحة لإيجاد توازن بين الابتكار التكنولوجي ومبادئ الصحافة المهنية في عصر المعلومات.

اقرأ أيضًا: تأكد الآن.. إليك قائمة الأجهزة التي ستحصل على تحديث iOS 26