محادثات حساسة تكشف.. Grok في مأزق جديد بعد تسريب جماعي على الإنترنت

كشفت تقارير حديثة عن تسريب نحو 300 ألف محادثة لروبوت الدردشة “غروك” (Grok)، التابع لشركة xAI المملوكة لإيلون ماسك، حيث أصبحت هذه المحادثات متاحة للعامة في نتائج البحث على الإنترنت دون علم المستخدمين. يعود السبب الرئيسي لهذا الخلل إلى خاصية “المشاركة” التي تولّد روابط إلكترونية عامة قابلة للفهرسة والوصول المفتوح إليها عند استخدامها.

تفاصيل تسريب محادثات “غروك” وتداعيات الخصوصية

أوردت هيئة الإذاعة البريطانية “بي بي سي” تقارير تفصيلية حول المحادثات المسربة، والتي كشفت عن محتوى بالغ الحساسية. تضمنت هذه المحادثات طلبات من المستخدمين لإنشاء كلمات مرور قوية، ووضع خطط غذائية لإنقاص الوزن، وصولاً إلى استفسارات طبية شخصية ودقيقة. لم يقتصر الأمر على ذلك، بل شملت بعض المحادثات محاولات لاختبار قدرات الروبوت، حيث طلب المستخدمون تعليمات حول كيفية تصنيع مواد مصنفة ضمن الفئة “A” المخدرة. وصف خبراء هذا الحادث بأنه “كارثة خصوصية مستمرة”، خاصة وأنه يثير تساؤلات جدية حول أمان بيانات المستخدمين في أنظمة الذكاء الاصطناعي.

اقرأ أيضًا: رسميًا.. الأوقاف السورية توضح حقيقة فيديو السيارة في الجامع الأموي

تحديات الخصوصية في روبوتات الدردشة الذكية ليست حكراً على “غروك”

يُعد تسريب بيانات “غروك” ليس الأول من نوعه في عالم روبوتات الذكاء الاصطناعي. فقد واجهت شركات كبرى تحديات مشابهة في الماضي. على سبيل المثال، تراجعت شركة OpenAI سابقاً عن ميزة مشابهة في روبوتها “شات جي بي تي” بعدما ظهرت محادثات المستخدمين في نتائج البحث العامة. كما تعرضت شركة “ميتا” لانتقادات واسعة بعد ظهور محادثات مشتركة مع روبوتها “ميتا إيه آي” ضمن قسم “اكتشاف” العام، مما أثار مخاوف كبيرة بشأن خصوصية المستخدمين. ورغم أن بيانات الحسابات الشخصية قد تكون مجهولة في هذه النصوص المسربة، إلا أن التفاصيل الدقيقة للطلبات والاستفسارات يمكن أن تكشف عن معلومات حساسة جداً، ما يزيد من المخاوف بشأن معايير الخصوصية المطبقة في تطبيقات الذكاء الاصطناعي.

دعوات لتشديد الرقابة على حماية بيانات مستخدمي الذكاء الاصطناعي

يضع حادث تسريب بيانات “غروك” شركة xAI في دائرة الضوء والانتقادات مجدداً، ويجدد المطالبات بضرورة تشديد الرقابة والتدقيق على كيفية إدارة بيانات المستخدمين الحساسة وضمان أمنها. تؤكد هذه الحوادث المتكررة على الأهمية القصوى لتطوير آليات حماية أكثر صرامة ومعايير خصوصية واضحة في قطاع الذكاء الاصطناعي المتنامي، لضمان ثقة المستخدمين وحماية معلوماتهم الشخصية.

اقرأ أيضًا: تكريم المتفوقين.. شعيب يحتفل مع أوائل الثانوية العامة بالعلمين