رسميًا من OpenAI: محادثاتك في ChatGPT قد تصل للشرطة تحت ظروف محددة

أكدت شركة OpenAI، المطورة لنموذج الذكاء الاصطناعي الشهير ChatGPT، إمكانية إحالة بعض محادثات المستخدمين إلى السلطات القانونية، وذلك ضمن سياستها الجديدة للأمان والمراجعة. تهدف هذه الخطوة المعلنة إلى منع الأذى في العالم الحقيقي، لكنها سرعان ما أثارت جدلاً واسعاً حول قضايا الخصوصية وحرية التعبير، ووضعت حدوداً جديدة للنقاش حول حماية المستخدم والرقابة المتزايدة.

متى يتم الإبلاغ عن محادثات ChatGPT للسلطات؟

أوضحت شركة OpenAI السياسات التي قد تؤدي إلى مراجعة المحادثات والإبلاغ عنها للسلطات، وذلك بهدف الحفاظ على سلامة المستخدمين والمجتمع. تتركز هذه الحالات بشكل أساسي على:

اقرأ أيضًا:

49680 شدة مجانًا.. طريقة شحن شدات ببجي uc لتحويل حسابك بأسكنات وبدلات نادرة

  • التهديدات بالعنف: إذا قام المستخدم بتقديم تهديدات مباشرة وواضحة بإلحاق الضرر بالآخرين، يتم تحويل المحادثة لمراجعة بشرية متخصصة. في حال تم التأكد من جدية ووشوك التهديد، قد يتم إحالة القضية إلى جهات تطبيق القانون مثل الشرطة.
  • حالات الأذى الذاتي: على عكس التهديدات الموجهة للآخرين، لا يتم إرسال المحتوى المتعلق بالأذى الذاتي إلى الشرطة. بدلاً من ذلك، يقوم النظام بتزويد المستخدمين بروابط لمصادر دعم متخصصة وخطوط أزمة لتقديم المساعدة الفورية.
  • إجراءات التنفيذ على الحساب: المستخدمون الذين ينشرون تهديدات عنيفة قد يواجهون عواقب إدارية تشمل تعليق حساباتهم أو حظرها بشكل دائم من استخدام المنصة، إضافة إلى تحمل أي عواقب قانونية محتملة قد تنجم عن أفعالهم.

جدل الخصوصية وحدود الرقابة في الذكاء الاصطناعي

تُبرز هذه السياسة الجديدة التوتر المستمر بين ضرورة الأمان والحفاظ على خصوصية المستخدم في ظل التطور السريع للذكاء الاصطناعي. بينما تؤكد OpenAI أن هدفها الأساسي هو حماية الأفراد من أي ضرر محتمل، يحذر العديد من النقاد والخبراء من وجود معايير غامضة تكتنف هذه الإجراءات. يثير هؤلاء تساؤلات جوهرية حول تعريف التهديد “الجدي” مقابل التهديد “المبهم” أو الساخر، وإمكانية إبلاغ السلطات عن محادثات افتراضية أو ساخرة قد يتم إخراجها عن سياقها الأصلي. كما يتساءل البعض عن حجم البيانات التي يمكن مشاركتها مع السلطات القانونية ونوع الإشراف المطبق على هذه العملية.

تكمن المخاوف في أن هذه الحدود غير الواضحة قد تفتح الباب أمام توسيع نطاق المراقبة ليشمل المستخدمين العاديين، خاصة وأن ChatGPT يُستخدم على نطاق واسع في المحادثات غير الرسمية، وجلسات العصف الذهني، وحتى في سيناريوهات لعب الأدوار التي قد تتضمن محتوى حساسًا أو افتراضيًا.

اقرأ أيضًا: تُعرض لأول مرة.. مقتنيات نادرة لكوكب الشرق بمعرض “صوت مصر” الفني

الاتجاه العالمي نحو تنظيم ومساءلة الذكاء الاصطناعي

إن سياسة OpenAI الجديدة ليست مجرد حالة فردية لشركة واحدة، بل تعكس اتجاهًا عالميًا متزايدًا نحو فرض رقابة أكثر صرامة وتنظيمًا على تقنيات الذكاء الاصطناعي. تتجه الحكومات والشركات حول العالم نحو تعزيز الشفافية والمساءلة في هذا المجال الحيوي.

على سبيل المثال، في الصين، تُفرض سياسات صارمة على منصات التواصل الاجتماعي الكبرى مثل WeChat وDouyin وWeibo، حيث يُطلب منها تصنيف المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. يجب أن تحمل المنشورات التي تتضمن نصوصًا أو صورًا أو مقاطع فيديو مولدة بالذكاء الاصطناعي معرفات مرئية ومرمزة، مثل العلامات المائية في البيانات الوصفية، لتمييزها بوضوح.

اقرأ أيضًا: رسميًا.. موعد صرف مرتبات أغسطس 2025 وقيمة الحد الأدنى للأجور بعد الزيادة

في السياق الأمريكي، بدأت شركات التكنولوجيا العملاقة مثل جوجل في تجربة مبادرات مثل C2PA، وهي تقنية تهدف إلى تضمين بصمات رقمية مميزة في جميع الإبداعات والمحتوى الذي يتم توليده بواسطة الذكاء الاصطناعي. هذا يعكس الرغبة في تتبع مصدر المحتوى وتحديد هويته.

يتضح من هذه التطورات أن مجال الذكاء الاصطناعي يتجه بسرعة نحو بيئة أكثر تنظيمًا ومراقبة وإنفاذًا للقوانين. وهذا يعني أن المستخدمين سيصبحون مطالبين بوعي أكبر بكيفية تفاعلهم مع هذه الأدوات، وضرورة فهم السياسات المتغيرة المتعلقة بخصوصية البيانات والمحتوى.

اقرأ أيضًا: بدلًا من التقليدية.. أجمل رسائل التهنئة الرسمية والدينية بمناسبة المولد النبوي الشريف 2025