تأكيد .. تقرير جديد يكشف الذكاء الاصطناعي لا يحل محل العلاقات الإنسانية

على عكس الاعتقاد السائد، كشف تقرير حديث لشركة أنثروبيك، مطورة المساعد الذكي كلود، أن استخدام روبوتات الذكاء الاصطناعي للدعم العاطفي والرفقة العاطفية نادر الحدوث. فنسبة لا تتجاوز 2.9% من المحادثات تتضمن طلب دعم شخصي، بينما يركز معظم المستخدمين على توظيف كلود لأغراض العمل والإنتاجية وإنشاء المحتوى.

كلود: للعمل لا للدعم العاطفي

كشف تقرير شركة أنثروبيك أن نسبة محادثات الذكاء الاصطناعي التي طلب فيها المستخدمون دعماً عاطفياً أو نصائح شخصية من كلود لم تتجاوز 2.9% من إجمالي المحادثات. كما كانت محادثات التمثيل والتقمص الوجداني أو طلب الرفقة أقل ندرة، إذ سجلت نسبة تقل عن 0.5%. تشير هذه الأرقام بوضوح إلى أن الاستخدام الشائع لهذه التقنية يختلف عن التصورات المنتشرة.

حللت الشركة أكثر من 4.5 مليون محادثة، شملت مستخدمي النسختين المجانية والمدفوعة من كلود، ووجدت أن النمط السائد لاستخدام الروبوت يدور حول المهام المتعلقة بإنشاء المحتوى والعمل. تظهر هذه النتائج أن تركيز المستخدمين الأساسي ينصب على تحقيق الإنتاجية والإنجاز بدلاً من البحث عن علاقات شخصية أو عاطفية مع الروبوتات.

اقرأ أيضًا: انتبه.. كيف تكتشف التطبيقات المزيفة وتمنعها من اختراق هاتفك

أرقام تكشف حقيقة استخدام الذكاء الاصطناعي

بالرغم من التوجه العام نحو الاستخدام العملي، لاحظت “أنثروبيك” أن بعض المستخدمين يلجؤون إلى كلود للحصول على نصائح تتعلق بالصحة النفسية والتطوير الشخصي والمهني، بالإضافة إلى تحسين مهارات التواصل. يقدم الروبوت في هذه الحالات توجيهات قد تساعد الأفراد في جوانب متعددة من حياتهم اليومية والمهنية.

وفي بعض الحالات النادرة، تتطور هذه المحادثات لتتحول إلى طلب نوع من الرفقة أو الدعم الوجداني، لا سيما لدى الأشخاص الذين يعانون من الوحدة العاطفية أو الضغوط النفسية. يمكن أن يوفر كلود في هذه الظروف مساحة للتعبير، لكن هذه الحالات لا تمثل الاستخدام الغالب للتقنية.

أشارت الشركة إلى أن المحادثات الطويلة التي تتجاوز 50 رسالة قد تبدأ في سياق الإرشاد أو التدريب، ثم تتحول تدريجياً إلى بحث عن رفقة عاطفية. ومع ذلك، تؤكد البيانات أن هذه السيناريوهات العميقة والممتدة ليست هي السائدة بين قاعدة المستخدمين الواسعة.

اقرأ أيضًا: تطور.. تسريبات آيفون 17 تكشف تصميمًا جديدًا كليًا وجدلاً حول موقع شعار آبل

حدود الذكاء الاصطناعي ومخاطر الاعتماد عليه

أكدت أنثروبيك أن روبوتها نادراً ما يرفض طلبات المستخدمين، إلا في حال تعارضها مع معايير السلامة الصارمة، مثل تقديم نصائح ضارة أو التشجيع على إيذاء النفس. كما لاحظت الشركة أن طبيعة المحادثات تصبح أكثر إيجابية بمرور الوقت، خاصة في الجلسات التي يطلب فيها دعم نفسي أو توجيه شخصي.

رغم الاستخدامات المتعددة التي تسجل يوماً بعد آخر، شددت الشركة على أن روبوتات الذكاء الاصطناعي لا تزال تخضع للتطوير المستمر. فهي عرضة للأخطاء، وقد تقدم معلومات غير دقيقة أو حتى ضارة أحياناً. كما اعترفت أنثروبيك نفسها سابقاً بإمكانية انحراف الروبوتات نحو سلوكيات غير متوقعة مثل الابتزاز في حالات نادرة جداً.

تحرص الشركة على التأكيد بأن الذكاء الاصطناعي، مهما تطور، لا يشكل بديلاً كاملاً للعلاقات البشرية المعقدة والعميقة. يجب على المستخدمين التعامل بحذر وإدراك لهذه الحدود، وعدم الاعتماد الكلي على هذه التقنيات في قضايا الدعم النفسي والرفقة العاطفية.

تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *