من صانعه.. سام ألتمان يحذر من الثقة العمياء في ChatGPT

حث سام ألتمان، الرئيس التنفيذي لشركة OpenAI، مستخدمي ChatGPT على عدم الثقة العمياء في الأداة، مشيرًا إلى أن النموذج رغم قوته لا يزال عرضة للأخطاء. أعرب ألتمان عن دهشته من حجم الثقة المفرطة التي يمنحها المستخدمون للنموذج، داعيًا إلى التعامل معه بحذر شديد.

تحذير مباشر من مؤسس OpenAI

أثار سام ألتمان، الرئيس التنفيذي لـOpenAI، مفاجأة كبيرة خلال الحلقة الأولى من البودكاست الرسمي للشركة، بتأكيده على ضرورة عدم الثقة المطلقة في ChatGPT. عبر ألتمان عن دهشته من حجم الاعتماد الذي يظهره المستخدمون على الأداة، رغم علمهم بمحدوديتها الكبيرة وقابليتها للأخطاء الشائعة.

صرح ألتمان بأن “الناس يثقون بـChatGPT إلى هذا الحد، رغم أنه أداة معروفة بـ “الهلوسة”، إنها من تلك التقنيات التي لا ينبغي أن تثق بها كثيرًا”. هذه التصريحات القوية جاءت لتسلط الضوء على تحديات الموثوقية في أدوات الذكاء الاصطناعي التي تستخدم في مهام يومية متنوعة.

اقرأ أيضًا: ثورة بصرية.. براءة اختراع أبل تجعل كاميرا آيفون تضاهي العين البشرية والسينما الاحترافية

أوضح ألتمان أن النموذج، كغيره من نماذج اللغة الضخمة، لا “يفهم” العالم كما يفهمه البشر، بل يعتمد على التنبؤ بالكلمة التالية استنادًا إلى البيانات التي تم تدريبه عليها. هذا الأسلوب قد يجعله يقدم أحيانًا معلومات مغلوطة أو مختلقة تمامًا، وهي الظاهرة المعروفة في مجال الذكاء الاصطناعي باسم “الهلوسة”. أكد ألتمان بوضوح: “النموذج ليس موثوقًا تمامًا، ويجب أن نكون صادقين بشأن ذلك”.

مخاطر الاعتماد المفرط وأهمية الشفافية

رغم الشعبية الواسعة لـChatGPT واعتماد المستخدمين عليه في مجالات متعددة مثل الكتابة والبحث وتقديم النصائح، حذر ألتمان من الاعتماد الزائد على مخرجاته. شدد على خطورة التعامل مع إجابات النموذج وكأنها حقائق مؤكدة، خاصة أن ChatGPT قد يصوغ إجابات مقنعة لكنها غير صحيحة أو مضللة تمامًا.

أشار ألتمان إلى أهمية التوعية والشفافية في التعامل مع أدوات الذكاء الاصطناعي، والتأكيد على أن هذه الأدوات لا تخلو من التحيزات أو الأخطاء الكامنة. كما تطرق إلى بعض الميزات الجديدة القادمة لـChatGPT، مثل الذاكرة المستمرة وإمكانية إدخال نموذج مدعوم بالإعلانات، وهي خطوات تهدف لتحسين التجربة وتحقيق عوائد مالية، لكنها تثير تساؤلات جديدة حول الخصوصية واستخدام البيانات.

اقرأ أيضًا: حجب كبير.. منصة X توقف حسابات وكالة رويترز في الهند

نصيحة الخبراء: ثق.. ولكن تحقق

تتوافق تصريحات سام ألتمان مع وجهات نظر أخرى داخل مجتمع الذكاء الاصطناعي، أبرزها رأي جيفري هينتون، المعروف بلقب “عراب الذكاء الاصطناعي”. عبر هينتون عن موقف مشابه في مقابلة مع شبكة CBS، قائلًا: “رغم تحذيري من مخاطر الذكاء الاصطناعي المتقدم، إلا أنني نفسي أميل إلى تصديق ما يقوله GPT-4 أكثر مما ينبغي”.

أوضح هينتون ذلك من خلال اختبار بسيط: “سالي لديها ثلاثة إخوة. كل من إخوتها لديه أختان، كم عدد أخوات سالي؟”. أجاب GPT-4 إجابة خاطئة، رغم أن الجواب الصحيح هو “واحدة” (سالي نفسها). علق هينتون قائلاً: “ما زال الأمر يفاجئني حين يخطئ في مسائل بسيطة مثل هذه”، مضيفًا أنه يتوقع أن النماذج المستقبلية، مثل GPT-5، قد تتفادى مثل هذه الأخطاء المعقدة.

في نهاية المطاف، يتفق كل من ألتمان وهينتون على أن الذكاء الاصطناعي يمكن أن يكون أداة فعالة ومفيدة للغاية، لكنه لا ينبغي أن يعامل كمصدر لا يخطئ. وبينما تتعمق هذه التقنيات في تفاصيل حياتنا اليومية بشكل متزايد، تظل النصيحة الأهم والذهبية هي: ثق.. لكن تحقق.

تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *