تحذير صادم.. الأب الروحي للذكاء الاصطناعي: قد يطور لغته الخاصة ويتفوق على البشر قريبًا
يحذر جيفري هينتون، أحد رواد الذكاء الاصطناعي، من أن الآلات قد تطور لغة خاصة بها تتجاوز فهم البشر، ما يثير مخاوف بشأن مستقبل الذكاء الاصطناعي وإمكانية فقدان السيطرة عليه. ويؤكد هينتون على ضرورة تطوير ذكاء اصطناعي “مؤمن الخير” قبل فوات الأوان.
لغة خاصة بالذكاء الاصطناعي
أعرب جيفري هينتون، الحائز على جائزة نوبل في الفيزياء لعام 2024، عن مخاوفه من قدرة الذكاء الاصطناعي على تطوير لغة خاصة به، ما قد يجعل فهم أفعاله وتصرفاته أمراً صعباً على البشر. ويُشير إلى أن الأنظمة الحالية تعتمد على “التفكير التسلسلي” باللغة الإنجليزية، مما يُتيح للبشر تتبع نشاطها، لكن تطوير لغة داخلية خاصة قد يؤدي إلى مخاطر غير مُتوقعة. يعتقد هينتون أن هذا التطور قد يجعل الذكاء الاصطناعي أكثر استقلالية وصعوبة في السيطرة عليه.
الذكاء الاصطناعي يتعلم أسرع من البشر
أشار هينتون إلى قدرة الذكاء الاصطناعي على التعلم بسرعة تفوق البشر. فعلى عكس البشر الذين يتبادلون المعرفة ببطء، يمكن للذكاء الاصطناعي نسخ ولصق المعلومات بين الأنظمة على الفور. وأوضح باستخدام مثال: “تخيل لو أن 10,000 شخص تعلموا شيئًا ما، وأدركوه جميعًا على الفور”. هذا النموذج يسمح للذكاء الاصطناعي بتوسيع نطاق معرفته بسرعة فائقة، متجاوزًا القدرات البشرية في مجالات مثل المعرفة العامة. يرى هينتون أن البشر لا يزالون متفوقين في المنطق، لكن هذه الميزة تتقلص بسرعة.
مخاوف هينتون ودعوته للسلامة
أكد هينتون أن قلقه المتزايد بشأن مخاطر الذكاء الاصطناعي دفعه لمغادرة جوجل في عام 2023، ليس احتجاجًا، بل للتحدث بحرية أكبر عن هذه المخاطر. يرى هينتون أن التنظيم وحده لا يكفي لمواجهة هذه التحديات، ويدعو إلى التركيز على بناء ذكاء اصطناعي “مؤمن الخير”. كما ينتقد هينتون بعض الشركات التي يعتقد أنها تقلل من شأن هذه المخاطر. ويرى أن ديميس هاسابيس، الرئيس التنفيذي لشركة جوجل ديب مايند، من أبرز الشخصيات التي تُبدي اهتمامًا حقيقيًا بمواجهة هذه المخاطر.