بلا تأجيل.. بروكسل تؤكد المضي قدماً في قانون الذكاء الاصطناعي وفق الجدول الزمني

أكد الاتحاد الأوروبي يوم الجمعة رفضه القاطع لتأجيل الجدول الزمني لتطبيق تشريعات الذكاء الاصطناعي التاريخية، متجاهلاً بذلك حملة ضغط مكثفة تقودها أكثر من مئة شركة تكنولوجية كبرى. تسعى هذه الشركات لإبطاء تنفيذ القانون داخل دول الاتحاد، محذرة من تأثيره السلبي على قدرة أوروبا التنافسية في هذا القطاع سريع التطور.

الاتحاد الأوروبي يرفض الضغوط: لا تأجيل لقانون الذكاء الاصطناعي

صرح توماس رينييه، المتحدث باسم المفوضية الأوروبية، بوضوح تام، مؤكدًا عدم وجود أي نية لوقف العمل بالتشريعات الجديدة. قال رينييه: “لا يوجد وقف للساعة. لا توجد فترة سماح. لا يوجد تأجيل”، في رد مباشر على تقارير ورسائل الشركات المطالبة بالمرونة. يعكس هذا الموقف الحازم التزام الاتحاد الأوروبي بتطبيق القانون في موعده المحدد.

قادت أكثر من مئة شركة تكنولوجية كبرى حملة ضغط واسعة النطاق لإبطاء تطبيق قانون الذكاء الاصطناعي. ومن بين الشركات البارزة التي طالبت بتأجيل التنفيذ كانت أسماء عالمية مثل Alphabet المالكة لجوجل، وميتا، وميسترال إيه آي، وASML. حذرت هذه الشركات مرارًا من أن التطبيق السريع قد يضر بقدرة أوروبا على المنافسة والابتكار في قطاع الذكاء الاصطناعي العالمي.

اقرأ أيضًا: الكشف الأول.. إليك كل ما نعرفه عن مواصفات جمس تيرين 2026 الجديدة وما ستقدمه

تفاصيل قانون الذكاء الاصطناعي الأوروبي: نهج قائم على المخاطر

يعتمد قانون الذكاء الاصطناعي الأوروبي على نهج تنظيمي شامل ومبتكر، يركز على تقييم مستوى المخاطر المرتبطة بكل تطبيق. يهدف هذا التصنيف إلى ضمان التوازن بين تشجيع الابتكار وحماية حقوق المستخدمين وسلامتهم. يتم تحديد المتطلبات التنظيمية بناءً على درجة الخطورة المحتملة التي يشكلها نظام الذكاء الاصطناعي.

يحظر القانون بشكل قاطع عددًا من تطبيقات الذكاء الاصطناعي التي تُصنف بأنها “تشكل خطرًا غير مقبول” على الأفراد والمجتمع. تشمل هذه التطبيقات تقنيات التلاعب السلوكي المعرفي التي تؤثر على قرارات الأشخاص، وأنظمة التقييم الاجتماعي التي تصنف الأفراد بناءً على سلوكياتهم، وذلك لحماية الحريات الأساسية.

تُصنف تطبيقات أخرى ضمن فئة “المخاطر العالية”، والتي تتطلب التزامًا بمعايير أكثر صرامة لضمان الأمان والشفافية. تشمل هذه الفئة تقنيات التعرف على الوجه والقياسات الحيوية، وكذلك استخدام الذكاء الاصطناعي في قطاعات حساسة مثل التعليم والتوظيف والرعاية الصحية. يجب على مطوري هذه الأنظمة تسجيل تطبيقاتهم رسميًا قبل طرحها في السوق الأوروبية.

اقرأ أيضًا: صدمة السوق.. كيا ريو أوتوماتيك تلامس نصف مليون جنيه بالصور

يجب على مطوري أنظمة الذكاء الاصطناعي المصنفة ضمن “المخاطر العالية” الامتثال لمتطلبات صارمة لإدارة الجودة والمخاطر. يضمن ذلك تطوير وتشغيل هذه الأنظمة بمسؤولية عالية، مما يوفر حماية كافية للمستخدمين النهائيين. هذه الإجراءات ضرورية للحصول على إذن بالتسويق لهذه التطبيقات داخل السوق الأوروبية الموحدة.

على النقيض، تُصنف تطبيقات مثل روبوتات الدردشة (chatbots) ضمن فئة “المخاطر المحدودة”، وتخضع لمتطلبات شفافية أقل صرامة. يتطلب القانون الكشف عن أن المحتوى يتم إنشاؤه بواسطة الذكاء الاصطناعي، لكنه لا يفرض نفس الأعباء التنظيمية على هذه الفئة. يهدف هذا التصنيف إلى عدم عرقلة الابتكارات ذات المخاطر المنخفضة.

تطبيق تدريجي لقانون الذكاء الاصطناعي حتى 2026

بدأ الاتحاد الأوروبي بالفعل في تطبيق قانون الذكاء الاصطناعي بشكل تدريجي منذ العام الماضي، في خطوة تمهيدية نحو التنفيذ الكامل. يهدف هذا النهج المرحلي إلى إتاحة الوقت الكافي للشركات والجهات المعنية للتكيف مع المتطلبات الجديدة والاستعداد للامتثال الكامل للقانون.

من المقرر أن تدخل القواعد الكاملة لقانون الذكاء الاصطناعي حيز التنفيذ بحلول منتصف عام 2026. هذا الإطار الزمني يمنح أوروبا السبق لتصبح أول كيان عالمي يطبق نظامًا تشريعيًا شاملاً ومنظمًا لضبط استخدامات الذكاء الاصطناعي داخل حدوده، مما يعزز مكانتها كقوة رائدة في حوكمة التكنولوجيا.

تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *