وقع أكثر من 850 شخصية عامة وخبيرًا تقنيًا على بيان عالمي يدعو إلى وقف تطوير ما يُعرف بالذكاء الفائق، وهو شكل من الذكاء الاصطناعي يُتوقع أن يتفوّق على القدرات البشرية في جميع المجالات المعرفية، ما يثير مخاوف واسعة بشأن تأثيراته على المجتمع والاقتصاد والأمن القومي.
وحمل البيان، الذي نُشر يوم الأربعاء، توقيعات رواد الذكاء الاصطناعي الأوائل مثل يوشوا بنجيو وجيف هينتون، المعروفين بـ”آباء الذكاء الاصطناعي الحديث”، إضافة إلى البروفيسور ستيوارت راسل من جامعة كاليفورنيا في بيركلي.
وجاء في البيان أن السعي وراء بناء ذكاء فائق يطرح مخاطر خطيرة تشمل البطالة الواسعة نتيجة استبدال البشر بالأنظمة الذكية، وتراجع الحريات الفردية، وفقدان السيطرة على الأنظمة، وصولاً إلى تهديد الأمن القومي وحتى بقاء الإنسان نفسه.
وطالب الموقعون بفرض حظر مؤقت على تطوير الذكاء الفائق إلى أن يتحقق توافق علمي واسع ودعم شعبي يضمن إمكانية تطويره بشكل آمن وخاضع للرقابة. ويهدف هذا التحرك إلى خلق إطار تنظيمي متفق عليه دوليًا يمكنه تقليل المخاطر المرتبطة بهذه التكنولوجيا المتقدمة.
وشملت قائمة الموقعين شخصيات من المجالات الأكاديمية والإعلامية والسياسية والدينية، من بينهم مسؤولون أميركيون سابقون مثل مايك مولين، الرئيس الأسبق لهيئة الأركان المشتركة، وسوزان رايس، مستشارة الأمن القومي السابقة. كما تضمنت القائمة شخصيات إعلامية بارزة مثل ستيف بانون وجلين بيك، ما يعكس أن المخاوف من الذكاء الاصطناعي تجاوزت الانقسامات الحزبية التقليدية.
الأمير هاري ضمن الموقعين
ولفت البيان الانتباه أيضًا بمشاركة الأمير هاري وزوجته ميجان ماركل ضمن الموقعين، مما يوضح اتساع نطاق الجبهة الرافضة لتسريع تطوير الذكاء الاصطناعي دون ضوابط واضحة.
ويأتي هذا التحرك في وقت تتنافس فيه شركات التكنولوجيا الكبرى مثل OpenAI وxAI التابعة لإيلون ماسك وميتا على تطوير نماذج لغوية أكثر تقدماً، إذ أنشأت الأخيرة مختبرات الذكاء الفائق لتسريع البحث والتطوير في هذا المجال. وبينما يرى البعض أن هذه التطورات تمهد لعصر جديد من الابتكار، يحذر آخرون من أن البشرية قد تكون على وشك تجاوز “خط أحمر” تقني يصعب العودة عنه، مما يستدعي توخي الحذر ووضع ضوابط واضحة قبل التوسع في هذه التكنولوجيا.













