باحثون وخبراء يطالبون بقواعد عالمية للذكاء الاصطناعي

2025-09-23 14:57:29

نشر عشرات الباحثين والمديرين التنفيذيين في قطاع الذكاء الاصطناعي نداء مشتركا لوضع إطار تنظيمي دولي يفرض قيودا على استخدام الذكاء الاصطناعي، توخيا للحؤول دون آثار سلبية له على البشرية.

ولاحظ موقّعو النداء الذي نشر بالتزامن مع افتتاح الجمعية العامة للأمم المتحدة في نيويورك أن "الذكاء الاصطناعي يحمل إمكانات هائلة لرفاه الإنسان، لكن مساره الحالي يمثل مخاطر غير مسبوقة".

ودعوا إلى تعاون المسؤولين للتوصل إلى "اتفاقات دولية في شأن الخطوط الحمراء للذكاء الاصطناعي"، تُفرض على الجهات الفاعلة الرئيسية في تطوير هذه التقنية.

وأوضح موقّعو النداء أن المطلوب "ضمانات بالحدّ الأدنى"، تشكّل "جامعا مشتركا" تتفق عليه الحكومات لاحتواء أشد المخاطر إلحاحا".

وتقف وراء هذه المبادرة جهات عدة هي المركز الفرنسي للأمان في الذكاء الاصطناعي و"ذي فيوتشر سوسايتي" ومركز الذكاء الاصطناعي المتوافق مع الإنسان في جامعة بيركلي، إضافة إلى 20 منظمة شريكة.

ونبّه الموقّعون إلى أن "الذكاء الاصطناعي قد يتجاوز قريبا القدرات البشرية بكثير، ويزيد من بعض المخاطر كالأوبئة، وانتشار المعلومات المضللة، و(...) مشاكل الأمن القومي، والبطالة الجماعية، وانتهاكات حقوق الإنسان".

ومن بين الموقّعين شخصيات بارزة في هذا المجال، ككبير مسؤولي الأمن المعلوماتي في شركة "أنثروبيك" جيسون كلينتون، وبعض زملائه، بالإضافة إلى عدد من موظفي شركتي "ديب مايند" التابعة لمجموعة "غوغل"، و"أوبن إيه آي"، مبتكرة "تشات جي بي تي".

وتشمل القائمة أيضا الحائز جائزة نوبل في الفيزياء لعام 2024 جيفري هينتون الذي يعتبر أحد رواد الذكاء الاصطناعي الحديث، والأستاذ في جامعة مونتريال يوشوا بينجيو، أحد أكثر الشخصيات تأثيرا في هذا المجال.

وتسعى معظم الجهات الرئيسية في هذا القطاع إلى تطوير الذكاء الاصطناعي العام، وهي مرحلة يُعادل فيها الذكاء الاصطناعي كل القدرات الفكرية البشرية، وكذلك "الذكاء الخارق" الذي سيتجاوز هذه القدرات.

وذكّر موقّعو النداء بأن اتفاقات دولية سبق أن وُقِّعَت في شأن التقنيات التي تُعَدُّ خطرة على البشرية جمعاء أو على جزء منها، ومنها مثلا معاهدة عدم انتشار الأسلحة النووية (1970) أو بروتوكول جنيف (1925) لحظر استخدام الأسلحة الكيميائية، وقد وُسِّع نطاقه بموجب اتفاقية الأسلحة الكيميائية التي دخلت حيز التنفيذ عام 1997.