الذكاء الاصطناعي
الذكاء الاصطناعي


علما يحذرون من استخدام الذكاء الاصطناعي لإنتاج أسلحة بيولوجية 

وليد سيد حافظ

الأحد، 26 مايو 2024 - 10:03 ص

حذر كبار العلماء من استخدام الذكاء الاصطناعي سيكون كارثيا على البشرية، أذا تم استخدامه لإنتاج أسلحة بيولوجية، مما قد تؤدي لهلالك البشرية.

لذلك دعا العلماء منذ فترة طويلة قادة العالم إلى اتخاذ إجراءات أقوى ضد المخاطر التي يشكلها الذكاء الاصطناعي على العالم.

وفي تقرير جديد نُشر، حذر الخبراء من أن التقدم لم يكن كافيًا منذ انعقاد قمة سلامة الذكاء الاصطناعي الأولى في لندن قبل ستة أشهر. 

ويقول التقرير إن الحكومات تتحمل مسؤولية وقف تطوير الذكاء الاصطناعي بقدرات مثيرة للقلق ، مثل الحرب البيولوجية أو النووية.

"لقد اتفق العالم خلال قمة الذكاء الاصطناعي الأخيرة على أننا بحاجة إلى العمل، ولكن حان الوقت الآن للانتقال من المقترحات الغامضة إلى الالتزامات الملموسة.

وقال البروفيسور فيليب تور،  قسم العلوم الهندسية  بجامعة أكسفورد، وهو مشارك في التقرير، أن الذكاء الاصطناعي متفوق على البشر في العديد من السلوكيات، مثل القرصنة والجرائم الإلكترونية والتلاعب الاجتماعي، ولا توجد لوائح تمنع سوء استخدام الذكاء الأصطناعي.

وأضاف فيليب قائلا : "يمكن لروبوتات الدردشة التي تعمل بالذكاء الاصطناعي والروبوتات البشرية المستقبلية استخدام أساليب التلاعب لكسب ثقة الإنسان وجذب صناع القرار إلى الإجراءات التي من شأنها تعزيز أهدافها الفاسدة". 

وقال أيضا ستيوارت راسل، أستاذ علوم الكمبيوتر في جامعة كاليفورنيا: "يدعو إلى تنظيم صارم من قبل الحكومات، لنتعامل بجدية مع أنظمة الذكاء الاصطناعي المتقدمة". 

وأضاف راسل إلى شركات التكنولوجيا الكبرى التي تجادل بأن لوائح السلامة ستخنق الابتكار: "هذا أمر مثير للسخرية. هناك لوائح تنظيمية بشأن محلات الساندويتشات أكثر من تلك المفروضة على شركات الذكاء الاصطناعي".
 

 

 

الكلمات الدالة

 
 
 
 

 

 
 
 
 
 

مشاركة