يقول الخبراء : يمكن أن تحدث حرب النجوم النوويه بحلول 2040 التي يمكنها أن تمحو البشريه كيوم القيامه


يقول الخبراء : يمكن أن تحدث حرب النجوم النووية بحلول عام 2040 التي يمكنها أن تمحو البشرية كيوم القيامه



تشير التحذيرات الغريبة من خبراء الذكاء الأصطناعي إلى أن الذكاء الأصطناعي يمكن أن يؤدي إلى بدء حرب نووية بحلول عام 2040 يمكنها أن تدمر حضارتنا ، وقد لا يكون هناك شيء يمكننا فعله حيال ذلك!! وفي دراسة حديثة أجراها خبراء أمنيين بارزون تعتقد أن التقدم في مجال الذكاء الأصطناعي يمكن أن يؤدي إلى إنشاء آلات يوم القيامة التي قد تتسبب في أن تتخذ الدول في جميع أنحاء العالم مخاطر كارثية مع ترساناتها النووية. ولفهم ما يتحدث عنه الخبراء ، دعنا نأخذ رحلة العودة إلى الحرب الباردة. في ذلك الوقت ، كانت الحالة المشار إليها بأسم التدمير المؤكد المتبادل (Mad) هي عقيدة الأستراتيجية العسكرية وسياسة الأمن القومي التي يؤدي فيها الأستخدام الكامل للأسلحة النووية من جانب طرفين متعارضين أو أكثر إلى الإبادة الكاملة لكل من المهاجمين.

ويحافظ المدافع على سلام غير مستقر بين القوى العظمى. ولم يكن لدى كلا الطرفين الحائزين لأسلحة الدمار الشامل سوى القليل من المبادرات لشن مثل هذا الهجوم المدمر ، حيث كان يمكن الرد عليه بالأنتقام المدمر أيضاً. ومع ذلك ، أنتهت الحرب الباردة منذ فترة طويلة ، ودخلنا عصرًا عسكريًا حديثًا لم يعد يضمنه التقدم في مجال الذكاء الأصطناعي. ويقول خبراء من مؤسسة راند ، وهي منظمة غير ربحية مقرها في سانتا مونيكا ، كاليفورنيا ، أن هذا السيناريو يفتح عدداً من المشاكل بما في ذلك إمكانية اخراج قدرة العدو على شن هجوم مضاد ، وربما يكون هناك القليل جداً يمكننا القيام به حيال ذلك. وتقدم مؤسسة راند البحث والتحليل للقوات المسلحة الأمريكية حول قضايا السياسة العالمية. ويقولون أنه نظراً للتطورات العديدة في مجال الذكاء الاصطناعي ، في العقود القادمة يمكن لمنظمة العفو الدولية من الناحية العملية إلغاء قدرة الجنون على إبقاء التوترات النووية في سهولة. وتشرح الدراسة الجديدة كيف يمكن لعوامل الذكاء الأصطناعي المستقبلية ، مع أجهزة الاستشعار وبيانات المصادر المفتوحة إقناع البلدان بأن قدراتها النووية في خطر. ويجادل التقرير بأن هذا قد يتسبب في اتخاذ الدول إجراءات أكثر صرامة لمواكبة الدول العسكرية الرائدة مثل الولايات المتحدة. وفي معرض حديثه عن هذه القضية ، قال "أندرو لوهن" المؤلف المشارك في الصحيفة والمهندس المساعد في راند: "يخشى بعض الخبراء من أن الأعتماد المتزايد على الذكاء الأصطناعي ويمكن أن يؤدي إلى أنواع جديدة من الأخطاء الكارثية" وأضاف "قد يكون هناك ضغط لأستخدام الذكاء الأصطناعى قبل نضجه من الناحية التكنولوجية ، أو قد يكون عرضة للتخريب المناوئ. لذلك ، قد يكون من الصعب للغاية الحفاظ على الأستقرار الأستراتيجي في العقود المقبلة ، ويجب على جميع القوى النووية المشاركة في زراعة المؤسسات للمساعدة في الحد من المخاطر النووية ".

ولكن يمكن أن يكون هناك تهديد أكبر في الظلال فيقول خبراء من مؤسسة راند: "إن القادة العسكريين يمكن أن يتخذوا قرارًا خاطئًاً بشن هجوم على أساس نصيحة الذكاء الأصطناعي التي تم إطعامها معلومات خاطئة"!! ولكن بالإضافة إلى خطر التزود بالمعلومات الفاسدة فإن الذكاء الأصطناعي معرض أيضًا لخطر الأختراق ، والذي بدوره يفتح إمكانية أن تقوم أطراف ثالثة ضارة بالتحريض تمامًا مثل تلك الأشرار في أفلام هوليود على الصراع العالمي. فنأمل أن يضع العلماء زر إغلاق الآلات حتي نغلقها وقت الحاجه لذلك ضمن ترتيبات الأمان الخاصه بالذكاء الصناعي وأن يكون دوره محدود بالنسبه لعمل البشر..

مصدر sciencedaily

الأكثر قراءه