منوعات

هل يضغط الذكاء الاصطناعي على زر “يوم القيامة”؟

حذر خبراء من أن الاعتماد المتزايد على أنظمة الذكاء الاصطناعي يمكن أن يؤدي إلى حرب نووية بحلول عام 2040.

ولكن هذا السيناريو المروع لن يفسر كيفية تخيل فكرة قيام برنامج الكمبيوتر بالضغط على زر “يوم القيامة”. وبدلا من ذلك، يمكن أن تؤدي التطورات التكنولوجية إلى قيام الحكومات بتخزين المزيد من الأسلحة النووية، والتحول إلى أنظمة الذكاء الاصطناعي للحصول على مشورة خاطئة حول موعد استخدامها.

وجاء في التقرير الجديد الصادر عن مؤسسة “Rand Corporation” الاستشارية، أن “الأمر لا يتعلق بالقلق من الروبوتات القاتلة في أفلام هوليوود، وإنما يتمثل في الطريقة التي قد تتحدى بها الحواسيب القواعد الأساسية للردع النووي وتقود البشر إلى اتخاذ قرارات مدمرة”.

وشملت الدراسة مدخلات من متخصصين في مجموعة من المجالات، بما في ذلك الأمن النووي والحكومات وأبحاث وسياسة الذكاء الاصطناعي والصناعة.

وطُلب من الخبراء أن يتصوروا كيف ستبدو أنظمة الأسلحة النووية في عام 2040، وأن يستكشفوا كيفية تأثير الذكاء الاصطناعي عليها.

وتدعي الدراسة أن الذكاء الاصطناعي يمكن أن يقوض الاستقرار الجيوسياسي، ويزيل فكرة وضع الأسلحة النووية كوسيلة للردع.

ويتوقف هذا التوقع على التحول عن مبدأ “التدمير المتبادل المؤكد”، الذي طالما استمر الحفاظ عليه، أو “الثأر المؤكد” الذي يمنع دولة ذات قدرات نووية من ضرب عدو مسلح على قدم المساواة، بسبب الإبادة الكاملة التي سيعاني منها كلا الجانبين.

ويشدد التقرير أيضا على أنه يمكن اختراق الذكاء الاصطناعي وإدخال معلومات خاطئة. وسيكون هذا الأمر مثيرا للقلق بشكل خاص في المستقبل، عندما تعتمد الحكومات بشكل متزايد على أنظمة الكمبيوتر للحصول على المشورة حول شن هجوم نووي.

ويشير التقرير إلى خطأ مشابه كاد يحدث في عام 1983، عندما رصد الضابط العسكري السوفيتي السابق، ستانيسلاف بيتروف، تحذيرا غير صحيح على جهاز الكمبيوتر بأن الولايات المتحدة أطلقت عدة صواريخ. واعتُرف ببتروف، الذي توفي أواخر العام الماضي، بأنه الرجل الذي أنقذ العالم من كارثة نووية.

روسيا اليوم