رعب جديد ينذر العالم.. أسلحة نووية بالذكاء الاصطناعي باب جحيم في فصل التطور
في عام 1983 كان أحد ضباط الجيش السوفيتي “ روسيا الآن” بقوات الدفاع الجوي يراقب أنظمة الإنذار المبكر النووية، عندما انذره الردار المراقب بأعلى ثقة أن الولايات المتحدة شنت حربًا نووية، وهناك صواريخ نووية باتجاه الاراضي السوفيتيه، لكن هذا الضابط كان متشككًا، فقد قدر الكمبيوتر الخاص بالردار أن عددًا قليلاً فقط من الصواريخ النووية كان قادمًا، لكن مثل هذا الهجوم المفاجئ من شأنه أن يؤدي إلى ضربة أولى ساحقة للاتحاد السوفيتي، لكنه لم يثق في نظام الكشف عن الصواريخ النووية، ولم يكن لدى نظام الرادار أدلة داعمة، لكن قرر هذا الضابط بعدم التبليغ بهذا الأنذار الكاذب ولم يفعل شيئًا، هنا كان الرصد خاطئ، وكان الضابط على حق بأن الإشارات خاطئة، وظهر فيما بعد أن نظام الإنذار المبكر خلط بين انعكاس الشمس عن الغيوم على أنه صواريخ، هذه الواقعة كان بشأنها إقامة حرب نووية بين قطبي العالم إنذاك الاتحاد السوفيتي وأمريكا خصوصا وأنهم كانوا في حرب بارده وعلاقات متوتره في هذه الحقبة الزمنية، لكن الامر تجدد الآن لكن بتطور تكنولوجي رهيب يسمى بالذكاء الاصطناعي، هذا التطور أظهر مخاوف لدى الكثير خاصة ان البشر يسعون إلى تمكين الذكاء الاصطناعي من الاستخدام النووي بدءًا من الاعمال السلمية النووية إلى الإسلحة وهنا يكمن القلق، فكيف يتمكن الذكاء الاصطناعي من المجال النووي طريقة وأسلوب؟ وخطورة هذا التمكين على البشرية؟.
في هذا الصدد قال زكاري كالينبورن خبير تابع لقسم الأسلحة غير التقليدية والتكنولوجيا في الاتحاد الوطني لدراسة الإرهاب، إن الجيوش تعمل بشكل متزايد على دمج الوظائف المستقلة في أنظمة الأسلحة، فإنها لم تقم بعد بتحويل رموز الإطلاق النووي إلى نظام ذكاء اصطناعي، ونجد أن روسيا طورت طوربيدًا مسلحًا نوويًا يعمل بالطاقة النووية ويكون مستقلاً بطريقة ما غير معروفة، وفي المقابل اقترح مطوري الدفاعات الأمريكية بتطوير عملية إطلاق الإسلحة النووية عن طريق الذكاء الاصطناعي.
وأوضح كالينبورن كيف يمكن أن تسوء الأسلحة النووية المستقلة، مأكدا أن المشكلة الكبيرة مع هذه الأسلحة، وكل الأسلحة المستقلة حقًا ، هي الخطأ، حيث يعتمد الذكاء الاصطناعي القائم على التعلم الآلي على كميات كبيرة من البيانات لأداء مهمة ما، قد تكون البيانات متحيزة أو غير كاملة من جميع أنواع الطرق، في سياق الأسلحة النووية قد يكون لدى الحكومة القليل من البيانات حول المنصات العسكرية للخصم، قد تكون البيانات الموجودة متحيزة من الناحية الهيكلية، على سبيل المثال، بالاعتماد على صور الأقمار الصناعية أو البيانات قد لا تأخذ في الحسبان الاختلافات الواضحة والمتوقعة مثل الصور الملتقطة أثناء طقس ضبابي أو ممطر أو ملبد بالغيوم، فإن طبيعة الصراع النووي تعقد مشكلة الخطأ.
كيف يمكن تدريب الذكاء الاصطناعي للأسلحة النووية؟
أشار زكاري إلى استخدام الأسلحة النووية مرتين فقط في هيروشيما وناجازاكي، والأزمات النووية الخطيرة نادرة، ربما يمكن استخلاص الاستنتاجات من العقيدة والخطط النووية وأنماط الاستحواذ والنشاط التشغيلي للخصم، لكن عدم وجود أمثلة فعلية للصراع النووي يعني أن الحكم على جودة تلك الاستنتاجات أمر مستحيل، في حين أن نقص الأمثلة يعيق البشر أيضًا، فإن البشر لديهم القدرة على التفكير المنطقي الأعلى، يمكن للبشر إنشاء نظريات وتحديد العموميات من المعلومات أو المعلومات المحدودة المماثلة، ولكن ليست مكافئة، وفي المقابل لا يمكن للآلات أو الذكاء الوصول لنفس تفكير البشر الباحث والمفكر والمستنتج وذلك لعدم توافر بيانات جديده او محدثه لديه.
وأضاف أن التحدي الأعمق هو توقع الأحداث النادرة، فلم يكن هناك سوى هجومين نوويين في التاريخ، كما أن النظام المستقل المصمم للكشف عن الأسلحة النووية في أى هجوم وصدها، حتى لو كان عالي الدقة، سيُظهر في كثير من الأحيان نتائج خاطئة ففي كوريا الشمالية وإيران وأماكن أخرى، يتم إطلاق الصواريخ التجريبية في البحر ويتم إطلاق الصواريخ في الغلاف الجوي، وكان هناك العديد من الإنذارات الكاذبة حول وقوع هجمات نووية، أكثر بكثير من الهجمات الفعلية، لذلك لا يزال أمام الذكاء الاصطناعي الصحيح طوال الوقت تقريبًا الكثير من الفرص لفهمه بشكل أكبر، وبالمثل مع اختبار يشخص بدقة حالات مرض نادر بنسبة 99%، قد يعني التشخيص الإيجابي مجرد 5٪ احتمالية الإصابة بالمرض بالفع ، اعتمادًا على الافتراضات حول انتشار المرض والمعدلات الإيجابية الكاذبة، هذا لأنه في الأمراض النادرة، يمكن أن يفوق عدد النتائج الكاذبة بشكل كبير عدد النتائج الحقيقية، لذا إذا تم التوصل إلى سلاح نووي مستقل بثقة 99%، فإن الحرب النووية على وشك أن تبدأ.
وتابع أنه في حالة إمكانية حل جميع هذه المشكلات، وهو أمر بعيد الاحتمال للغاية، فإن الأسلحة النووية المستقلة تقدم مخاطر جديدة للخطأ وفرصًا للأطراف السيئة للتلاعب بالأنظمة، الذكاء الاصطناعي الحالي ليس هشًا فحسب فمن من السهل أن تخدعه. يكفي تغيير البكسل الواحد لإقناع الذكاء الاصطناعي بأن القاذفة الشبح كلب، هذا يخلق مشكلتين إذا سعت دولة ما بالفعل إلى حرب نووية، فيمكنها خداع نظام الذكاء الاصطناعي أولاً، مما يجعله عديم الفائدة أو قد تحاول منظمة إرهابية ذات موارد جيدة ومروعة خداع نظام الخصم لبدء حرب نووية تحفيزية، يمكن تنفيذ كلا النهجين بطرق دقيقة للغاية ويصعب اكتشافها، قد يؤدي تسمم البيانات إلى التلاعب ببيانات التدريب التي تغذي نظام الذكاء الاصطناعي، أو يمكن استخدام أنظمة غير مأهولة أو بواعث لخداع الذكاء الاصطناعي للاعتقاد بأن هجومًا نوويًا واردًا.
وفي الآخير أكد الخبير في الأسلحة الغير تقليدية إن التحدي المتمثل في الأسلحة النووية المستقلة تحدٍ خطير لم يحظ باهتمام كبير، إن إجراء تغييرات على معاهدة عدم انتشار الأسلحة النووية لمطالبة الدول الحائزة للأسلحة النووية بالحفاظ على السيطرة البشرية على الأسلحة النووية هي مجرد البداية. على أقل تقدير ، إذا اندلعت حرب نووية ، فسنعرف على من يقع اللوم.
مجلس الأمن يحذر
قال جوتيريس في أول اجتماع لمجلس الأمن حول هذا الموضوع: "من الواضح أن الذكاء الاصطناعي سيكون له تأثير على كل مجال من مجالات حياتنا".
وأضاف أن "الذكاء الاصطناعي التوليدي لديه إمكانات هائلة للخير والشر على نطاق واسع" ، مشيرًا إلى أنه في حين أنه يمكن أن يساعد في القضاء على الفقر أو علاج السرطان ، يمكن أن يكون لهذه التكنولوجيا أيضًا "عواقب وخيمة للغاية على السلام والأمن العالميين".
وقال وزير الخارجية البريطاني جيمس كليفرلي ، الذي تتولى بلاده حاليًا الرئاسة الدورية لمجلس الأمن ، إن الذكاء الاصطناعي "سيؤثر على عمل هذا المجلس. ويمكن أن يعزز أو يعطل الاستقرار الاستراتيجي العالمي".
وقال كليفرلي، الذي ستستضيف حكومته قمة منظمة العفو الدولية في وقت لاحق من هذا العام: "إنها تتحدى افتراضاتنا الأساسية حول الدفاع والردع. إنها تطرح أسئلة أخلاقية حول المساءلة عن القرارات الفتاكة في ساحة المعركة".
طلب جوتيريش من الدول الأعضاء وضع اتفاقية ملزمة قانونًا لـ "حظر أنظمة الأسلحة الفتاكة ذاتية التشغيل" بحلول نهاية عام 2026.
وقال جوتيريس إنه بينما يمكن استخدام الذكاء الاصطناعي لتحديد أنماط العنف أو لمراقبة وقف إطلاق النار ، إلا أنه حذر من أن استخدامها من قبل الإرهابيين أو الحكومات ذات النوايا السيئة يمكن أن يتسبب في "مستويات مروعة من الموت والدمار".
كما حذر من أن خلل في الذكاء الاصطناعي يمكن أن يسبب الخراب ، خاصة إذا تم استخدام التكنولوجيا فيما يتعلق بأنظمة الأسلحة النووية أو التكنولوجيا الحيوية.
وقال "إنني أحث على الاتفاق على المبدأ العام القائل بأن الفاعلية والسيطرة البشرية ضروريان للأسلحة النووية ولا ينبغي أبدا سحبها".
ودعا إلى تشكيل مجموعة عمل لتطوير خيارات لحوكمة الذكاء الاصطناعي العالمية بحلول نهاية العام.
وجدد دعمه لكيان تابع للأمم المتحدة لدعم الجهود المبذولة للتحكم في استخدام الذكاء الاصطناعي، على غرار الوكالة الدولية للطاقة الذرية أو منظمة الطيران المدني الدولي.