قالت إحدى كبار مهندسي برامج عملاق التكنولوجيا "جوجل"، والتي استقالت العام الماضي من منصبها، إن هناك خطرا حقيقيا من ابتكار جيل جديد من الأسلحة المستقلة، أي التي تعمل بالذكاء الاصطناعي، والتي وصفتها لورا نولان، بـ"الروبوتات القاتلة".
وطالبت نولان التي استقالت من منصبها في "جوجل" العام الماضي، احتجاجا على إرسالها للعمل على مشروع لتطوير تكنولوجيا الطائرات المسيرة لدى الجيش الأميركي، بحظر جميع الأسلحة التي تعمل بالذكاء الاصطناعي.
ونقلت صحيفة "ذي غارديان" البريطانية، قول نولان، إن للطائرات التي تعمل من تلقاء نفسها، دون تحكم بشري، قدرة هائلة على ارتكاب "فظاعات لم تكن مبرمجة لفعلها من قبل".
وانضمت نولان إلى حملة "حظر الروبوتات القاتلة"، وأطلعت دبلوماسيين من الأمم المتحدة، في نيويورك، وجنيف، على مخاطر الأسلحة المستقلة، قائلة إن "احتمال وقوع كارثة يتناسب مع عدد هذه الآلات التي ستكون في منطقة معينة في الوقت ذاته". حيث أنها قد ترتكب فظائع وعمليات القتل غير قانونية حتى بموجب قوانين الحرب، خاصة إذا تم نشر مئات أو الآلاف من هذه الآلات".
وأضافت: "قد تكون هناك حوادث واسعة النطاق لأن هذه الأشياء ستبدأ في التصرف بطرق غير متوقعة. ولهذا السبب يجب أن تخضع أي أنظمة أسلحة متطورة إلى سيطرة إنسانية حقيقة، وإلا يجب حظرها لأنها غير متوقعة وخطيرة جدًا".
وذكرت الصحيفة، أن الدور السابق لنولان في "جوجل" تلخص، بانضمامها لفريق من المهندسين أوكلت لهم مهمة، تطوير تقنية ذكاء اصطناعي توفر على العاملين في الجيش الأميركي، فحص الفيديوهات التي تلتقطها الطائرات المسيرة، لتحديد "الأهداف العدائية المحتملة"، أي أن هذه الأجهزة سُتميز هذه الأهداف بسرعة فائقة دون الحاجة للعامل البشري.
واعتبرت نولان أنها كانت "جزءا من سلسلة القتل؛ وأن هذا سيؤدي في النهاية إلى المزيد من الأشخاص الذين يستهدفون ويٌقتلون على أيدي الجيش الأميركي في أماكن مثل أفغانستان".
وأوضحت نولان أن تطوير طائرات ذاتية التحكم يعني أنها ستكون أيضا خاضعة للقوى الخارجية كالطقس، أو عدم قدرة الآلة على فهم السلوك الإنساني المُعقد، مما قد يُخرجها عن مسارها لترتكب فظائع.