Logo Logo
الرئيسية
البرامج
جدول البرامج
الأخبار
مع السيد
مرئيات
تكنولوجيا ودراسات
أخبار العالم الإسلامي
تغطيات وتقارير
أخبار فلسطين
حول العالم
المزيد
مسلسلات
البرامج الميدانية
البرامج التخصصية
برامج السيرة
البرامج الثقافية
برامج الأطفال
البرامج الوثائقية
برامج التغطيات والتكنولوجيا
المزيد

مُهندسة سابقة بـ"جوجل" تُحذر من "الروبوتات القاتلة"

16 أيلول 19 - 10:15
مشاهدة
1459
مشاركة
قالت إحدى كبار مهندسي برامج عملاق التكنولوجيا "جوجل"، والتي استقالت العام الماضي من منصبها، إن هناك خطرا حقيقيا من ابتكار جيل جديد من الأسلحة المستقلة، أي التي تعمل بالذكاء الاصطناعي، والتي وصفتها لورا نولان، بـ"الروبوتات القاتلة".


وطالبت نولان التي استقالت من منصبها في "جوجل" العام الماضي، احتجاجا على إرسالها للعمل على مشروع لتطوير تكنولوجيا الطائرات المسيرة لدى الجيش الأميركي، بحظر جميع الأسلحة التي تعمل بالذكاء الاصطناعي.

ونقلت صحيفة "ذي غارديان" البريطانية، قول نولان، إن للطائرات التي تعمل من تلقاء نفسها، دون تحكم بشري، قدرة هائلة على ارتكاب "فظاعات لم تكن مبرمجة لفعلها من قبل".

وانضمت نولان إلى حملة "حظر الروبوتات القاتلة"، وأطلعت دبلوماسيين من الأمم المتحدة، في نيويورك، وجنيف، على مخاطر الأسلحة المستقلة، قائلة إن "احتمال وقوع كارثة يتناسب مع عدد هذه الآلات التي ستكون في منطقة معينة في الوقت ذاته". حيث أنها قد ترتكب فظائع وعمليات القتل غير قانونية حتى بموجب قوانين الحرب، خاصة إذا تم نشر مئات أو الآلاف من هذه الآلات".

وأضافت: "قد تكون هناك حوادث واسعة النطاق لأن هذه الأشياء ستبدأ في التصرف بطرق غير متوقعة. ولهذا السبب يجب أن تخضع أي أنظمة أسلحة متطورة إلى سيطرة إنسانية حقيقة، وإلا يجب حظرها لأنها غير متوقعة وخطيرة جدًا".

وذكرت الصحيفة، أن الدور السابق لنولان في "جوجل" تلخص، بانضمامها لفريق من المهندسين أوكلت لهم مهمة، تطوير تقنية ذكاء اصطناعي توفر على العاملين في الجيش الأميركي، فحص الفيديوهات التي تلتقطها الطائرات المسيرة، لتحديد "الأهداف العدائية المحتملة"، أي أن هذه الأجهزة سُتميز هذه الأهداف بسرعة فائقة دون الحاجة للعامل البشري.

واعتبرت نولان أنها كانت "جزءا من سلسلة القتل؛ وأن هذا سيؤدي في النهاية إلى المزيد من الأشخاص الذين يستهدفون ويٌقتلون على أيدي الجيش الأميركي في أماكن مثل أفغانستان".

وأوضحت نولان أن تطوير طائرات ذاتية التحكم يعني أنها ستكون أيضا خاضعة للقوى الخارجية كالطقس، أو عدم قدرة الآلة على فهم السلوك الإنساني المُعقد، مما قد يُخرجها عن مسارها لترتكب فظائع.
Plus
T
Print
كلمات مفتاحية

تكنولوجيا ودراسات

روبوتات

تكنولوجيا

طائرات

يهمنا تعليقك

أحدث الحلقات

من الإذاعة

سباحة آمنة | سلامتك

28 آب 24

يسألونك عن الإنسان والحياة

يسألونك عن الإنسان والحياة | 28-8-2024

28 آب 24

يسألونك عن الإنسان والحياة

يسالونك عن الإنسان والحياة | 27-8-2024

27 آب 24

حتى ال 20

آلة الزمن | حتى العشرين

26 آب 24

من الإذاعة

الألعاب الأولمبية ومشاركة بعثة لبنان | STAD

26 آب 24

يسألونك عن الإنسان والحياة

يسألونك عن الإنسان والحياة | 26-8-2024

26 آب 24

في دروب الصلاح - محرم 1446 (ه)

أربعين الإمام الحسين (ع) : الرسالة والثورة | في دروب الصلاح

24 آب 24

موعظة لسماحة الشيخ علي غلوم

محكمة الآخرة | موعظة لسماحة الشيخ علي غلوم

23 آب 24

خطبتا صلاة الجمعة

خطبتا وصلاة الجمعة لسماحة السيد علي فضل الله | 23-8-2024

23 آب 24

من الإذاعة

المفاوضات حول فلسطين : جولات في داخل المتاهة | فلسطين حرة

23 آب 24

يسألونك عن الإنسان والحياة

يسألونك عن الإنسان والحياة | 23-8-2024

23 آب 24

موعظة

موعظة ليلة الجمعة | 22-8-2024

22 آب 24

قالت إحدى كبار مهندسي برامج عملاق التكنولوجيا "جوجل"، والتي استقالت العام الماضي من منصبها، إن هناك خطرا حقيقيا من ابتكار جيل جديد من الأسلحة المستقلة، أي التي تعمل بالذكاء الاصطناعي، والتي وصفتها لورا نولان، بـ"الروبوتات القاتلة".

وطالبت نولان التي استقالت من منصبها في "جوجل" العام الماضي، احتجاجا على إرسالها للعمل على مشروع لتطوير تكنولوجيا الطائرات المسيرة لدى الجيش الأميركي، بحظر جميع الأسلحة التي تعمل بالذكاء الاصطناعي.

ونقلت صحيفة "ذي غارديان" البريطانية، قول نولان، إن للطائرات التي تعمل من تلقاء نفسها، دون تحكم بشري، قدرة هائلة على ارتكاب "فظاعات لم تكن مبرمجة لفعلها من قبل".

وانضمت نولان إلى حملة "حظر الروبوتات القاتلة"، وأطلعت دبلوماسيين من الأمم المتحدة، في نيويورك، وجنيف، على مخاطر الأسلحة المستقلة، قائلة إن "احتمال وقوع كارثة يتناسب مع عدد هذه الآلات التي ستكون في منطقة معينة في الوقت ذاته". حيث أنها قد ترتكب فظائع وعمليات القتل غير قانونية حتى بموجب قوانين الحرب، خاصة إذا تم نشر مئات أو الآلاف من هذه الآلات".

وأضافت: "قد تكون هناك حوادث واسعة النطاق لأن هذه الأشياء ستبدأ في التصرف بطرق غير متوقعة. ولهذا السبب يجب أن تخضع أي أنظمة أسلحة متطورة إلى سيطرة إنسانية حقيقة، وإلا يجب حظرها لأنها غير متوقعة وخطيرة جدًا".

وذكرت الصحيفة، أن الدور السابق لنولان في "جوجل" تلخص، بانضمامها لفريق من المهندسين أوكلت لهم مهمة، تطوير تقنية ذكاء اصطناعي توفر على العاملين في الجيش الأميركي، فحص الفيديوهات التي تلتقطها الطائرات المسيرة، لتحديد "الأهداف العدائية المحتملة"، أي أن هذه الأجهزة سُتميز هذه الأهداف بسرعة فائقة دون الحاجة للعامل البشري.

واعتبرت نولان أنها كانت "جزءا من سلسلة القتل؛ وأن هذا سيؤدي في النهاية إلى المزيد من الأشخاص الذين يستهدفون ويٌقتلون على أيدي الجيش الأميركي في أماكن مثل أفغانستان".

وأوضحت نولان أن تطوير طائرات ذاتية التحكم يعني أنها ستكون أيضا خاضعة للقوى الخارجية كالطقس، أو عدم قدرة الآلة على فهم السلوك الإنساني المُعقد، مما قد يُخرجها عن مسارها لترتكب فظائع.
تكنولوجيا ودراسات,روبوتات, تكنولوجيا, طائرات
Print
جميع الحقوق محفوظة, قناة الإيمان الفضائية