احدث الأخبار

آل الشيخ يتفقد الافتتاح التجريبي لمدينة الألعاب “ونتر وندرلاند”
أبرز المواد
الصحة تعلن منع الفول السوداني في جميع مدارس المرحلة الابتدائية
أبرز المواد
أمانة عسير تعتمد إقامة 8 مراكز خدمة نموذجية على مداخل المنطقة
منوعات
الأرز أم الخبز.. أيهما أفضل لصحة الإنسان؟
أبرز المواد
ضبط وافد يدير معملاً لتصنيع المعادن وبحوزته مليونا ريال و10 كيلو ذهب
أبرز المواد
ترامب: وقف إطلاق النار على الحدود السورية التركية أصبح دائما
أبرز المواد
ألبانيا تضبط شبكة إرهابية تابعة للحرس الثوري الإيراني كانت تخطط لهجمات
أبرز المواد
وزير الحج والعمرة يستقبل السفير الهندي لدى المملكة
أبرز المواد
جمعية أيتام تبوك تقيم غدا دورة تدريبية في الوعي المالي
منطقة تبوك
مدير جامعة القصيم يفتتح جناح الجامعة الأكاديمي بسجن الطرفية
منطقة القصيم
ورشة تثقيفية حول مفاهيم أنظمة وزارة العمل بمحافظة حقل
منطقة تبوك
مستشفى الولادة والأطفال بتبوك يحصل على “سباهي”
منطقة تبوك

مهندسة سابقة في “غوغل” تحذر من خطر غير متوقع لـ “الروبوتات القاتلة”

مهندسة سابقة في “غوغل” تحذر من خطر غير متوقع لـ “الروبوتات القاتلة”
http://almnatiq.net/?p=774593
المناطق - الرياض

عبّرت مهندسة سابقة في “غوغل” عن مخاوفها من وجود جيل جديد من الروبوتات، يمكن أن ينفذ “عمليات قتل مروعة وغير قانونية”.

وتدعو لورا نولان، التي عملت سابقا في مبادرة طائرة الدرون العسكرية لدى عملاق التكنولوجيا، مشروف مافن (Project Maven)، إلى حظر جميع طائرات الحرب ذاتية القيادة، لأن الآلات هذه لا تملك الفطرة أو الفطنة نفسها، التي يتمتع بها البشر.

وركز Project Maven على تعزيز الطائرات من دون طيار بالذكاء الاصطناعي (AI)، لتمييز أهداف العدو عن الأشخاص والأشياء الأخرى – لكنه توقف بعد أن احتج الموظفون على التكنولوجيا في مرحلة التطوير، واصفين إياها بأنها “شريرة”.

وقالت نولان، التي غادرت “غوغل” في عام 2018 احتجاجا على تكنولوجيا الطائرات العسكرية من دون طيار، إن جميع الطائرات التي لا يديرها البشر يجب أن تكون ضمن الحظر المفروض على الأسلحة الكيميائية، وفقا لصحيفة “غارديان”.

وفي حديثها مع الصحيفة، أوضحت نولان التي تعمل الآن مع حملة إيقاف “الروبوتات القاتلة”، قائلة: “إن ما تنظرون إليه هو عمليات قتل غير قانونية محتملة، حتى في ظل قوانين الحرب، خاصة إذا نُشر المئات أو الآلاف من هذه الآلات. وقد تكون هناك حوادث واسعة النطاق، لأن هذه الاختراعات ستبدأ بالتصرف بطرق غير متوقعة. ولهذا السبب يجب أن تخضع أي أنظمة أسلحة متطورة إلى سيطرة إنسانية، وإلا يجب حظرها لأنها خطيرة جدا”.

كما أشارت الموظفة السابقة في “غوغل” إلى أن هناك عوامل أخرى، مثل إشارات الرادار أو أنماط الطقس غير المعتادة، التي يمكن أن تحدث فوضى في نظام السلاح، الذي “لا يتمتع بالتمييز أو المنطق السليم الذي تتسم به اللمسة الإنسانية”.

في سبتمبر 2017، فازت “غوغل” بعقد Maven، لكنها قررت إبقاء الصفقة سرية حتى عن موظفيها.

ومع تسرب كلمة Maven داخليا، بدأ الموظفون في التعبير عن غضبهم، مستشهدين بشعار الشركة السابق “لا تكن شريرا”، وفقا لـ Wired.

وفي 30 مايو عام 2018، نشرت صحيفة “نيويورك تايمز” قصة عن Maven شملت رسائل البريد الإلكتروني التي أرسلها فاي فاي لي، الأستاذ في جامعة ستانفورد وكبير علماء “غوغل” في الذكاء الاصطناعي، إلى مدراء تنفيذيين آخرين حول الذكاء الاصطناعي المسلّح.

وبعد يومين من نشر رسائل البريد الإلكتروني المسربة، أُعلن أن “غوغل” تعتزم عدم تجديد عقد Maven، مشيرة إلى وجود رد فعل عنيف وشديد، وفقا لـ Gizmodo.

التعليقات (٠) اضف تعليق

التعليقات مغلقة