مطالب عالمية بوقف تطويرها.. ماذا تعرف عن "الروبوتات القاتلة"؟

الرابط المختصرhttp://khaleej.online/RwwZjD

28 دولة تعارض استخدام "الروبوتات القاتلة"

Linkedin
whatsapp
الثلاثاء، 02-03-2021 الساعة 10:10
- ما هي الروبوتات القاتلة؟

هي أنظمة تستخدم الذكاء الاصطناعي لتحديد الأهداف البشرية واختيارها وقتلها دون سيطرة بشرية.

- ما أبرز مخاطر تلك الأسلحة؟

التحيز العنصري، وعدم الموثوقية، واحتمال وقوعها بيد إرهابيين.

- ما الدور الذي يمكن أن تقوم به شركات التكنولوجيا؟

أهم دور لها هو عدم دعم برامج التسلح للدول، والتوقف عن إنتاج برامج التسليح المرتكزة على الذكاء الاصطناعي.

مع تطور أنظمة الذكاء الاصطناعي بشكل هائل في السنوات القليلة الماضية، وزيادة قدرات الروبوتات على نحوٍ غير مسبوق؛ برز نوع جديد من الأسلحة "الروبوتية" المرتكزة على أنظمة الذكاء الاصطناعي.

لكن مع تسابق الدول لدعم ترسانتها الحربية بهذا النوع من الأسلحة تعالت الأصوات من المنظمات والهيئات المهتمة بحقوق الإنسان للتوقف عن تطوير هذه الأسلحة.

أجرت "هيومن رايتس ووتش" الحقوقية الدولية بالتعاون مع الأمم المتحدة استطلاعاً للرأي للتعبير عن مدى الرفض العالمي لهذا النوع من الأسلحة.

وقالت المنظمة الدولية، في نهاية فبراير الماضي: "إن أكثر من ثلاثة من بين كل خمسة أشخاص ردوا على استطلاع جديد عبر الإنترنت في 28 دولة يعارضون استخدام أنظمة الأسلحة، المعروفة باسم الروبوتات القاتلة".

أجري المسح من قبل شركة أبحاث السوق "إيبسوس"، وقال 62% من المشاركين إنهم يعارضون استخدام أنظمة الأسلحة الفتاكة ذاتية التشغيل، بينما يؤيد 21% مثل هذا الاستخدام.

قالت ماري ويرهام، مديرة الحملة المناهضة للأسلحة في "هيومن رايتس ووتش": إن "المخاوف العامة بشأن أتمتة استخدام القوة تحث القادة السياسيين على التحرك الآن، هناك حاجة ماسة لحماية البشرية من خلال بدء مفاوضات الآن لحظر الروبوتات القاتلة".

من جانبها تقوم الأمم المتحدة بمراجعة الآثار الاستراتيجية والقانونية والأخلاقية لأنظمة الأسلحة الفتاكة ذاتية التشغيل.

روبوتات قاتلة

ما الروبوتات القاتلة؟

يطلق على الروبوتات القاتلة اسم "الأسلحة المستقلة بالكامل"، وهي أنظمة تستخدم الذكاء الاصطناعي لتحديد الأهداف البشرية واختيارها وقتلها دون سيطرة بشرية، وهذا يعني أن قرار قتل هدف بشري لم يعد يتخذ بواسطة البشر بل بواسطة الخوارزميات.

من المفاهيم الخاطئة الشائعة أن هذه الأسلحة هي "خيال علمي"؛ لكن في الواقع هي قيد التطوير من قبل عدة جيوش في العالم، ويتوقع أن نراها في ساحة المعركة قريباً جداً، وفقاً لتقرير نشرهُ موقع "أوتو ويبن" العالمي.

النماذج الأولية كانت طائرات مسلحة بدون طيار، يتم تطويرها ونشرها من قبل دول، منها الصين و"إسرائيل" وكوريا الجنوبية وروسيا والمملكة المتحدة والولايات المتحدة.

وهي مختلفة عن "الطائرات بدون طيار" الحالية، حيث يختار البشر الأهداف وهم من يحددون وقت إطلاق النار. 

مزايا ومخاطر متوقعة

لعلّ أكبر ميزة توفرها تلك الأسلحة وتدفع الجيوش للسعي لامتلاكها هي أنها تحمي حياة الجنود في أرض الوطن، وتضمن الحد الأدنى من العنف بين المدنيين، كما يدعي مطوري تلك الأسلحة.

إضافة لذلك فهي وسيلة أرخص لخوض الحروب، وبدلاً من التضحية بالجنود والزج بهم في ساحات المعركة يتم إرسال الروبوتات القاتلة، ولكن المخاطر الأخلاقية بحسب الأمم المتحدة "كبيرة جداً".

  • من السهل خِداعها

مهما امتلكت الحواسيب وتطورت فهي لا تصل لمستولى ذكاء البشر بتاتاً، على سبيل المثال، في عام 2018، صدمت سيارة ذاتية القيادة يجري اختبارها من قبل شركة "أوبر" امرأة في ولاية أريزونا وقتلتها. 

وكشف تحقيق حكومي استمر قرابة عامين أن السيارة لم تتعطل؛ بدلاً من ذلك تمت برمجتها لتجنب المشاة فقط على الأرصفة.

هذا المثال دفع بصحيفة "واشنطن بوست" الأمريكية للتساؤل: ماذا لو استخدم العدو نفس بزات الجيش، هل ستترك الروبوتات العدو وشأنه، أم ستقصف العدو والصديق لأنهم يرتدون الزي ذاته؟!".

  • يمكن أن تتسبب بكارثة

يمكن لأنظمة الأسلحة الفتاكة ذاتية التشغيل أن تشكّل تهديدات خطيرة على الأمن العالمي، ومن ذلك القوى العظمى المطوِّرة لها. 

إن الإنتاج الضخم الرخيص أو نسخ رمز الخوارزميات للأسلحة الفتاكة المستقلة من شأنه أن يتسبب بانتشار تلك الأنواع من الأسلحة وعدم سيطرة الدول عليها، حيث تبرز أسئلة هنا مفادها "ماذا لو سقطت بيد الإرهابيين؟".

ونظراً لأنها يمكن أن تعمل بسرعة تتجاوز التدخل البشري، فإن تلك الأسلحة تقدم مخاطر كبيرة، مثل التصعيد السريع للنزاع، والأداء غير الموثوق به.

  • التحيّز العنصري

إن خوارزميات الذكاء الاصطناعي اليوم مليئة بالتحيزات العنصرية، وخير دليل على ذلك أنظمة "التعرّف على الوجه" التي طوّرتها الصين لاستهداف الأويغور.

وبحسب تقرير نشرهُ موقع "فيوجرزم" فإن التحيز في تلك الأسلحة يمكن أن يكون كارثياً؛ "فماذا لو تم استهداف أشخاص من عرق أو لون معين دون آخر؟".

لماذا لا تحظر؟

يكمن السبب في عدم تشريع قانون يحظر الأسلحة الروبوتية القاتلة لحد الآن رغم المطالبات الدولية، هو أن الدول المطورة لها ترفض أن تصوت على قرار كهذا.

وبحسب وكالة "رويترز"، لم يقدم أي مشروع معاهدة إلى الأمم المتحدة ما لم توافق عليه جميع الدول الأعضاء البالغ عددها 125 دولة. 

حتى الآن وافقت 30 دولة فقط، في حين رفضت الولايات المتحدة وروسيا و"إسرائيل"، التي تستثمر بعمق في أسلحة الذكاء الاصطناعي. 

من جانبها أيدت الصين بشكل صارم فرض حظر على استخدام هذه الأسلحة، ولكن ليس تطويرها أو إنتاجها.

يذكر أن استطلاع "هيومن رايتس ووتش" ذكر أن مواطني تلك الدول رفضوا إنتاج أو استخدام تلك الأسلحة، وجاءت نسب تصويتهم على النحو التالي: 58% في روسيا، و56% بالمملكة المتحدة، و55% بالولايات المتحدة، ثم 53% في الصين، والنسبة نفسها في "إسرائيل".

من بيده الحل؟

عندما ترفض الدول الكبرى التخلي عن فكرة "الروبوتات القاتلة" ينبغي على كبرى الشركات التكنولوجية القيام بواجبها الأخلاقي والتوقف عن دعم تلك المشاريع، بحسب ما نقلت "واشنطن بوست" عن ناشطين معارضين لتلك الأسلحة.

في أبريل 2018، وقع نحو 4000 موظف في "جوجل" على عريضة تطالب الشركة في يونيو من العام نفسه، عدم تجديد عقدها للبرامج التي يمكن استخدامها بشكل مباشر في الأسلحة، وتم تداول التماسات مماثلة من قبل شركة "مايكروسوفت" أيضاً.

ويتوقع مناهضون لأسلحة الروبوتات أن يكون حالها مثل الأسلحة البيولوجية، عندما يتم تطوير الأسلحة التي تعمل بالذكاء الاصطناعي فإنها ستصبح غير مكلفة أكثر فأكثر، مما يجعلها متاحة بما يكفي لإحداث أضرار واسعة النطاق، ومن ثم حظرها. 

أدى انتشار الأسلحة البيولوجية من قبل إلى حظر استخدامها في الحروب، ويتوقع العلماء أن يحدث الشيء نفسه في نهاية المطاف لأسلحة الذكاء الاصطناعي أيضاً.

مكة المكرمة