عندما يُذكر مصطلح ”الروبوتات القاتلة“، فإن أول ما يتبادر إلى ذهن الكثير منا هو أفلام الخيال العلمي والأفلام البائسة مثل سلسلة أفلام ”المدمر“ (The Terminator) التي تصور عالماً بائساً يسيطر عليه الذكاء الاصطناعي بآلاتها القاتلة.
إلا أن المصطلح أصبح يُستخدم لوصف ما يُعرف بـ”أنظمة الأسلحة الفتاكة ذاتية التشغيل“ التي تعمل دون رقابة أو إشراف بشري، وهو ما أصبح محل جدل كبير، بين مؤيد يرى أنه سيقلل من النفقات العسكرية ويقلل من الخسائر المادية والبشرية، ومعارض يرى أنه ينطوي على مشاكل أخلاقية وقد يؤدي إلى مزيد من القتل والدمار.
واستثمرت العديد من الدول، بما في ذلك الولايات المتحدة والصين والمملكة المتحدة والهند وإيران وإسرائيل وكوريا الجنوبية وروسيا وتركيا، بشكل كبير في تطوير مثل هذه الأسلحة في السنوات الأخيرة.
وتستخدم الجيوش تقنيات الذكاء الاصطناعي في عدة مجالات، منها تحليل البيانات لاستخراج معلومات استخبارية، والحروب السيبرانية – على سبيل المثال، استخدام تقنية التزييف العميق وروبوتات الذكاء الاصطناعي لنشر دعايات أو معلومات مضللة فضلا عن اختراق مواقع الإنترنت – وتحديد الأهداف، وتعقب الدبابات والصواريخ والمقاتلات. كما تستخدم في نظم الأسلحة المستقلة الفتاكة، والتي ربما تعد الأكثر إثارة للجدل من بين التطبيقات العسكرية لهذه التقنيات.
فما هي هذه النظم؟
يعكف عدد من الدول على تطوير أسلحة تحتوي على وظائف مستقلة باستخدام أحدث التقنيات، ولكن هذا النوع من الأسلحة مستخدم منذ عقود. النوع الأكثر شيوعا من هذه الأسلحة، وفق مكتب الأمم المتحدة لشؤون نزع الأسلحة، هو نظم الأسلحة الدفاعية، بما فيها الألغام المضادة للمَركبات والألغام المضادة للأفراد، التي بمجرد أن يتم تفعيلها، تعمل بشكل مستقل.
أما الأنظمة الأحدث فتوظف تقنيات تزداد تطورا وتعقيدا طوال الوقت، وتشمل أنظمة صواريخ أو أنظمة دفاع تستطيع بشكل مستقل رصد الأهداف والاشتباك معها. من الأمثلة الأخرى الطائرات المسيّرة “الانتحارية” أو “الكاميكازي” أو “المتفجرة” التي تحتوي على ذخيرة.
ما هو دور أنظمة الذكاء الاصطناعي في هذه الأنظمة؟
يُستخدم الذكاء الاصطناعي لتحديد الأهداف وتتبعها ومهاجمتها دون إشراف بشري مباشر، ويحتوي بعضها على تقنيات استشعار ومعالجة بما في ذلك التعرف على الصور والوجوه ومعالجة إشارات الرادار.
في الوقت الحالي، تستخدم بعض الجيوش أسلحة شبه ذاتية التشغيل تسمح بالتدخل البشري إذا لزم الأمر. ولكن يجري حالياً إجراء تجارب وتطوير أسلحة فتاكة ذاتية التشغيل بالكامل قادرة على العمل في القتال دون أي تدخل بشري في دول مثل الولايات المتحدة والصين وروسيا.
مضاعفة القوة
يقول المؤيدون إن استخدام الذكاء الاصطناعي يحسن بشكل كبير من عمليات الاستطلاع والتعرف على الأهداف، وبالتالي يقلل من حجم الدمار الذي يلحق بالبنية التحتية المدنية.
ويستخدم الخبراء العسكريون المؤيدون للذكاء الاصطناعي مصطلح ”مضاعف القوة“ عند وصفه، لأنه سيمكن الجيوش من تحقيق النتائج التي تسعى إليها بعدد أقل من القوات أو المعدات، مما قد يعني انخفاض التكاليف والتغلب على مشكلة انخفاض التجنيد التي تواجهها بعض الدول، بما في ذلك الولايات المتحدة.
وبحسب المؤيدين، فإن أنظمة الأسلحة ذاتية التشغيل ستوسع ساحة المعركة أمام القوات، وستسمح بالوصول إلى المناطق التي يصعب الوصول إليها بالوسائل التقليدية، وستقلل من عدد الضحايا لأن القادة سيتمكنون من تجنب إرسال الجنود والمقاتلين في مهام خطرة.
ماذا يقول المعارضون؟
يفند المعارضون فكرة أنها تبعد الجنود عن مرمى الخطر، حيث يرون أن النتيجة ستكون سهولة اندلاع الحروب – فالكلفة البشرية من أهم أسباب عدم خوض القادة للحروب لما تتسبب فيه من سخط شعبي، وتخفيض الخسائر البشرية سيؤدي إلى سهولة اتخاذ قرار الحرب، ومن ثم المزيد من القتل والدمار في المجمل.
في تصريحات لـ بي بي سي عربي، يقول العالم البريطاني البروفيسور ستيوارت راسل أستاذ علوم الكمبيوتر بجامعة كاليفورنيا في بيركلي والمعروف بإسهاماته المتميزة في أبحاث الذكاء الاصطناعي إن ما يقال بشأن إبعاد الجنود عن مرمى الخطر “هو ما أسميه مغالطة الملكية الوحيدة، لأنك تتخيل أن لديك أنت وحدك أسلحة تعمل بالذكاء الاصطناعي والطرف الآخر ليس لديه هذه الأسلحة.. امتلاك أسلحة يتم التحكم فيها وتوجيهها عن بعد من قبل طرفي الحرب الأوكرانية أدى إلى معدلات خسائر بشرية مرتفعة للغاية، إذ إن القنابل الصغيرة التي تلقيها الطائرات المسيّرة تستطيع الوصول إلى أهداف موجودة حتى في الخنادق”.
ويضيف أن “الهدف الرئيسي للأسلحة المستقلة الفتاكة، كما عكف مجتمع الذكاء الاصطناعي على القول مرارا وعلى مدى عقد من الزمان، هو أن تصبح (وربما يكون ذلك قد بدأ بالفعل) أسلحة دمار شامل رخيصة يمكن إنتاجها بقدرات مختلفة ونشرها بسهولة. ذلك لأنها مستقلة وليست بحاجة إلى إشراف بشري، ما يعني أن شخصا واحدا يستطيع أن يضغط على زر فيطلق مليون سلاح ليقتل مليون شخص”.
ما يشير إليه راسل هو خطاب أعرب فيه كثير من الشخصيات البارزة في مجال العلوم والتكنولوجيا والتجارة والسياسة عن خوفهم من أن تؤدي تلك الأسلحة إلى سباق تسلح بالذكاء الاصطناعي يفضي إلى زعزعة الأمن والاستقرار. وجاء في الخطاب، الذي يعود إلى عام 2015 وكان من بين الموقعين عليه عالم الفيزياء البارز الراحل ستيفين هوكينغز وإيلون ماسك وستيف وزنياك المؤسس المشارك لشركة أبل، أن تلك الأسلحة قد تؤدي إلى تآكل الحواجز التي تقف أمام تنفيذ “مهام من قبيل عمليات الاغتيال وزعزعة استقرار البلدان وإخضاع الشعوب والقتل الانتقائي لجماعة عرقية بعينها”.
ويرى راسل أن “تطوير نظم أسلحة مستقلة فتاكة يحل فيها الذكاء الاصطناعي محل البشر أمر حتمي”، وأن الحرب في أوكرانيا على سبيل المثال تسير في هذا الاتجاه بشكل متزايد. ويحذر من “إمكانية أن نصل إلى مرحلة تكون فيها مثل هذه الأسلحة متاحة لأي جنرال أو ديكتاتور أو إرهابي”.
ويرى المعارضون كذلك أن اتخاذ القرار من خلال لوغاريتمات في تلك الأسلحة ربما يؤدي إلى التصعيد السريع وعدم القدرة بالتنبؤ بالنتائج (خاصية “الصندوق الأسود”).
إشكاليات أخلاقية
تطرح الأسلحة الفتاكة التي تعمل بالذكاء الاصطناعي تساؤلات تتعلق بالمحاسبة والمسؤولية. إذا كان قرار استخدام القوة المميتة يتخذه روبوت أو لوغاريتمات بدون تحكم أو إشراف مباشر من قبل عناصر بشرية، فمن سيتحمل المسؤولية أو يحَاسب إذا ما ارتُكبت انتهاكات ضد مدنيين على سبيل المثال؟
ويرى المعارضون أن اللوغاريتمات لا تستطيع فهم قيمة حياة الإنسان، ومن ثم لا ينبغي إعطاؤها القدرة على تقرير من ينبغي أن يعيش ومن ينبغي أن يموت. وأثناء مفاوضات أجريت حول الأسلحة المستقلة في جنييف عام 2019، قال الأمين العام للأمم المتحدة أنطونيو غوتيريش إن تطوير “آلات تتمتع بحرية التصرف والقدرة على إزهاق الأرواح بدون تدخل بشري أمر غير مقبول من الناحية السياسية وبغيض من الناحية الأخلاقية وينبغي حظره بموجب القانون الدولي”، وهو رأي تشاركه فيه العديد من المنظمات الحقوقية ومنظمات المجتمع الدولي في العالم، والتي شكلت تحالفا أطلق عليه اسم حملة “أوقفوا الروبوتات القاتلة”.
مطالبات بوضع أطر تشريعية
في تقرير صدر في أغسطس /آب الماضي، طالب الأمين العام للأمم المتحدة غوتيريش بالتوصل بحلول عام 2026 إلى اتفاقية ملزمة بشأن “حظر نظم الأسلحة المستقلة الفتاكة التي تعمل بدون رقابة أو إشراف بشري والتي لا يمكن أن تُستخدم بشكل يضمن امتثالها للقانون الدولي”.
وقد عُقدت أول قمة دولية لمناقشة الاستخدام المسؤول للذكاء الاصطناعي في أمستردام بهولندا عام 2023، ولكنها لم تتمخض عن أي اتفاق، واستضافت العاصمة الكورية الجنوبية سيول القمة الثانية في سبتمبر/أيلول الماضي، والتي انتهت بتبني 61 دولة لوثيقة بشأن الاستخدام المسؤول للذكاء الاصطناعي في المجال العسكري تشدد على أهمية تطبيق قدرات الذكاء الاصطناعي في هذا المجال بما يتفق والقوانين الدولية والوطنية ذات الصلة، والإبقاء على انخراط العنصر البشري في تطوير واستخدام الذكاء الاصطناعي في المجال العسكري. الوثيقة غير ملزمة قانونيا، وإن كان ينظر إليها مراقبون باعتبارها خطوة إيجابية في الاتجاه الصحيح.
يقول البروفيسور راسِل إنه “لتفادي تحول تلك الأسلحة إلى أسلحة دمار شامل، ينبغي على الأقل حظر الأسلحة المستقلة المضادة للأفراد”.
تضاف الاعتراضات على “الروبوتات القاتلة” إلى سلسلة التحفظات والمخاوف بشأن ما قد تشكله تقنيات الذكاء الاصطناعي من مخاطر محتملة مع ازديادها ذكاء وازدياد اعتماد البشر عليها.
يقول البروفيسور راسِل إن الكثير من الخبراء يتوقعون أن يكون لدينا ذكاء اصطناعي ذو قدرات خارقة خلال العقد الحالي، إذ إن استثمارات ضخمة تصل إلى 200 مليار دولار وفق بعض التقديرات يجري ضخها في هذا المجال.
ويضيف: “الذكاء هو ما يعطي البشر السطوة في هذا العالم. أنظمة الذكاء الاصطناعي سوف تصبح أكثر ذكاء من البشر، ومن ثم أكثر قوة وسطوة، فأنى لنا أن نحتفظ بالسطوة إلى الأبد أمام كيانات أقوى منا بكثير؟”
الفيلسوف وعالم الرياضيات نيك بوستروم هو أحد مؤيدي استخدام التقنيات الحديثة لتحسين قدرات البشر المعرفية وإطالة أعمارهم، ولكنه يحذر في كتاباته وأبحاثه من المخاطر الوجودية المحتملة لتلك التقنيات إذا أسيء استخدامها. يرى بوستروم أن استخدام الذكاء الصناعي في الحروب والنزاعات أمر مثير للقلق، وأنه “من المؤسف أن البشرية تكرس جزءا كبيرا من مصادرها ومن قدرتها على الابتكار لاختراع سبل أكثر فاعلية للقتل والدمار”.
ويضيف في تصريحات لـ بي بي سي عربي: “ينبغي أن نشعر بالخوف والإثارة في آن واحد. فالتطبيقات الإيجابية المحتملة في الطب والصناعة والعلم والترفيه وكثير من المجالات الأخرى تحمل في طياتها إمكانية تغيير أوضاع البشرية إلى الأفضل. إذا ما سارت الأمور على ما يرام، سوف ينظر البشر في المستقبل إلى وقتنا هذا ويهزون رؤوسهم في صدمة وذهول لأن الناس كانوا يعيشون في أوضاع كهذه التي نعيش فيها الآن”.
بالتأكيد سيضع المتخوفون أكثر من خط تحت عبارة “إذا ما سارت الأمور على ما يرام”.