يرى الكثير من رواد التكنولوجيا في العالم أن الروبوتات العسكرية قد تشكل تهديداً لمستقبل البشرية، لكن لماذا الخوف من هذه الروبوتات لهذا الحد؟
من المؤسف أن التطورات في عالم التكنولوجيا دائماً ما زادت من القوة التدميرية للحروب. وفي عصر يبرز فيه الذكاء الاصطناعي كقوة مخيفة، فيبدو أننا أمام مرحلة أكثر تعقيداً لحروب المستقبل.
يوماً بعد يوم يتزايد الحديث عن الآثار الأخلاقية لتطوير الروبوتات العسكرية بل وباتت هذه المسألة واحدة من أكثر القضايا عمقاً في عصرنا الحالي.
ترتكز القضايا الأساسية الأخلاقية للذكاء الاصطناعي حول مسألتين، الأولى تتعلق بمدى تأثيره على العمالة من خلال استبدال وظائف البشر، والثانية هي استخدام الروبوتات في الحرب.
لقد غيرت التكنولوجيا وجه الحرب عشرات المرات على مدار التاريخ، فمن عصر الخيول إلى المركبات والبارود والمدفعية والطائرات وصولاً إلى الأسلحة النووية، كل ذلك كان تأثيره فقط حول كيف يُمكن أن نقتل بعضنا البعض.
الذكاء الاصطناعي لن يكون استثناءً، فهو الآخر سيلعب دوراً فاعلاً في تغيير مصير الحروب وفي تأثيره على البشرية.
ويبقى السؤال هل ينبغي لنا أن نطور أسلحة يمكنها اتخاذ قرارات مستقلة بالاستناد إلى العوامل المبرمجة في الروبوتات؟
المؤيدون يرون أن الروبوتات قد تقلل من عدد الوفيات بين المدنيين، لأن الروبوتات تتبع البروتوكولات فقط دون أن تحيد عنها. لكن على الطرف الآخر، وفي جزء من الثانية، يمكن للجندي الخاضع للإرهاق أو الخوف أن يرتكب خطأ قاتلاً، وبالتالي فنحن بحاجة كل ثانية لمحاولة منع خطأ كهذا بالاعتماد على الروبوتات العسكرية.
ربما تكون فرضية المؤيدين صحيحة، لكن للأسف ليس هذا هو الدافع الأساسي لأغلب جيوش العالم التي ترغب بتطوير الروبوتات بالاعتماد على الذكاء الاصطناعي.
وفي الحقيقة، هناك ثلاثة أسباب تجعل هذه الأسلحة مفيدة لهم.
أولاً، ستكون الروبوتات أكثر فاعلية في مهامها من الجنود البشر.
ثانياً، هناك خوف من قيام دول أو جهات معادية محتملة بتطوير هذه التقنيات والاستفادة من القدرات الهائلة للذكاء الاصطناعي.
أما السبب الثالث، فهو أن الروبوتات الحربية سوف تقلل من الخسائر البشرية للجيوش التي تخوض الحرب، وهو حقيقة أمر مرعب جداً قد يجعل الحرب أكثر شيوعاً بالنسبة لمتخذي القرار نتيجة خفض التكاليف السياسية للحروب والتي طالما كانت الخسائر البشرية في مقدمتها.
القضية المركزية، في الوقت الحاضر، هي ما إذا كان ينبغي السماح للروبوتات أن تقرر بشكل مستقل من يجب أن يُقتل ومن يجب أن يعيش، فلم يعد السؤال إن كان بوسعنا ذلك أم لا، فالتكنولوجيا اليوم قادرة على فعل ذلك ولا أحد يشكك في أننا نستطيع ذلك.
فهل يجب علينا ذلك؟
يعتقد الكثير من الباحثين في مجال الذكاء الاصطناعي، خصوصاً ممن هم خارج نطاق الجيوش، أنه لا ينبغي لنا ذلك.
اقرأ أيضاً: مسلسل WestWorld كما يراه العلماء – ما بين الحقيقة والخيال!
في عام 2015 وقع أكثر من ألف عالم وخبير في مجال الذكاء الاصطناعي رسالة مفتوحة تحث على فرض حظر على أنظمة الأسلحة ذاتية التحكم بالكامل.
وكان من بين الموقعين العالم الفيزيائي الراحل ستيفن هوكينج، الذي أشار مراراً إلى أن هذه الأسلحة قد تنتهي بتدمير البشرية من خلال سباق التسلح القائم على الذكاء الاصطناعي، ويتفق معه في هذا الرأي نخبة من رواد التقنية مثل مؤسس شركة تيسلا إيلون ماسك، ومؤسس مايكروسوفت بيل غيتس، والمؤسس المشارك لآبل ستيف وزنياك ومؤسس شركة DeepMind للذكاء الاصطناعي ديمس هاسابيس.
وعلى الرغم من أن النقاش حول ما إذا كان سيتم بناء هذه الأنظمة العسكرية يبدو حيوياً، لكن الحقيقة هو أن لا أحد يكثرت لما يُمكن للتكنولوجيا فعله مع مثل هذه الأنظمة.
فالدول الكبرى تبدي سياسة تتظاهر خلالها أنها حذرة ومسؤولة تجاه هذه التقنية، لكنها في الواقع تمهد الطريق لتطوير قوي للأسلحة ذاتية التحكم والاستخدام المبكر لها.
تهديدات حقيقية
من المؤسف القول أن التهديدات الناجمة عن هذه الأسلحة هي حقيقة تماماً، وخلال السنوات الخمس الماضية عقدت الأمم المتحدة عدة محادثات حول مواجهة التحديات المستقبلة للأسلحة الفتاكة المستقلة “الروبوتات القاتلة”.
لكن عملياً كل دولة بميزانية عسكرية كبيرة على هذا الكوكب، حوالي 20 دولة، تعمل بالفعل على تطوير أسلحة تعمل بالذكاء الاصطناعي، مع وجود سيطرة بشرية على الأقل لغاية الآن.
ويبقى التحدي الأهم هو كيف يُمكن أصلاً حظر مثل هذه الأسلحة حتى لو كانت هناك إرادة جماعية دولية للقيام بذلك؟ فمثلاً من الأسباب التي دفعت لاحتواء الأسلحة النووية هو عدم وجود تعقيدات في تحديدها، وبمنتهى البساطة يُمكنك تحديد الانفجار إن كان نووياً أم لا، فليس هناك منطقة رمادية.
على الجانب الآخر، فإن الروبوتات المزودة بالذكاء الاصطناعي معقدة للغاية في كيفية تحديد طبيعتها ومتطلبات اعتبارها محظورة أو لا، وما هو مقدار الاحتياج إلى الذكاء الاصطناعي لاعتبار هذا السلاح قانونياً أم لا.
قد يُنظر إلى الروبوتات القتالية باعتباره تهديدًا قويًا للأمن القومي بحيث تشعر العديد من البلدان أنه لا يمكن المخاطرة بعدم امتلاكه.
فخلال الحرب الباردة، كانت الولايات المتحدة قلقة في كثير من الأحيان من الثغرات المحتملة في القدرة العسكرية مع الدول العدوة، وجاء سباق التسلح حينها لتقديرات وجود فجوة القاذفات في الخمسينات من القرن الماضي تلتها فجوة الصواريخ في الستينيات.
الفجوة في الذكاء الاصطناعي قد تبدو أكثر إثارة للخوف بالنسبة لأولئك الذين مهمتهم هي القلق بشأن مخططات الآخرين.
في ضوء كل هذا، يبدو أن محاولات حظر هذه الأسلحة لن تؤدي إلى نتائج ملموسة، حتى إذا تمت برمجة الروبوت لتحديد الأهداف المعادية ثم الحصول على موافقة من إنسان لتدمير هذا الهدف.
فالخطورة تكمن في أن خطوة الموافقة البشرية على القتل أو التدمير يُمكن إيقافها بسهولة من خلال ضغطة واحدة، وهو بلا شك أمر في النهاية قد يحدث حين نشعر بأن الأمور خرجت عن السيطرة.
في الختام، أدعوكم لمشاهدة فيديو توضيحي على يوتيوب يستعرض مدى مخاطر استخدام الروبوتات العسكرية والذكاء الاصطناعي. (لمشاهدة الفيديو اضغط هنا)