في عصر خوارزميات الذكاء الاصطناعي، تحولت الحرب من حدثٍ استثنائيٍ مُعلن يحاسب عليه سياسياً ومن مواجهات عسكرية، إلى نمط حكم دائم يُدار بهدوء داخل أنظمة حسابية مغلقة. هنا العنف لم يتراجع ولكنه أعاد ترتيب نفسه، صار أكثر عقلانية وأكثر برود، وأكثر انفصالاً عن أي عبء أخلاقي. فيه القرار البشري لم يختفي بل تراجع متخفياً خلف واجهة تقنية تبرز بوصفها محايدة، فتحولت الإبادة إلى إجراء روتيني تقني لا فاعل له.
ومن هذا السياق يتبلور ما نسميه بـ الشرّ الذكي (Algorithmic Evil): هو نوع حداثي عقلاني من العنف المؤتمت، الذي تدار فيه عمليات القتل من خلال خوارزميات علمية تصنف باعتبارها دقيقة ومحايدة وموضوعية، تحولت فيها الإبادة إلى عملية تقنية ممنهجة تنفذ باسم الكفاءة وتقليل الخطأ (الأضرار الجانبية). ولكن هذا الحياد المزعوم يخفي في جوهره منطق التفوق التكنولوجي ونزع المسؤولية الأخلاقية عن الفاعل السياسي والعسكري، فالشرّ هنا لا يُمارس بوصفه انحرافاً أخلاقياً، بل كإجراء محسوب تُختزل فيه الحياة والموت بلغة البيانات والاحتمالات.
ويتضح هذا النوع من الشرّ (الشرّ الذكي) بصورة واضحة في قطاع غزة، حيث تم استخدام الذكاء الاصطناعي ليس كأداة مساعدة في العمليات العسكرية فحسب بل كآلية بنيوية لإدارة القتل واسع النطاق. فتحول قطاع غزة إلى مختبر مفتوح لأنظمة الاستهداف الخوارزمي تحت شعار “جُرِّب في غزة”، التي تُستخدم في العروض الترويجية للأسلحة الإسرائيلية، التي تُنتج الأهداف بوتيرة تقنية متسارعة، وتُحول القصف إلى عملية تشغيلية شبه آلية. أنظمة مثل الحبسورة و لافندر لم تُسهم في تقليل الخسائر كما يُدّعى، بل ساهمت في تسريع القتل وتوسيع نطاقه، حتى طال مدنيون من نساءٍ وأطفالٍ ما يسميهم الإعلام “أضرار جانبية” لكي يُخفف ويُفصل فعل العنف عن آثاره، بل يُدرجون ضمن قوائم الاستهداف بناءً على ترجيحات احتمالية، لا على تمييز أخلاقي أو قانوني.
إن هذا النوع من الحروب، لا تُخاض المعارك فيه بوصفها صراع إرادات بشرية، ولكن بوصفها إدارة تقنية للموت. لم يعد السؤال من العدو؟ بل من يظهر على قاعدة البيانات؟ ولا: هل هذا الجسد بريء؟ ولكن هل يقع ضمن هامش الضرر المقبول؟ هكذا يعاد تعريف الحرب والقتل كعملية تقنية تشغيلية مدعومة بتقييم إحصائي، تبرر بلغة الدقة والكفاءة، حتى لو كانت نتائجها إبادة جماعية. التجربة في قطاع غزة كشفت ما يمكن لهذه الدقة والكفاءة أن تتحول الى آلية إبادة صامتة فجّة، تنفذ دون قرار سياسي ودون مساءلة قانونية وأخلاقية فعلية.
إن الشر الذكي لا يحتاج أيديولوجيا أو كراهية، بل الى كود برمجي ونماذج احتمالية وبيانات غالباً ما تكون متحيزة وناقصة. إن كانت حنّة أرندت بعبارتها الشهيرة ” تفاهة الشر ” قد وصفت هذا النوع من الشر نتاج بيروقراطية بشرية تنفذ الأوامر والتعليمات دون وعي وتخيل أخلاقي وتفكير، فإننا اليوم أمام مرحلة أكثر راديكالية، شرّ بلا موظف مرئي، بلا ضمير يمكن مساءلته، وبلا لحظة تردد. خوارزميات الذكاء الاصطناعي لا تسأل لماذا، إنها تحسب وتُصنف وتُشير.
وفي هذا السياق تتحول حالة الاستثناء كما صاغها جورجيو أغامبن من قرار سيادي مؤقت يعلق فيه القانون إلى بنية تقنية دائمة. فقطاع غزة لا يُقصى من النظام القانوني، لكن يُدرج داخله بوصفه منطقة معلقة: حياة تُفرغ من الحماية دون إعلان، فتختزل إلى حياة قابلة للتخلي عنها متى اقتضت خوارزميات الذكاء الاصطناعي ذلك. المدني هنا لا يُدان، ولكن بلا حماية، وجوده قانوني ناقص، مرئي إحصائياً وغير مرئي أخلاقياً.
والسيادة لم تختفي، بل تغير موضعها. لم تعد تقيم القرار السياسي المعلن، بل انتقلت إلى الأنظمة التقنية غير المرئية التي تنتج الأهداف وتسرع القتل وتعيد ترتيب أولويات الموت. وهنا تتضح السياسة الحيوية في أفج صورها، كما أشار إليها ميشيل فوكو: حين تصبح الحياة ذاتها موضوعاً للإدارة، يقاس الجسد وتراقب الحركة ويُحتسب النَّفَس ضمن نموذج إحصائي احتمالي. فيه الإنسان يتحول الى ملف، والموت نتيجة محتملة داخل نظام تشغيل تقني.
إن الأخطر من هذا كله هو الادعاء الأخلاقي المصاحب لهذا النوع من العنف: إن الآلة أدق وأقل انفعالاً، إن الحياد التكنولوجي يضمن تقليل الخطأ. وهكذا الأخلاق التقنية تُجرد القتل وفعل العنف من أي مساءلة. فعندما يُسلم القرار لخوارزميات الذكاء الاصطناعي، يصبح الخطأ تقنياً لا أخلاقياً، وتتحول الإبادة إلى بروتوكول.
ما نشهده اليوم ليس أتمتة للحرب والعنف فحسب، بل تفريغٌ للسياسة من بُعدها الإنساني. الخطر لا يكمن في التقنية ذاتها، ولكن في استعدادنا لتفويضها، وفي قبولنا أن يصبح الحياد التكنولوجي غطاءً ومبرراً لغياب الضمير وغياب التخيل الأخلاقي، فإذا لم تُستعد المساءلة الأخلاقية والقانونية والسياسية، سيغدو الشر الذكي والقتل المؤتمت هو القاعدة، وستبقى غزة “ومعها الإنسان” هي الاستثناء.
عامر فهد العجمي
باحث في علم الاجتماع
This post has already been read 481 times!

