خاص الكوثر - العشرات
لم يظهر استخدام الذكاء الاصطناعي فجأة في حروب الكيان الإسرائيلي، بل هو نتاج سنوات من التطوير. من منظومة “القبة الحديدية” لاعتراض الصواريخ، إلى أنظمة التعرف على الوجوه ومراقبة الفلسطينيين عبر الحواجز، كانت البيانات تُجمع وتُخزن باستمرار. لكن بعد 7 أكتوبر، دخل الذكاء الاصطناعي مرحلة جديدة وأكثر خطورة: تحديد من يُقصف ومن يُترك.
في غزة، جُمعت البيانات من كل شيء: المراقبة الجوية، السجلات الاستخباراتية القديمة، الاتصالات، وحتى منشورات وسائل التواصل الاجتماعي. هذه المعلومات تُرسل إلى أنظمة تحليل مركزية، أبرزها نظام يُعرف بـ“غوسبل”، يقوم بتصنيف الأهداف واقتراح نوع السلاح وحجم “الأضرار الجانبية” المتوقعة.
الأهداف لا تقتصر على ما يُسمى “التكتيكية” كمنصات إطلاق الصواريخ أو الأنفاق، بل تشمل فئة أخرى أخطر: “الأهداف المؤثرة”، أي منازل مدنيين يُعتقد أن قصفها سيُحدث ضغطًا نفسيًا على المجتمع المحيط. من هنا يمكن فهم استهداف بيوت عائلات كاملة في غزة، وكذلك مجازر استهدفت سيارات مدنية ومنازل في جنوب لبنان.
إلى جانب “غوسبل”، كُشف عن نظام آخر يُعرف بـ“لافندر”، أُنشئت عبره قوائم تضم آلاف الأسماء لأشخاص يُشتبه بانتمائهم للمقاومة. تقارير صحفية أشارت إلى أن نسبة الخطأ في هذه القوائم قد تصل إلى 10%، ما يعني إدراج مدنيين لا علاقة لهم بأي نشاط عسكري. الأخطر أن التعريف شمل أحيانًا عناصر شرطة، مسعفين، وأطباء، ما وسّع دائرة الاستهداف بشكل غير مسبوق.
نظام ثالث، يُعرف باسم “أين أبي”، يتتبع الأشخاص المدرجين على القوائم وينتظر لحظة عودتهم إلى منازلهم، ليُصدر تنبيهًا يسمح بقصف البيت بمن فيه. هكذا يتحول المنزل العائلي إلى مصيدة موت جماعي، بناءً على تقديرات خوارزمية وموافقة عسكرية سريعة.
رغم توقيع عشرات الدول، بينها الولايات المتحدة، على أطر دولية للاستخدام “المسؤول” للذكاء الاصطناعي في الحروب، استُخدمت غزة كساحة اختبار دموية لهذه التكنولوجيا. تصريحات رسمية من داخل الكيان تحدثت عن “إشراف بشري” على قرارات القصف، لكن تقارير ميدانية كشفت أن هذا الإشراف غالبًا شكلي ومحدود، وأن مبدأ حماية المدنيين يتم تجاوزه بسهولة.
النتيجة واضحة: نحن أمام أول حرب تُدار بالخوارزميات، حيث يصبح البيت، والمستشفى، والمدرسة أهدافًا محتملة بناءً على بيانات وتقديرات آلية. والسؤال الأخطر اليوم: هل ندرك أن بياناتنا قد تتحول إلى الرصاصة القادمة التي تعود إلينا؟