xxxxxxxxxxxx xxxxxxxxxxxx

. صحفي إسرائيلي يكشف ل CNN حقائق صادمة عن تصرفات الجيش في الحرب في غزة

. صحفي إسرائيلي يكشف ل CNN حقائق صادمة عن تصرفات الجيش في الحرب في غزة

المصدر : CNN

تحدثت مذيعة CNN، بيانا جولودريجا، إلى يوفال أبراهام، الصحفي في مجلة 972+، حول تحقيقاته حول كيفية عمل الجيش الإسرائيلي في غزة.

وقال أبراهام إنه وجد - عبر تحقيق أجراه وتحدث فيه إلى مصادر عسكرية إسرائيلية - "ثلاثة أشياء رئيسية. الأول هو أن الجيش تخلى تماماً عن البروتوكولات السابقة الموضوعة التي كانت تنظم قتل المدنيين الفلسطينيين. لذا، في هذه العملية، على سبيل المثال، غارات الاغتيالات التي كانت تستهدف كبار قادة حماس، أخبرتني مصادر استخباراتية أن الجيش يقتل عن عمد مئات أو عدة مئات من المدنيين الفلسطينيين لكل محاولة اغتيال".

وأضاف: "الشيء الثاني هو أن الجيش يعتمد بشكل كبير على الذكاء الاصطناعي لتوليد الأهداف لمثل هذه الاغتيالات، مع القليل من الإشراف البشري، وفقًا للمصادر"، قبل أن يستطرد بالقول: " آخر شيء هو أن هناك هذا المفهوم في الجيش يسمى "أهداف القوة"، وهي أهداف لم يتم ضربها بسبب قيمتها العسكرية، بل لأنها وسيلة لضرب الروح المعنوية في غزة ولدفع المدنيين إلى ممارسة الضغط على حماس".

وأكد أبراهام أن "استخدام الذكاء الاصطناعي يعد هائلاً للغاية في هذه العملية، لدرجة أنه بحلول الأسبوع الثاني، أصبحت معظم عمليات تحديد الأهداف آلية، وفقًا للمصادر".

كما أشار إلى أن "المصادر التي كانت هناك وكانت تشغّل أجهزة الذكاء الاصطناعي هذه، قالت إن أغلب الأهداف التي تم تحديدها هي عناصر صغار من حماس تم قصفهم عندما كانوا في منازلهم، الأمر الذي لم يؤد إلى قتلهم فقط بل قتل ما يصل إلى 15 إلى 20 مدنيًا فلسطينيًا، عائلات بأكملها من حولهم. وهذا لم يكن موجودًا في الحروب السابقة".

وتطرق أبراهام إلى نظام "حبسورا"، ما يعني "الإنجيل" باللغة العبرية، قائلًا إنه "مجرد نظام واحد من بين عدة أنظمة تشكل بشكل أساسي آلات إنشاء الأهداف. ما تفعله هو أنها تقوم بمسح وجمع المعلومات من جميع سكان غزة، 2.3 مليون شخص".

وتابع بالقول: "إنها تحسب احتمال أن يكون هناك فرد معين مرتبط بحماس، واحتمال أن يكون فرد معين مرتبطًا برقم هاتف معين على سبيل المثال. يفعلون ذلك على نطاق واسع، ويولدون مئات الأهداف كل يوم. لقد أخبرتني المصادر أن الجيش يعلم أن هذا النظام ليس دقيقًا دائمًا وأن السياسة ليست سياسة خالية من الأخطاء".

كما تطرق أبراهام إلى تفاصيل آلية اختيار الأهداف، مشيرًا إلى أنه التقى مؤخرًا "بمصدر قام بتشغيل هذه الآلات. أخبرني أنه يقصف عشرات المنازل كل يوم. سألته كم عدد المنازل التي تم إنشاؤها بواسطة الذكاء الاصطناعي كأهداف للاغتيال؟ قال: كلها، علي فقط أن أعطي الضوء الأخضر عليها. سألته: كم من الوقت قضيته في البحث عن كل هدف والإشراف على ما أنشأته الآلة؟ قال المصدر إنه في بعض الأسابيع كان هناك الكثير من الضغط لإنشاء أكبر عدد ممكن من الأهداف، وأنه قضى 20 ثانية لكل هدف".

وأشار الصحفي إلى أن "الإشراف كان للتحقق مما إذا كان الهدف الذي أنشأه الذكاء الاصطناعي كان ذكرًا أم أنثى. إذا كانت أنثى، فإنهم يعلمون أن هذا خطأ بالتأكيد، لأنه ليس من المفترض أن يتم إنشاء النساء كأهداف. وإذا كان ذكرًا فسيأذنون بذلك. لأنه، وفقًا لهذا المصدر، ليس الأمر دقيقًا 100% ولكن من المحتمل أن يكون هذا شخصًا من حماس. وفي كل واحدة من الغارات التي تمت الموافقة عليها، كان هناك مدنيون يُقتلون أيضًا"، حسبما أفاد.