كيف أصبح الذكاء الاصطناعي آداة إسرائيل الجديدة لتعزيز المراقبة والسيطرة على الفلسطينيين؟

تطوير نموذج الذكاء الاصطناعي للمراقبة
كشفت صحيفة الغارديان الإسرائيلية، في تحقيق مشترك مع موقع +972 Magazine ومنصة Local Call العبرية، أن وحدة الاستخبارات العسكرية الإسرائيلية 8200 طورت نموذج ذكاء اصطناعي مشابه لبرنامج ChatGPT.
يعتمد النظام على تحليل كميات هائلة من الاتصالات الفلسطينية التي تم اعتراضها بهدف تحسين قدرات التجسس الإسرائيلية. يوفر هذا النموذج أداة تحليلية متقدمة يمكنها فهم اللغة العربية المنطوقة ومعالجة البيانات التي يجمعها الجهاز بكميات كبيرة.
وبحسب مصادر مطلعة على المشروع، بدأت الوحدة في تطوير نموذج لإنشاء أداة ذكاء اصطناعي يمكنها تقديم إجابات على الأسئلة حول الأشخاص الذين يتم مراقبتهم وتوفير تحليل مفصل للكم الهائل من الاتصالات التي يتم اعتراضها يوميًا.
تسريع تطوير النظام بعد حرب غزة
وكثفت وحدة 8200، التي تعتبر نظيرة لوكالة الأمن القومي الأميركية، جهودها لتطوير النموذج بعد اندلاع حرب غزة في أكتوبر/تشرين الأول 2023. واستمرت أنشطة التدريب والتطوير للنظام في النصف الثاني من العام الماضي. ولم يعرف بعد ما إذا كان النموذج قد تم إطلاقه رسميًا بالفعل.
تم الكشف عن تفاصيل المشروع العام الماضي في عرض تقديمي منخفض المستوى قدمه ضابط الاستخبارات السابق شاكيد روجر جوزيف سيدوف في مؤتمر الذكاء الاصطناعي في تل أبيب. وأكد سيدوف أن الوحدة 8200 حاولت جمع “كل البيانات التي تلقتها إسرائيل على الإطلاق باللغة العربية”، مشيرا إلى أن هناك حاجة إلى “كميات هائلة من البيانات” لتدريب النموذج.
وأكد مسؤولون سابقون في الاستخبارات أن الوحدة 8200 نشرت بالفعل أنظمة تعلُّم آلي أصغر حجماً قبل بدء المشروع الجديد. وكان لهذه الأنظمة تأثير كبير على آليات المراقبة الإسرائيلية، حيث مكنتها من تعقب الناشطين الفلسطينيين ومراقبة الأنشطة المختلفة في الضفة الغربية وقطاع غزة.
مخاوف حقوق الإنسان بشأن تأثير الذكاء الاصطناعي
ويرى العديد من الخبراء أن استخدام الذكاء الاصطناعي في تحليل المعلومات الاستخباراتية ينطوي على مخاطر كبيرة. على وجه الخصوص، لأن مثل هذه الأنظمة يمكن أن تعاني من تشوهات البيانات وهناك أيضًا احتمال حدوث أخطاء يمكن أن يكون لها عواقب وخيمة.
وحذر زاك كامبل، الباحث البارز في هيومن رايتس ووتش، من أن هذا النظام قد يُساء استخدامه لتجريم الأشخاص بناءً على افتراضات غير دقيقة. وأشار إلى أن الذكاء الاصطناعي “ليس أكثر من آلة تخمين” ويمكن استخدامه بطرق تنتهك حقوق الإنسان، وخاصة في ظل الاحتلال العسكري الإسرائيلي.
وأعرب نديم ناشف، مدير مركز حملة لتطوير وسائل التواصل الاجتماعي، عن قلقه من أن إسرائيل تستخدم الفلسطينيين كـ”فئران تجارب” لتطوير أنظمة مراقبة متطورة تهدف إلى تعزيز سيطرة القوة المحتلة على الأراضي الفلسطينية.
مخاطر الأخطاء في أنظمة المراقبة
وبحسب مصادر استخباراتية، تعتمد وحدة 8200 على نموذج الذكاء الاصطناعي لتحديد المشتبه بهم من خلال تحليل اتصالاتهم ومشاعرهم تجاه الاحتلال الإسرائيلي. يتم استخدام النظام لمراقبة الاحتجاجات وأعمال البناء في المناطق “ج” وحتى الأنشطة اليومية.
ولكن مثل هذه الأنظمة ليست خالية من العيوب. وتشير تقارير إلى أن بعض الهجمات العسكرية الإسرائيلية استندت إلى بيانات خاطئة تم تحليلها بواسطة الذكاء الاصطناعي. في نوفمبر 2023، قُتل أربعة مراهقين في غزة بسبب خطأ في الاستهداف لأن الغارة الجوية كانت مبنية على تحليل خاطئ للذكاء الاصطناعي.
ورغم هذه الأخطاء، لم تصدر وحدة 8200 ولا قوات الدفاع الإسرائيلية أي بيانات رسمية حول كيفية منع التحيز أو الأخطاء في استخدام هذا النموذج. ولم يقدموا أي توضيحات حول الآليات المستخدمة لحماية خصوصية الفلسطينيين الذين تم اعتراض اتصالاتهم.