أخبار العالمبحوث ودراسات

مكافحة الإرهاب وسيادة القانون: تحدي “سحر” الذكاء الاصطناعي

ترجمة منى بوسيف عن دراسة للمركز الدولي لمكافحة الإرهاب

“لا توجد في مجتمعنا جرائم كبرى”، يشرح أندرتون، رئيس وكالة ما قبل الجريمة، في دراسة الأقليات لفيليب ك، من أجل وجود المجتمعات تقوم وكالات الاستخبارات وقوات الشرطة بإلقاء القبض على الجناة قبل وقوع الجريمة بناءً على المعرفة المسبقة التي يقدمها ثلاثة من البشر المستبصرين ، والمعروفين باسم “Precogs”.

ما كان حتى وقت قريب يقتصر بشكل صارم على عالم الخيال العلمي يغدو الآن بمثابة القوة الدافعة لاستراتيجيات مكافحة الإرهاب في العديد من الدول. حيث تعتبر الدول في جميع أنحاء العالم التنبؤ بالجرائم المستقبلية وسيلة أساسية للوقاية الفعالة من الإرهاب. حيث عززت الاختراقات التكنولوجية الحديثة بشكل خاص الاقتناع بأن خوارزميات التعلم القائمة على البيانات يمكن أن تزود الدول على وجه التحديد بمثل هذه القوة “السحرية”.

يدرس هذا المنظور بشكل نقدي بعض التحديات التي تواجه سيادة القانون وحقوق الإنسان من خلال استخدام الدول لأنظمة الذكاء الاصطناعي القائمة على التعلم القائم على البيانات (AI) – ولا سيما نماذج التعلم الآلي والتعلم العميق – لتحديد الأفراد الذين يشكلون تهديدًا للأمن القومي. وهناك ما يبرر إجراء دراسة دقيقة لهذه الممارسة في ضوء حقيقة مفادها أن الدول تواصل الاستثمار في تطوير أنظمة التنبؤ بالذكاء الاصطناعي، وأن هذه الأنظمة غالباً ما يتم اختبارها واستخدامها دون وعي من الجمهور العام، وأن هذه التنبؤات القائمة على الذكاء الاصطناعي يمكن استخدامها لتبرير تطبيق مجموعة واسعة من التدابير الإدارية للتعدي على الحقوق الأساسية.

الذكاء الاصطناعي لمكافحة الإرهاب

إن استخدام الذكاء الاصطناعي للتنبؤ بالإرهاب يُعد جزءا من الانتقال من نهج رد الفعل إلى نهج وقائي لمكافحة الإرهاب. تنعكس هذه الخطوة بشكل أساسي في تطورين مرتبطين ارتباطًا وثيقًا منذ أحداث 11 سبتمبر 2001.

أولاً، اعتمدت الدول تشريعات لمكافحة الإرهاب التي تجرم بشكل متزايد السلوك في المراحل الأولية من ارتكاب جريمة محتملة (“Vorfeldkriminalisierung “) –أي قبل حدوث عمل إجرامي بالفعل. وقد تم ذلك عن طريق تجريم إما مجرد التعريض للخطر أو الغرض الذي من أجله يتم تنفيذ إجراء معين. على سبيل المثال، اعتمدت الولايات المتحدة ما يسمى بقانون “الدعم المادي“، الذي يحمل الأفراد المسؤولية الجنائية بموجب قانون الولايات المتحدة عن تقديم الدعم المادي – بما في ذلك مجموعة واسعة من الأنشطة – بغض النظر عن نية الفرد لدعم الأنشطة الإرهابية للمنظمة. كما أدت هذه الأحكام القانونية إلى توسيع صلاحيات الدول في مجال التحقيق وإلى السماح بالاحتجاز السابق للمحاكمة بسبب الأنشطة المتصلة بالإرهاب. وفي عام 2006، سنت الحكومة الهولندية تشريعا يعدل قانون الإجراءات الجنائية عن طريق جملة أمور منها الاستعاضة عن عتبة “الاشتباه المعقول” في ارتكاب جريمة إرهابية تستدعي سلطة تحقيق خاصة بحد أدنى بكثير هي مجرد “مؤشرات”. وعلى نفس المنوال، أدخلت تشريعات مكافحة الإرهاب في الدول أيضا مجموعة واسعة من التدابير الإدارية، تتراوح بين أوامر المراقبة والقيود المفروضة على المناطق إلى الحرمان من الاستحقاقات الاجتماعية وإلغاء الجنسية. في فرنسا، ينص قانون اعتمد في أكتوبر/تشرين الأول 2017 على استخدام التدابير الإدارية كوسيلة عادية لمكافحة الإرهاب، بما في ذلك أوامر الإقامة المحددة، وتفتيش المنازل، وضوابط الوصول إلى مناطق معينة، وسلطة إغلاق أماكن العبادة. وكثيرا ما تعمل هذه التدابير ، التي صيغت كوسيلة لمنع الجرائم ، خارج نظام العدالة الجنائية العادي ، لأنها تنطبق قبل ارتكاب العمل الإرهابي فعلا. وقد اتخذت هذه التدابير طابعا شبه عقابي، بفرض قيود شديدة إلى حد ما على الأفراد الذين يعتبر أنهم يشكلون خطرا على الأمن القومي.

وقد اجتذب هذا التطور التشريعي انتقادا شديدا لارتقاءه الزمني للسلوك أو النية المعاقب عليهما – إلى مرحلة ما قبل الجريمة – بطريقة يحتمل أن تقوض سيادة القانون وحقوق الإنسان الأساسية. وقد وضعت الدول جانبا الانتقادات وعززت تحركها نحو نهج وقائي لمكافحة الإرهاب من خلال إدخال استخدام أنظمة الذكاء الاصطناعي في أنشطتها الوقائية.

في الواقع ، لتطبيق هذه التدابير الإدارية بشكل فعال ، استكشفت الدول وسائل جديدة من شأنها تعزيز قدراتها على الكشف عن التهديدات الإرهابية مسبقًا. وكخطوة أولى، تم تطوير قدرات جديدة لجمع البيانات توفر معلومات استخباراتية قيمة حول هذه التهديدات. ولكن مع زيادة قوة الحوسبة وتوافر البيانات بسبب الكم الهائل من البيانات التي تولدها معظم أعمالنا اليومية على الإنترنت ومنصات التواصل الاجتماعي، سرعان ما أصبح محللو البيانات غير قادرين على التدقيق يدويًا في جميع المعلومات التي يتم إنشاؤها. كما أنها كانت بطيئة للغاية بالنسبة للاستخبارات لتكون ذات فائدة فعالة. ومن ثم، أصبحت دورة الاستخبارات مسألة ذات نطاق واسع: فبينما حققت أدوات جمع البيانات تقدما هائلا في القدرة على جمع المعلومات، لم تقدم أي حلول تقنية لأتمتة معالجة البيانات المجمعة.

اكتسبت نماذج التعلم القائم على بيانات الذكاء الاصطناعي قوة دفع على وجه التحديد لمعالجة محدودية القدرات البشرية في معالجة البيانات من خلال تحسين استقلالية ميزات صنع القرار مثل التنبؤ والتنميط وتقييم مخاطر الإرهابيين المحتملين. مثل برنامج سكاي نتالتابع لوكالة الأمن القومي الأمريكية في عام 2015أحد أقدم استخدامات أنظمة الذكاء الاصطناعي للتنبؤات الإرهابية. وبحسب ما ورد، تم استخدام البرنامج لجمع بيانات الشبكة الخلوية لـ 55 مليون شخص من خلال شبكة الهاتف المحمول الباكستانية ولتقييم خطر كونهم إرهابيين باستخدام خوارزمية التعلم الآلي. ومنذ ذلك الحين، بدأت الدول في جميع أنحاء العالم الاستثمار في أنظمة الذكاء الاصطناعي المختلفة القادرة على التنبؤ بالمخاطر التي يمكن أن يشكلها الأفراد على الأمن القومي، وكذلك على المستوى المحلي.

ونتيجة لذلك، فإن استخدام التدابير الإدارية التي تتخذها وكالات إنفاذ القانون والاستخبارات يستنير بشكل متزايد بتنبؤات أنظمة الذكاء الاصطناعي هذه. وبعبارة أخرى، أصبحت أنظمة الذكاء الاصطناعي جهات فاعلة أساسية في تحديد تطبيق التدابير الإدارية التي قد تنال بشكل كبير من حقوق الإنسان للأفراد المعنيين. تدافع الدول عن مثل هذه التطورات من خلال الاعتماد على سرد لا يزال مهيمنًا يصور أنظمة الذكاء الاصطناعي على أنها قادرة على إجراء ميزات صنع القرار التنبؤية هذه ليس فقط بشكل أكثر فعالية ودقة، ولكن أيضًا بطريقة أكثر موضوعية وخالية من التحيز من البشر – الذين يخضعون للتحيزات العاطفية.

ما وراء سحرالذكاء الاصطناعي: مخاوف سيادة القانون وحقوق الإنسان

ومن منظور سيادة القانون، فإن أي تدبير إداري ضد إرهابي محتمل – حتى في مرحلة ما قبل المحاكمة – يجب أن يمتثل لعدد من ضمانات حقوق الإنسان. قد تكون بعض هذه الضمانات أكثر عرضة للخطر عندما يتم استخدام تنبؤات الذكاء الاصطناعي لتبرير استخدام التدابير الإدارية.

إن أحد الضمانات المعرضة للخطر هو شرط الضرورة. عندما يتم استخدام أنظمة الذكاء الاصطناعي لتحديد الأفراد الذين يشكلون تهديدًا للأمن القومي، فإن مهمة تبرير ضرورة اتخاذ إجراء لمواجهة هذا التهديد تتحول إلى حد ما من سلطة الدولة المناسبة إلى نظام الذكاء الاصطناعي. في الواقع، يقتصر دور الإنسان على جمع بيانات التدريب الكافية واتخاذ القرار بشأن طريقة التعلم التي سيتم اعتمادها بالنظر إلى هدف معين. وفقًا لهذه العملية، فإن نظام الذكاء الاصطناعي هو الذي يفحص البيانات المتاحة ويقيم ما إذا كانت البيانات تشير إلى أن الفرد يشكل تهديدًا للأمن القومي. وبالتالي، فإن تحديد ما يشكل تهديدًا للأمن القومي أو تهديدًا إرهابيًا – وهي مصطلحات لا يوجد لها تعريف معياري توافقي على المستوى الدولي – متروك بشكل أساسي لنظام الذكاء الاصطناعي. وهذا بدوره يعني أنه يمكن توسيع نطاق هذه المصطلحات دون أن يكون البشر على دراية بها لأن خوارزميات التعلم القائمة على البيانات غالباً ما تعمل كـ “صناديق سوداء”، مما يعني أن البشر، حتى أولئك الذين يصممون أنظمة الذكاء الاصطناعي، لا يستطيعون فهم كيفية معالجة البيانات للقيامبالتنبؤات.

وعلاوة على ذلك، فإن استخدام أنظمة الذكاء الاصطناعي للتنبؤ بالتهديدات الإرهابية ينطوي على خطر تطبيق التدابير الإدارية بطريقة تمييزية ضد أفراد معينين أو مجموعات معينة. كما أظهرت مجموعة واسعة من الدراسات والتقارير، فإن أنظمة الذكاء الاصطناعي تقف عرضة للتحيزات التي أدت إلى قرارات تمييزية مختلفة تجاه الأفراد الذين يعانون بالفعل من التمييز. ولا يزال يجري استكشاف وسائل مختلفة للحد من هذه التحيزات. ومع ذلك، فمن المستبعد جدا أن تكون هذه غير متحيزة تماما في أي وقت قريب. والحقيقة هي أن نظام الذكاء الاصطناعي لا يمكن أن يكون جيدًا إلا من خلال البيانات، والبشر المشاركين في تطويرها، وأولئك الذين يفسرون مخرجات هذه الأنظمة. وبالتالي، طالما أن العقول البشرية ليست محايدة تمامًا، فإن أنظمة الذكاء الاصطناعي ستبقى كذلك أيضًا.

وثمة مجال آخر يمكن أن تنشأ فيه تحديات عن الحالة قيد التمحيص يتعلق بالضمانات الإجرائية المنطبقة على مرحلة ما قبل المحاكمة. ومن الأمثلة على هذه الضمانات الإجرائية المعرضة للخطر الحاجة إلى أن يستند أي قرار بشأن التدابير الإدارية إلى معلومات موضوعية عن الأفراد المعنيين. والواقع أن “الأسباب المعقولة للمشتبه بهم” تعتمد تقليدياً على معلومات استخبارية موضوعية أو معلومات عن الفرد وسلوكه الخاص. ومع ذلك، مع تنبؤات منظمة العفو الدولية، فإن مجرد وصف المشتبه به، ومظهره الجسدي، أو حقيقة أن الفرد معروف بصلته السابقة بجماعة إرهابية، يصبح العوامل المحددة (إما بشكل منفصل أو مشترك) لأجهزة الاستخبارات أو إنفاذ القانون للعمل.  وبعبارات أكثر تقنية، مع إدخال التعلم الآلي وأنظمة الذكاء الاصطناعي القائمة على التعلم العميق، نرى تحركًا من التنقيب عن البيانات القائمة على الموضوع – وهي مجرد طريقة تحقيق تقليدية للشرطة في شكل رقمي – نحو التنقيب عن البيانات القائمة على الأنماط والتي تتكون من خوارزميات تحدد الشرائح “على أنها منحرفة في عدد من المتغيرات المركزية التي يرتبط فيها الانحراف بالإرهاب”.

ومن الضمانات الإجرائية الأخرى المعرضة للخطر حق الأفراد المشتبه فيهم في الطعن بفعالية في التدبير الإداري الذي يتلقونه. ولكي يكون هذا الحق فعالاً، يحتاج الفرد إلى معرفة الأسباب الوقائعية التي دفعت السلطات إلى تطبيق التدابير الإدارية عليه. ومع ذلك ، عندما يتم استخدام أنظمة الذكاء الاصطناعي لتقييم التهديد ، يصبح تحديد الأسس الواقعية مستحيلاً ببساطة بسبب “الصندوق الأسود” لنماذج الذكاء الاصطناعي.

نشرت الحكومة الصينية تقنية الذكاء الاصطناعي للتنبؤ بالإرهاب في منطقة شينجيانغ لتحديد الأفراد الذين ينتمون إلى الأقلية المسلمة الأويغورية التي تعتبرها الحكومة تشكل تهديدًا للإرهاب أو التطرف. وغالباً ما يتم احتجاز الأشخاص الذين يحددهم النظام وإرسالهم إلى “مراكز إعادة التأهيل” حيث يمكن احتجازهم إلى أجل غير مسمى دون تهمة أو محاكمة، غير قادرين على الطعن في قرار السلطات بالاعتماد على تلك الأنظمة.  وفي الواقع، فإن وعد الذكاء الاصطناعي بمزيد من الموضوعية والحياد قد يثبت بسهولة أنه وهم، وقد ينطوي تطبيقه في بعض الحالات على إساءة استخدام الدول للتدابير الإدارية في انتهاك لحقوق الإنسان وسيادة القانون، دون أن تكون أي سبل انتصاف متاحة بالفعل للمتلقين لهذه التدابير.

وأخيرا، وخلافا لما توحي به الرواية السائدة، فإن استخدام الذكاء الاصطناعي للتنبؤ بالتهديدات الإرهابية قد يقلل من دقة وفعالية تدابير مكافحة الإرهاب، مما يقوض في نهاية المطاف سيادة القانون. ويرجع ذلك إلى أن نماذج التعلم القائمة على البيانات، بحكم طبيعتها، حساسة للغاية لنوعية البيانات وكميتها. على سبيل المثال، تتطلب أساليب التعلم العميق الآلاف – وفي بعض الحالات الملايين أو حتى المليارات – من الأمثلة التدريبية للنماذج لتصبح جيدة نسبيًا في مهام التنبؤ تقريبًا على مستوى البشر. وبالتالي، فإن أحد الشروط الأساسية الهامة للجرائم التي تخضع للتنبؤ بالجريمة هو عدد كبير بما فيه الكفاية من الجرائم. وهذا ما يفسر أيضا لماذا يقال عموما أن التنبؤات القوية لا يمكن أن تطبق على الجرائم ذات الحجم الكبير. وبالتالي، ليس من قبيل المصادفة أن عمليات السطو هي، إلى حد بعيد، المثال الأكثر شيوعًا للتنبؤ بجرائم إنفاذ القانون في جميع أنحاء العالم.  ولكن، للتنبؤ بالأحداث ذات التردد المنخفض – مثل الأعمال الإرهابية – غالبًا ما لا تكون أنظمة الذكاء الاصطناعي هي الحل المثالي.

وعلاوة على ذلك، يميل كل عمل إرهابي إلى أن يكون فريدا من نوعه. تكمن المشكلة في تنبؤ الذكاء الاصطناعي في أنه يتنبأ بالأحداث الماضية على افتراض أنها تعكس الأحداث الحالية. على عكس التنبؤ بالجريمة في الخيال العلمي لـ Philip K. Dick، لا يوجد شيء “سحري” حقًا حول تنبؤات الذكاء الاصطناعي الحالية للتهديدات الإرهابية. ما تقدمه أنظمة الذكاء الاصطناعي الحالية هو مجرد تنبؤات وليست تنبؤات حقيقية للتهديدات الإرهابية.

بشكل عام، هذا يعني أنه بالنسبة للتنبؤ بالأحداث التي تكون فيها البيانات محدودة إلى حد ما والتي يختلف فيها المستقبل عن الماضي، فمن المرجح أن يكون البشر أكثر فعالية ودقة في تعلم القواعد المعقدة من أي نظام ذكاء اصطناعي حالي. إن تجاهل هذه الحقيقة يمكن أن يؤدي إلى نتائج محفوفة بالمخاطر وغير مناسبة مع تأثير ضار على العديد من الأفراد المشتبه فيهم زورا بالإرهاب.

الخاتمة

في الوقت الحاضر، لا تزال قدرات الذكاء الاصطناعي بعيدة كل البعد عن مجتمع فيليب ديك الخالي من الجريمة. لكن إدخال هذه الوسائل التكنولوجية في بحث الدول عن مزيد من الأمن يأتي مع خطر كبير بتقويض سيادة القانون وحقوق الإنسان. علاوة على ذلك، على عكس السرد السائد للدول ، فإن تنبؤات أنظمة الذكاء الاصطناعي ليست بالضرورة أكثر موضوعية وحيادية ، ولا أكثر فعالية ودقة من تلك التي قدمها البشر. وإزاء هذه الخلفية، من الأهمية بمكان التأكيد على أن مجرد حدوث تنبؤات منظمة العفو الدولية التي تبرر اعتماد تدابير إدارية في مرحلة منع الجريمة لا يعني أن هذه التدابير تحدث في فراغ قانوني. وتوفر سيادة القانون وحقوق الإنسان ضمانات هامة ينبغي الامتثال لها. علاوة على ذلك، يجب التشكيك في الروايات التي تقدم التقدم التكنولوجي كحلول سحرية لجميع تحدياتنا المعاصرة وفحصها بشكل نقدي.

ليس هناك شك في أن التقدم التكنولوجي يمكن أن يساعدنا على خلق بيئة أكثر أمانًا. ولكن هذا البحث عن الأمن ينبغي ألا يقوض أسس مجتمعنا. تبدو كلمات أندرتون الختامية في دراسة فيليب ديك “تقرير الأقلية” التي استشهد بها في البداية بمثابة تحذير في الوقت المناسب من إساءة الاستخدام المحتملة للذكاء الاصطناعي في مسائل القانون الجنائي: “في مجتمعنا ليس لدينا جرائم كبرى. لكن لدينا معسكر اعتقال مليء بالمجرمين المحتملين”.

اظهر المزيد

مقالات ذات صلة


زر الذهاب إلى الأعلى
إغلاق
إغلاق