أخبار العالمبحوث ودراسات

الذكاء الاصطناعي والأمن القانوني: الرهانات القانونية في المادة الانتخابية

 من إعداد:  طالبة الدكتوراه  و صحفية استقصائية :خولة الكلاحشي وطالب الدكــــتــــوراه و محامي لدى المجلس القضائي : عبد الرؤوف بزيان

قسم البحوث والدراسات الإستراتجية والعلاقات الدولية 25-03-2025

ملخص الدراسة: 

يُعدّ الذكاء الاصطناعي أحد أهم التطورات التكنولوجية في عصرنا الحديث، وله تأثير كبير على مختلف جوانب الحياة، بما في ذلك القانون والسياسة. فمن ناحية، يُمكن للذكاء الاصطناعي أن يُعزز الأمن القانوني من خلال تحسين كفاءة وفعالية النظام القانوني. بينما من ناحية أخرى، قد يُهدد الذكاء الاصطناعي الديمقراطية التشاركية من خلال تقويض مشاركة المواطنين في العملية الديمقراطية.

يهدف هذا المقال إلى تحليل تأثير الذكاء الاصطناعي على الأمن القانوني والديمقراطية التشاركية ” الانتخابات”، مع التركيز على:

  • الأمن القانوني: كيف يمكن للذكاء الاصطناعي أن يُحسّن من كفاءة وفعالية الأنظمة القانونية، بينما يشكل مخاطر جديدة على الخصوصية والحقوق والحريات؟
  • الديمقراطية التشاركية: كيف يمكن للذكاء الاصطناعي أن يُعزّز من مشاركة المواطنين في العملية الديمقراطية، بينما يهدد بتوسيع الفجوة الرقمية وتقويض الثقة في المؤسسات؟

الكلمات المفتاحية:

الذكاء الاصطناعي، الأمن القانوني، الأنظمة القانونية، الحقوق والحريات، الديمقراطية التشاركية  الانتخابات، الجرائم الانتخابية، المشاركة، الفجوة الرقمية .

: Abstract

This paper investigates the complex interplay between artificial intelligence (AI) and two cornerstones of a functioning society: legal security and participatory democracy. While AI presents opportunities to enhance legal efficiency and citizen engagement in the democratic process, it also necessitates a critical examination of potential risks to privacy, fundamental rights, and trust in institutions. Through a nuanced analysis of these contrasting impacts, the paper aims to provide a comprehensive understanding of the challenges and opportunities presented by AI in these vital domains. Ultimately, the goal is to formulate recommendations for ensuring the responsible and ethical utilization of AI for a more secure and inclusive democratic landscape.

 : Keywords

 Artificial intelligence, legal security, participatory democracy, election, privacy, bias, ethics, digital divide, trust.

مقدمة:

يعد الذكاء الاصطناعي أحد أهم التطورات التكنولوجية في عصرنا، وله آثار بعيدة المدى على مختلف جوانب الحياة، بما في ذلك القانون والسياسة.

فمن ناحية، يتمتع الذكاء الاصطناعي بالقدرة على تعزيز الأمن القانوني من خلال تحسين كفاءة وفعالية النظام القانوني. ومن ناحية أخرى، قد يهدد الذكاء الاصطناعي الديمقراطية التشاركية من خلال تقويض مشاركة المواطنين في العملية الديمقراطية، وخاصة في الانتخابات وعليه فإن الإشكالية التي يتمحور عليها هذا الموضوع تطرح تساؤل حول:

إلى أي مدى يمكن تحقيق التوازن بين الاستفادة من إمكانيات الذكاء الاصطناعي في تعزيز الأمن القانوني، مع ضمان عدم المساس بمبادئ الديمقراطية وحقوق الإنسان؟

وللإجابة على هذه الإشكالية المطروحة أعلاه، قسمنا موضوع المداخلة إلى محورين أساسيين حيث خصصنا المحور الأول حول تأثير الذكاء الاصطناعي على الأمن القانوني، في حين خصصنا المحور الثاني حول التحديات. .
المحور الأول: جدلية التقنين والتطبيق للذكاء الاصطناعي

أولا: تأثير أعمال الذكاء الاصطناعي على الأمن القانوني

ثانيا: تأثير الذكاء الاصطناعي على العملية الانتخابية بين التجريم والإباحة

المحور الثاني: التحديات القانونية لأعمال الذكاء الاصطناعي

أولا: المسؤولية الجزائية للذكاء الاصطناعي.

ثانيا:  التوصيات المقترحة و آفاق التطور التشريعي للذكاء الاصطناعي.

المحور الأول: جدلية التقنين والتطبيق للذكاء الاصطناعي

يعد الذكاء الاصطناعي ثورة معلوماتية وتكنولوجية هائلة لما يتيحه من قدرة غير مسبوقة في معالجة البيانات وتعديلها والاستنتاج عبرها،

وهو فرع من فروع علم الحاسوب، عبارة عن سلوك وخصائص معينة تتبعها البرامج المعلوماتية بحيث تصبح قادرة على محاكاة قدرات الذكاء البشري ومحاكاته، وأهم هذه الخصائص قدرة الآلة على التحليل والفهم والاستنتاج لاتخاذ القرارات وردات الفعل، كذلك القدرة على اكتساب الخبرة واستغلالها، بشكل يحاكي الذكاء البشري الذي يتسم بالوعي[1]، هذا ما فتح مجال واسع و بعدا آخر للتطور في مختلف المجالات العلمية وكذلك الاجتماعية والقانونية، واستغلال هذه القدرة المعلوماتية للقيام بالأعمال،و تتيح هذه التكنولوجيا وسائل جديدة ومستحدثة، تشابه نوعا ما غيرها من الوسائل التقليدية، بحيث يمكن استخدامها بشكل ايجابي مفيد وغير ضار، أو استعمالها بأشكال غير مشروعة للاعتداء على الأشخاص أو الأنظمة، وهذا ما يثير عديد المخاوف الجدية لوقوع انتهاكات قانونية خطيرة والمساس بالأمن القانوني ككل، في ظل حداثة هاته التقنيات وصعوبة تكييف القوانين التقليدية معها.

أولا: تأثير أعمال الذكاء الاصطناعي[2] على الأمن القانوني [3]

تتنوع أشكال وأنواع أعمال الذكاء الاصطناعي وفق للمجال المستغل عبره، سواء كان ذلك في إطار شرعي كتسيير المرافق العامة مثل حركة المرور وسير المدن واستغلال الطاقة المتجددة وغيرها، أو في إطار إجرامي خطير وغير شرعي بأعمال قرصنة الأنظمة المعلوماتية وتعطيلها، أو التلاعب بأسعار البورصة والاقتصاد، أو  الجريمة المنظمة والإرهاب، بشكل يهدد السلامة العامة والأمن القومي للدول ككل، كذلك يمكن استغلال تقنيات الذكاء الاصطناعي بشكل سيئ وغامض، والتلاعب بالرأي العام عن طريق التضليل والمغالطة، وانتهاك الحريات العامة وتضييق حرية التعبير والتمييز العنصري، وغيرها من الحقوق التي تكفلها الدساتير والقوانين الأخرى، مما تشكل اعتداءات وانتهاكات خطيرة على الأمن القانوني للدولة،

هذا ما يستوجب الدراسة المعمقة لكل مما يمكن لهاته التقنية القيام به، من أجل وضع التحديثات القانونية الضرورية لحماية الشرعية القانونية وفرض سلطة القانون، وتتسم علاقة الإنسان بالذكاء الاصطناعي بالتعقيد والتنوع، فهي علاقة بين الإنسان والآلة والمطور والشركة المستغلة لهذه الآلة، فهي تتراوح بين الاستعانة بالتقنية واستعمالها، واستغلالها أو التوجس منها، ويبقى ذلك حسب نوع هذه التقنية ومجال عملها.  

  • أنواع الذكاء الاصطناعي:

تتنوع تقسيمات الذكاء الاصطناعي حسب مجال استعمالها والهدف منه، حيث يتم التمييز بين

  • الذكاء الصناعي للصناعات والأعمال الصناعية، بحيث يستخدم في الأعمال الدقيقة وتطوير البرامج الالكترونية للأجهزة عالية الدقة كالعتاد الفضائي وصناعة السيارات ذاتية القيادة وصناعة الكومبيوترات وغيرها ممن تبقى العلاقة بينها وبين الإنسان، علاقة المستخدم بالآلة دون أن تكون لهته الأخيرة إرادة وتصرف مستقلة عن مسيرها، هذا النوع لا يشكل إشكالية قانونية أو خطر قانوني، فمسؤوليتها القانونية تقع على مستخدمها دون أي لبس
  • أما النوع الثاني وهو الذكاء الاصطناعي الخدمي والمسير بشكل تلقائي ومستقل، ذاتي التسيير حيث تعتمد الآلة على قواعد بيانات وبرامج مرجعية ذاتية التطور والتحديث، تجعلها تملك وعي صناعي وقدرة مستقلة على القراءة والتحليل والتفاعل ثم اتخاذ القرار والتصرف بشكل مستقل، مثل الروبوتات التي تتمتع بالقدرة على إجراء التفاعلات العاطفية من مشاعر الحب والكره والتعاطف، أو مثل الأسلحة الحربية التي تستعين بالذكاء الاصطناعي لتحديد العدو وما يشكل تهديد ثم تطلق عليه النار تلقائيا دون الرجوع إلى شخص بشري،وهذا النوع
  •  
  • من الذكاء الاصطناعي يشكل معضلة قانونية فيمن سيتحمل مسؤولية هذه الأعمال[4] ، أمام تعدد تطبيقاته [5].
  • الضوابط القانونية لأعمال الذكاء الصناعي

 للحد من خطورة التطور السريع في مجال الذكاء الصناعي  سعت المعاهد والمؤسسات التي تعمل على تطوير هذه التكنولوجيا إلى وضع إطار قانوني وأخلاقي يحكم وينظم أعمال الذكاء الاصطناعي وتطوره بشكل يضمن عدم خروج الأمور عن سيطرة البشر مع رفع قدرات وإمكانيات هته الروبوتات. ومنه  ظهرت قوانين  أسيموف الثلاثية[6]، تحدد من خلالها كيفية صناعة وبرمجة الروبوت وهي:

  • المبدأ الأول عدم إيذاء الروبوت للانسان أو أي سلوك قد يهدد سلامته
  • المبدأ الثاني خضوع وسيطرة الروبوت للإنسان في حدود عدم مخالفة المبدأ الأول، حتى ولو عمل الروبوت بشكل مستقل يبقى خاضع لرقابة البشر
  • المبدأ الثالث يجب على الروبوت حماية وجوده ما لم يتعارض ذلك مع المبادئ السابقة

وقد صيغة هذه المبادئ  الأدبية بشكلها الأولي، تتلوها تطورات مستمرة،

حيث أصدرت بعض الدول قواعد و مبادئ وطنية لأعمال الذكاء الاصطناعي، من بينها دولة الإمارات العربية المتحدة، إمارة دبي، والتي كانت سباقة عربيا في ذلك، سنة 2019 وقد جاء فيها المبادئ التالية:

  • أن تكون أنظمة الذكاء الاصطناعي عادلة وتطبق الشفافية وخاضعة للمساءلة[7] وتكون أعمالها قابلة للفهم .
  • أن تكون أنظمة الذكاء الاصطناعي آمنة، تسخر في خدمة وحماية الإنسانية، وتمنع من إلحاق أي أذى أو تخريب أو تضليل للبشرية[8] 
  • يسخر الذكاء الاصطناعي لخدمة كافة أفراد المجتمع دون تمييز عنصري، كما تطبق عليه الحوكمة عالميا، مع احترام كرامة الأفراد وحقوقهم
  • يجب أن يكون الذكاء الاصطناعي نافعا للبشرية على المدى القريب والبعيد، ويلتزم المطورون له بدعم القيم السامية للبشرية ويعملون على وضع آليات الجودة التي تمكن النظام من العمل بكفاءة خاصة فيما يتعلق بالمهام الحيوية في حياة الناس، وكذلك يلتزمون بوضع آليات للتدخل البشري وإيقاف قرارات الذكاء الاصطناعي من قبل القائمين عليه في حالات الضرورة.

تكمن أيضا خطورة أنظمة الذكاء الاصطناعي على البشرية في اعتماد هذه الأنظمة على خوارزميات معقدة في الإحصاء وجمع البيانات وتخزينها بشكل قد يمكنها من التلاعب و استغلال هذه المعلومات في التأثير على الحياة العامة للمجتمع مثل التأثير على القرارات الاستهلاكية والاقتصاد، أو على المتابعة الصحة، أو حتى على المستوى العسكري.

كذلك جاءت توصيات الاتحاد الأوروبي، فقد اعتمد البرلمان الأوروبي قرار في 16 فيفري 2018  حيث تضمن تشكيل لجنة شؤون قانونية تكون تابعة له، من أجل دراسة الجوانب القانونية و الأخلاقية المتعلقة بتطوير الروبوتات والذكاء الاصطناعي، وقد خلصت  هذه اللجنة للتوصيات التالية:

  • حول المبادئ العامة للذكاء الاصطناعي والروبوتات، أوصت اللجنة بضرورة وضع تعريفات وتصنيفات محددة للأنواع المختلفة من الروبوتات وأنظمة الذكاء الاصطناعي، كذلك الحاجة لوضع سجل إلزامي على مستوى الاتحاد الأوروبي للروبوتات والذكاء الاصطناعي تسند إدارته إلى لجنة متخصصة مسئولة عن الروبوتات و أنظمة الذكاء الاصطناعي، وفيما يتعلق بتداول المعلومات والبيانات ضرورة احترام اللائحة الأوروبية الخاصة بحماية خصوصية البيانات الشخصية الصادرة في عام 2016 والتي دخلت حيز النفاذ في 25 مايو 2018.
  • المبادئ الأخلاقية للذكاء الاصطناعي والروبوتات، وضع ميثاق أخلاقيات العمل والبحث في مجال الذكاء الاصطناعي والروبوتات، وكذلك اقتراح وضع صندوق أسود بكل روبوت يحتوي على البيانات الخاصة بكل عملية يتم تنفيذها بواسطة الجهاز، بما في ذلك المنطق الخاص بعملية صنع القرار الخاص به.
  • وضع قواعد محددة تتلاءم الأنواع المختلفة للذكاء الاصطناعي والروبوتات حيث يتم تقسيمها إلى الأنواع التالية:
  • السيارات ذاتية القيادة
  • الطائرات بدون طيار
  • روبوتات العناية الشخصية بالإنسان، كتلك المساعدة على الحركة
  • الروبوتات الطبية المساعدة على التشخيص المرضي والعلاج وإجراء العمليات الجراحية
  • الروبوتات وأنظمة الذكاء الاصطناعي التي تستخدم في المجال الصناعي وغيرها من المجالات المختلفة الأخرى[9]

تنوعت الهيئات والمنظمات الحكومية والغير حكومية المهتمة بالذكاء الاصطناعي على مختلف مستوياتها، وأجمعت جميعها على ضرورة وضع إطار قانوني يحمي البشرية وينظم مجال الذكاء الاصطناعي ويطوره، وقد تمحورت توصياتها جميعها على مجموعة نقاط أساسية بأن يكون النظام الذكي خاضع في كل حالاته للإرادة البشرية، وأن تكون عملية التطوير والاستغلال بشفافية ونزاهة تامة، وأن لا يتم استغلال البيانات الشخصية للأفراد بشكل ينتهك حقوقهم، وكذلك أجمع الجميع على أن تكون هذه التقنيات مستدامة ومحافظة على  البيئة والتنوع البيولوجي، وأن تخضع هذه الأعمال للمساءلة القانونية والجزائية مشغليها عند اقتراف أي خطأ أو جريمة بواسطتها، كما يمكن استغلاله بفعالية وتفادي أخطاره على النحو التالي:

إيجابيات تأثير الذكاء الاصطناعي على الأمن القانوني

سلبيات تأثير الذكاء الاصطناعي على الأمن القانوني

●        تحسين كفاءة العدالة:

تسريع وتيرة إجراءات التقاضي.

أتمتة المهام المتكررة.

تحسين دقة تحليل البيانات القانونية.

تسهيل الوصول إلى المعلومات القانونية.

●        تعزيز المساواة في الوصول إلى العدالة:

توفير أدوات قانونية بأسعار معقولة.

ترجمة الوثائق القانونية إلى لغات مختلفة.

مساعدة الأشخاص ذوي الإعاقة على الوصول إلى الخدمات القانونية.

●        مكافحة الجرائم:

تحسين قدرات إنفاذ القانون في تحليل البيانات وتحديد الأنماط.

تطوير أنظمة متقدمة للكشف عن الاحتيال وغسيل الأموال.

تعزيز الأمن السيبراني.

●        المخاطر على الخصوصية:

جمع كميات هائلة من البيانات الشخصية.

إمكانية استخدام هذه البيانات لأغراض غير قانونية.

مخاطر التعرض للاختراقات الإلكترونية.

●        المخاطر على التحيز:

إمكانية انعكاس التحيزات البشرية في أنظمة الذكاء الاصطناعي.

التمييز ضد فئات معينة من الأشخاص.

إمكانية استخدام أنظمة الذكاء الاصطناعي لقمع الحريات المدنية.

●        المخاطر على الوظائف:

استبدال الوظائف البشرية بأتمتة الذكاء الاصطناعي.

زيادة معدلات البطالة.

تفاقم عدم المساواة الاجتماعية.

 

تأُثيرات الذكاء الاصطناعي على الأمن القانوني

ثانيا: تأثير الذكاء الاصطناعي على العملية الانتخابية بين التجريم والإباحة:

يستثير التقدم السريع الذي طرأ على الذكاء الاصطناعي الدهشة والـوَجَـل في آن واحد. وينظر كثيرون إلى الذكاء الاصطناعي باعتباره موضوعا للعجب والرهبة (Stupor Mundi) بمعنى “أعجوبة العالم”، إذا استعرنا العبارة اللاتينية، في حين يعتقد آخرون أنه قد يكون “مُـخَـلِّـص العالم” (Salvator Mundi) [10].

في الآونة الأخيرة يثار الجدل حول دور تقنيات التكنولوجيا والذکاء الاصطناعي في نزاهة العملية الانتخابية، الأمر الذي لا يمکن الجزم به وإطلاقه بسبب سرعة تطوره وتعدد استعمالاته ، وفي خضمه يبقى صمت المشرع مريبا متعللا بين الاباحة كمبدأ و تجريم كاستثناء إذا توافق الفعل الإجرامي مع تكييف الجرائم الإلكترونية التى قد لا تطال تشعب المادة الانتخابية في بعدها الجزائي.

كما تظل أخلاقيات الإعلام والاتصال التي لا تختزل فقط في الفعل الذي يقوم به الأشخاص المرئيون أكثر في حقل الإعلام والصحافيين، والمصورين، والمخرجين، وفنيو التلفزيون، إنما ترتبط أيضا بالفعل الذي يقوم به قادة وسائل الإعلام والمؤسسات الإعلامية[11] ،الاجتماعية وحتى مستخدميها.

وعليه، تثار فكرة جدلية تأثيرات الذكاء الاصطناعي بين السلب و الإيجاب فيما يتعلق بعملية الانتخابية و رسم أسس الديمقراطية التشاركية.

1 – التأثير السلبي على نزاهة الانتخابات عبر تقنيات الذکاء الاصطناعي:

يمكن القول في هذا الصدد أن المشرع التونسي لم يجرم صراحة الأفعال الماسة من نزاهة الانتخابات والمرتكزة على الذكاء الاصطناعي في فترة الحملة -ولا المشرع الجزائري- غير أنه يمكن قياسا أن تجرم تلك الأفعال إذا توفرت فيها أركان جرائمة الإلكترونية حسب قانون الجرائم المعلوماتية[12]والذي يتطلب إعادة نظر بصورة جوهرية لتسارع التقنيات الحديثة وأهمية الجانب التكنولوجي في التأثير على أنشطة الحملة ونتائج العملية الانتخابية.

 ومن التأثيرات السلبية للذكاء الاصطناعي خلال فترة الانتخابات ،التلاعب بالرأي العام من خلال نشر المعلومات المضللة والأخبار الكاذبة عبر استخدام برامج الذكاء الاصطناعي لإنشاء محتوى مزيف يتوافق مع أجندات سياسية معينة واستهداف الناخبين برسائل مُخصصة بالاعتماد على البيانات الشخصية للناخبين لتحليل سلوكهم وتوجيه رسائل إعلانية مُخصصة تُؤثر على قراراتهم الانتخابية وبالتالي توجيه التصويت ونتائج الانتخابات النهائية .

 كما أن الاختراقات الإلكترونية  قد تُعرض أنظمة الانتخابات الإلكترونية لخطر الاختراق بالتشويه أوالحذف أو الزيادة من قبل قراصنة الإنترنت المتمكنين من التلاعب بالبيانات، مما قد يؤدي إلى تغيير نتائج الانتخابات وضربا لمبدأ الشفافية ونزاهة. إضافة الى ذلك يعتبر التحيز في الخوارزميات أمرا قائما ضد

مجموعات معينة من الناخبين، مما قد يؤدي إلى حرمانهم من حقهم في التصويت أو تصويت لا يمت لواقع اختياراتهم بصلة.

وكذلك، تتعدد استخدامات الذكاء الاصطناعي في الحملات الانتخابية  في تحديد الناخبين حيث يستخدم الذكاء الاصطناعي لتحليل البيانات وتحديد الخصائص الديموغرافية والسلوكية للناخبين المحتملين. والتواصل معهم عبر رسائل مُخصصة  موجهة للناخبين بناءً على اهتماماتهم واحتياجاتهم كما تعتمد على جمع التبرعات لتحديد المانحين المحتملين وتوجيه طلبات التبرعات إليهم وهو ما شاع على شبكات التواصل الاجتماعي منذ انتخابات 2018.

  • التأثير مواقع التواصل الاجتماعي على إرادة الناخبين:

قد تؤثر تقنيات الذکاء الاصطناعي سلبا على نزاهة العملية الانتخابية سواء عبر توجيه الناخبين أو عبر بث مغالطات، فقد تتمکن أداة اصطناعية تتمتع برؤية شاملة على الشبکات الاجتماعية والسياسية أن تحدد فرص التأثير في الشبکات لکي تحقيق نتيجة سياسية ما تكون متوافقة مع مآرب شخصية وسياسية دون اعتبارات أخلاقية تذكر في عالم افتراضي مريب[13] .

وتتمکن هذه التقنيات آليا من التدخل في الشبکات من أجل ربط مجموعة منعزلة ولکن متشابهة التفکير معا عبر دراسة وتحليل بياناتهم، لتصبح قادرة على العمل في ظل زيادة حجمها وتنوعها الجغرافي بصورة سريعة وأكثر نجاعة ،کي تحقق نتائج سياسية معينة ومحددة، ويمکن لمثل هذا النشاط أن يشکل نسخة أوسع نطاقًا وأکثر استراتيجية للاستهداف شخصية معينة لإيصال الرسائل السياسية عبر وسائل التواصل الاجتماعي.[14]

التأثير على الناخبين بنشر الدعاية والتضليل الأخبار الكاذبة، واستهداف الناخبين برسائل مُخصصة تناسب توجهاتهم، مما قد يُؤثّر على قراراتهم الانتخابية والتلاعب بالمشاعر الناخبين واستهدافهم برسائل تُثير مشاعرهم وتُؤثّر على سلوكهم.

جمع البيانات الشخصية وتحليلها من مختلف المنصات، مثل مواقع التواصل الاجتماعي، واستخدام هذه البيانات لإنشاء ملفات تعريف شخصية مُفصّلة تُستخدم في استهدافهم برسائل هادفة. وتحليل البيانات يمكن استخدام تقنيات الذكاء الاصطناعي لتحليل البيانات المُجمّعة عن الناخبين لتحديد اتجاهات الرأي العام وتوقّع نتائج الانتخابات.

ولقد برزت هذه الميديا في البداية، في البلدان العربيّة كقناة اتصال، وأداة نضال، إذ منحت صوت المهمشين والمقصيين لتجسيد حرية تداول الأخبار والكفاح من أجل نيل حقوقهم السياسيّة والاجتماعيّة[15]وهو ما يمكن أن يفسر السرعة الفائقة التي انتشرت بها مواقع الشبكات الاجتماعيّة في البلدان العربيّة من 2011 إلى 2013، انعدام حرية التعبير في المنابر التّقليديّة، مما دفع النشطاء السياسيون إلى استخدام الميديا الاجتماعيّة، في بلد مثل تونس وخاصة في الانتخابات الرئاسة الاخير.[16]

حيث يتّسم القسم الأكبر من الميديا الاجتماعية أي مواقع الشبكات الاجتماعيّة، مثل الفيسبوك وتويتر، واليوتيوب، بطابعها المنفتح على مختلف المشاركين، بمقدرتها على نشر الأخبار والصور وشرائط الفيديو والآراء بسرعة فائقة، وتداولها على أوسع نطاق جغرافي واجتماعي دون الرجوع للمصدر أو التحقق من مصداقيتها.

ويمكن أن نذكر مثال استخدام منصة الاستهداف بالإعلانات في فيسبوک وقد بدأ الحديث مؤخرا في مجال عمليات المعلومات الناشئة لتسلط الضوء على أنشطة أخرى قابلة للأتمتة[17]لتمکين إطلاق حالات تأثير مستهدفة[18]وتسمى هذه الظاهرة بــ “فقاعات الترشيح filter bubbles ” كأحد انعکاسات التصميم المشخص لاستخدامات شبکة الانترنت[19]، ويمکن أن تؤدي إلى فصل حاد في الخطاب السياسي من مجموعات من البشر. 

مما يمثل فرصة لإيصال رسائل سياسية مستهدفة للغاية، مما يؤدي إلي خفض الترکيز على الحقيقة في الرسائل المرسلة والصحافة مستغلة قابلية البشر للتأثر بالانحياز وهو أحد أهم نظريات التأثير التي تعرف بالرصاصة السحرية أو الحقنة[20]، مما يجعلهم أکثر قدرة على تصديق الرسائل التي تؤکد المعتقدات القائمة المروجة لها، مهما کانت خاطئة مما يساعد في انشاء غرف صدى للمعلومات المضللة، نظرا الانحياز التفکيري في ظل الطبيعة المغلقة لمنصات تواصلنا الاجتماعي عبر شبکة الانترنت.

ومن أبرز التطبيقات على ذلک استخدام الحزب الجمهوري والديمقراطي بأمريکا في انتخابات 2016 حيث استفاد کل منهم وانتهز القدرة على تحديد الجمهور المستهدف بالأخبار و الرسائل المزيفة أحيانا[21]. وقامت “وکالة أبحاث الإنترنت” بروسيا، بتوظيف الآلاف من النشطاء لإنشاء ونشر دعاية للناخبين الأمريکيين، تصل لأکثر من 126 مليون مستخدم على Facebook وحدهم، وأصدر التحقيق بقيادة مولر في التواطؤ بين حملة ترامب وروسيا 36 لائحة اتهام ضد الرئيس الأمريکي[22].

وقد أکدت ذلک وکالة الاستخبارات الأمريکية أن الانتخابات الأمريکية تعرضت لتدخل أجنبي تجاوز حده من خلال هجمات إلکترونية خارجية. وأخذت الهجمات شکل إصدارات عامة لبيانات خاصة مسربة في محاولة للتأثير في أراء الناخبين.[23]

مما يتضح معه إمکانية توجيه إرادة الناخبين والمفارقة في ذلك إمكانية کشف التلاعب، وتجدر الاشارة أن في أحوال أخرى قد يصعب اکتشاف التلاعب نظرا لصعوبة التفطن للخرق أو كشف ملابسات الجريمة، فيمکن للأدوات الذكاء الاصطناعي الأکثر تقدما أن تزيد من کفاءة المتسللين ـو مخترقي الشبكات، وأن تجعلها أقل قابلية كشفها خلال العملية الانتخابية وخاصة أثناء فترة الحملة[24].

نظرا لتغير الآراء وتعدد الأنشطة الانتخابية التي تساعد في التلاعب بالسيكولوجية الجماهير لتأثيرها على إرادة الناخبين[25].

2-اختراق التصويت الإلکتروني بفعل تقنيات الذکاء الاصطناعي:

في إطار استخدام تقنية “التصويت الإلکتروني(EVM)”[26]  [27] خلال الاقتراع تثار إشکالية تأمينها، لأنها غير مأمونة ومتاحة بشکل تام، وحيث تستخدم كذلك أنظمة التصويت المباشر للتسجيل الإلکتروني فتقوم بتخزين الأصوات، دون أي نسخ احتياطية للأصوات الأمر الذي يسمح بالتلاعب بها أو اختراقها[28]  بزيادة أو النقصان.

وبالرغم أن الأمر مازال بعيدا على الخوض فيه في تونس أو الجزائر، خاصة فيما يخص آلية التصويت الإلكتروني، إلا أن التسارع الرقمي واجتياح الذكاء الاصطناعي المجال القانوني و الفضاء الديمقراطي يفرض علينا التوجه نحو معرفة مآخذ ومآلات هذه التقنيات الحديثة التي سنكون قريبا ملزمين بالتعامل معها وفهم تأثيراتها على أمننا ونظامنا سياساتنا خاصة بعد توقيع على مذكرة تعاون في المجال الانتخابي بين الهيئة العليا المستقلة للانتخابات و اللجنة الانتخابية المركزية بالاتحاد الروسي فيما يتعلق بإرساء تعاون في مجال استخدام الوسائل الحديثة في المسارات الانتخابية وتبادل الخبرات والتجارب وتنظيم الدورات التكوينية لفائدة الهياكل المكلفة بالجانب العملياتي والميداني لمختلف مراحل العمليات الانتخابية [29].

وتجدر الاشارة أن الجرائم المرتبطة باستخدام الذكاء الاصطناعي في الانتخابات متعددة منها ما يتعلق بالتلاعب بنتائج الانتخابات من خلال اختراق أنظمة التصويت أو نشر معلومات مضللة تُؤثّر على قرارات الناخبين بإنشاء أخبار كاذبة شواء صور، فديوهات ،أخبار مُزيفة أو حتى صور الهزلية الساخرة والنقدية “memes” لنشرها على وسائل التواصل الاجتماعي والتلاعب بالرأي العام  اعتمادا على حسابات وهمية على وسائل التواصل الاجتماعي لنشر رسائل مُضللة.

ومنها ما يتعلق بانتهاك الخصوصية عبر استغلال تقنيات الذكاء الاصطناعي لجمع البيانات الشخصية للناخبين بشكل غير قانوني واستخدامها لأغراض غير مشروعة لهجمات إلكترونية على أنظمة الأحزاب السياسية أو الحكومات. كما تستعمل للتحريض على الكراهية بنشر خطاب الكراهية والتحريض على العنف بين الناخبين أو الأحزاب السياسية أو مناصريهم.

الفرص:

تعزيز المشاركة المدنية: يُمكن للذكاء الاصطناعي تسهيل مشاركة المواطنين في العملية الديمقراطية من خلال توفير أدوات تفاعلية، مثل منصات النقاش والحوار، وتطبيقات التصويت الإلكتروني، ونظم المعلومات لتسهيل الوصول إلى البيانات.

محاربة المعلومات المضللة: يُمكن استخدام تقنيات الذكاء الاصطناعي للكشف عن الأخبار الكاذبة والمحتوى المُضلّل، وتصحيح المعلومات المغلوطة، وتعزيز الشفافية في الخطاب العام.

دعم صنع القرار: يُمكن للذكاء الاصطناعي تحليل البيانات وتحليلها بشكل دقيق، مما يُساعد صانعي القرار على فهم أفضل للمجتمع واحتياجاته، وتصميم سياسات أكثر فعالية.

التحديات:

التحيز والتمييز: قد تُعزز خوارزميات الذكاء الاصطناعي التحيزات الموجودة في المجتمع، مما يُؤدي إلى التمييز ضد مجموعات معينة.

التلاعب والتأثير على الانتخابات: يُمكن استخدام تقنيات الذكاء الاصطناعي للتلاعب بالرأي العام، ونشر المعلومات المضللة، والتأثير على نتائج الانتخابات.

تركيز السلطة: قد يُؤدي تطور تقنيات الذكاء الاصطناعي إلى تركيز السلطة في أيدي عدد قليل من الشركات أو الحكومات، مما يُهدد مبادئ المساواة والعدالة.

الحلول:

وضع قوانين وأنظمة جديدة:

لمعالجة التحديات الأمنية والقانونية التي يطرحها الذكاء الاصطناعي.

تعزيز الوعي:

حول مخاطر وفوائد الذكاء الاصطناعي بين أصحاب المصلحة.

تطوير أنظمة ذكاء اصطناعي أخلاقية:

تُراعي مبادئ المساءلة والخصوصية وعدم التمييز.

التعاون الدولي:

لضمان اتساق القوانين والأنظمة المتعلقة بالذكاء الاصطناعي على المستوى الدولي

الآثار:

تحسين كفاءة وفعالية النظام القانوني:

من خلال أتمتة المهام الروتينية، وتحسين البحث القانوني، وتقديم المشورة القانونية.

زيادة إمكانية الوصول إلى العدالة:

من خلال توفير خدمات قانونية بأسعار معقولة.

تعزيز الشفافية والمساءلة:

من خلال تحسين تتبع القرارات القانونية.

    نظرية SWOT تحليل أهمية الذكاء الاصطناعي بين القانون والسياسة

 

ثانيا: التأثير المساعد لتحقيق نزاهة الانتخابات عبر تقنيات الذکاء الاصطناعي

تطرح إشکالية نزاهة الانتخابات وإمکانية توجيه الناخبين أو تزوير الانتخابات بفعل التلاعب بتقنيات الذکاء الاصطناعي ، ولكن من جهة اخرى وفي هذا الصدد، تأتي سلاسل الکتل[30] لتقدم حلا أکثر تأمينا للانتخابات، حيث تساعد في تعزيز نزاهة العملية الانتخابية وشفافيتها، وتأمين إرادة المواطنين. 

حيث تساعد على منع أي شخص من التلاعب بعملية التصويت، ودعم مناخ الثقة ناهيک عن تيسير عملية التصويت وإتاحتها دون شرط الموقع أو المكان. ففي نوفمبر 2018 قامت ولاية غرب فرجينيا خلال انتخابات الکونجرس الامريکية باستخدام سلاسل الکتل خلال الانتخابات، حيث سمحت لــ 144 ناخب بالاقتراع عن بعد رغم تواجدهم بدول مختلفة خارج الولايات المتحدة، نظرا لاستحالة واقعية مباشرة تتمثل في صعوبة صولهم لسفاراتهم بالخارج لإجراء التصويت. فتم استخدام برنامج VOLTZ [31] وتمت عملية الاقتراع بنجاح. الأمر الذي يساعد على النفاذ بل وزيادة أعداد الناخبين، وهو ما بدأت الهيئة العليا المستقلة للانتخابات التونسية  العمل على استيراده  عبر  تعاون في المجال الانتخابي مع اللجنة الانتخابية المركزية للاتحاد الروسي ومتابعة عمليات التصويت التي جمعت بين التصويت اليدوي والتصويت الالكتروني المباشر والتصويت عن بعد عن طريق الوسائل الحديثة، فضلا عن تمكين الناخبين الذين يتعذر عليهم التنقل خاصة من ذوي الاحتياجات الخصوصية وكبار السن والمرضى من التصويت بمنازلهم من خلال لجان انتخابية متنقلة تقدم لهم هذه الخدمة بأماكن وجودهم وذلك لترسيخ السيادة الانتخابية والمعايير الدولية .

كما يمكن  للذكاء الاصطناعي زيادة المشاركة الانتخابية بتسهيل عملية التصويت وجذب المزيد من الناخبين للمشاركة من خلال تطبيقات الهاتف المحمول وتقنيات التعرف على الوجه ومن خلال توفير أدوات تفاعلية.

تعزيز الشفافية: يمكن استخدام تقنيات مثل blockchain لتسجيل الأصوات بشكل آمن وشفاف، مما يمنع التلاعب والتزوير.عبر مراقبة الانتخابات وتحليل البيانات بشكل دقيق.

مكافحة المعلومات المضللة: يمكن للذكاء الاصطناعي مساعدة الناخبين على الوصول إلى المعلومات الموثوقة ومكافحة انتشار الأخبار الكاذبة ومكافحة الخطابات الكراهية.

تحسين فهم احتياجات الناخبين: يمكن تحليل البيانات التي يجمعها الذكاء الاصطناعي لفهم احتياجات الناخبين بشكل أفضل وتطوير برامج انتخابية تلبي تطلعاتهم [32] .

تحسين التواصل مع الناخبين: وذلك عبر تحليل البيانات لتحديد الناخبين الأكثر عرضة لدعم مرشح معين، وتصميم رسائل مخصصة تناسب احتياجاتهم واهتماماتهم.

زيادة كفاءة العمليات: يمكن للذكاء الاصطناعي أتمتة العديد من المهام، مثل جمع التبرعات، وتنظيم المتطوعين، وإدارة وسائل التواصل الاجتماعي.

تحسين استهداف الرسائل: استخدام البيانات لتحديد أفضل طريقة للوصول إلى الناخبين والجمهور المستهدف، سواء كان ذلك عبر البريد الإلكتروني أو الرسائل النصية أو الإعلانات على وسائل التواصل الاجتماعي.

وخلال شهر مارس 2018 ، أجرت دولة وسيراليون بغرب إفريقيا ، أول انتخابات قائمة على أساس سلسلة الکتل وتمت بنجاح. تم خلالها منح الناخب “محفظة” (أوراق الاعتماد) و “عملة معدنية” (فرصة للإدلاء بصوته). ثم تم التحقق من هوية الناخب باستخدام أدوات القياس الحيوي، مثل فحص بصمة الإبهام ، قبل التصويت عبر التليفون المحمول. ثم يقوم الناخبون بالإدلاء بأصواتهم إلکترونياً في دفتر الأستاذ القائم على الکتلة، حيث تظل أصواتهم آمنة تتمتع بالشفافية مع الحفاظ على سرية هوية الناخبين والنتائج، والتي سيتم تخزينها في نقاط مختلفة بأجهزة کمبيوتر کثيرة غير معلومة. بعد ذلک، يمثل کل تصويت مسجل جزءًا من سلسلة من الأصوات تماثل صندوق الاقتراع. وتتوافر شبکة خارجية للتحقق  مکونة من مجموعة من الجهات الفاعلة المستقلة للتحقق من نزاهة التصويت ، بحيث لا يمکن لأي شخص تغيير أي بيانات في blockchain بنفسه. بمعنى أخر، ستکون الأصوات المسجلة آمنة بشکل کبير[33] .

ومن أبرز مزايا إجراء الانتخابات بفعل تکنولوجيا سلاسل الکتل تخفيض تکلفة الحملات الانتخابية، حيث تنفق الحملات السياسية مبلغًا هائلاً من المال في حملات التسويق، في محاولة لاستخدام قوة المال للتأثير على الناخبين 

هذا علاوة على، تيسير عملية التصويت وعدم وجود طوابير من الناخبين إضافة إلى عدم رمزية السلطة الانتخابية، مما يعرف باسم “قانون دوفيرجر” الذي ينطلق من حرية دمج التکنولوجيا الآمنة والمضمونة في أنظمة التصويت المختلفة وفق إرادة السلطة المنظمة للعملية الانتخابية من أجل الدفع باتجاه المزيد من أساليب الانتخابات الأکثر عدالة وديمقراطية و مما يزيد من نزاهة العملية الانتخابية [34] .

 المحور الثاني: التحديات القانونية لأعمال الذكاء الاصطناعي

إن تطور تكنولوجيا الذكاء الاصطناعي وتزايد الاعتماد عليه في شتى مجالات الحياة، ومع زيادة الفعالية والعملية الخاصة به، يجعل منه شريك مهم وفعال للإنسانية، ومع رفع المطورين والمبرمجين لاستقلالية هذه الأنظمة وتمكينها من اتخاذ قراراتها تلقائيا دون تدخل الإنسان، يفرض تحديات وتساؤلات قانونية جديدة، فمن سيتحمل المسؤولية القانونية عن الأعمال الضارة في حالة وقوعها من طرف النظام خارج إرادة المصنع أو المشغل لها؟ وما هي الإمكانيات وآفاق التكييف والتطوير التشريعي لتأطير هذه التقنيات المستحدثة .

أولا: المسؤولية الجزائية للذكاء الاصطناعي

يثير موضوع المسؤولية القانونية لأعمال الذكاء الاصطناعي جدلا قانونيا و فقهيا واسعا، بين من يقتصر مسؤولية الذكاء الاصطناعي على المسؤولية المدنية الناتجة عن الأفعال الضارة نتيجة الخطأ في النظام، واتجاه آخر يقر بمسؤولية النظام جزائيا في حالة ارتكابه لأفعال مجرمة، ويثير هذا الطرح فكرة الوعي[35] والإرادة الحرة التي هي ركيزة المسؤولية الجزائية للأشخاص العاقلين، وبين كل هته الأفكار والقياسات القانونية وجب  وضع تصورات مختلفة لمسؤولية النظام وعلى عاتق من تقع المساءلة .

  • صور مسؤولية الروبوت وفق فقه القانون المدني

– الاتجاه الأول التقليدي، حيث يتوجه هذا الرأي لقياس مسؤولية الذكاء الاصطناعي على مسؤولية حارس الشيء الخطير، حيث أن مالك النظام تقع عليه مسؤولية أفعاله تماما كمالك الآلات والمعدات الخطيرة يستوجب عليه اخذ كل تدابير الحيطة والحذر

– الاتجاه الثاني، هو اتجاه حديث أقر  في القانون المدني الأوروبي الخاص بالروبوت الصادر عن البرلمان الأوروبي في 16 فيفري 2017، حيث أقر نظرية جديدة سميت نائب الإنسان المسؤول في نطاق تحديد المسؤولية عن الضرر بسبب تشغيل الروبوتات، على أساس الخطأ واجب الإثبات على نائب الإنسان الذي قد يكون صانع أو مشغل أو مالك أو مستخدم للنظام[36]، فقد افترض هذا التوجه استقلالية ذاتية للنظام وأخرجه عن دائرة حراسة الشيء مقرا بكيانه المستقل وحرية أعماله، مع تحميل النائب البشري عنه مسؤولية الخطأ على حسب أين كان وجه الخلل بشكل يمنع فقدان حقوق الضحية فقد يكون

  • المطور أو المصنع: وهو أن يسأل المصنع عن عيوب التصنيع التي قد تؤدي بالروبوت لارتكاب جريمة أو إلحاق عمل ضار.
  • المشغل: وهو الشخص المستغل للنظام والقائم على تشغيله
  • مالك النظام: وهو الشخص الذي يملك النظام سواء يشغله لخدمته أو لخدمة عملائه والغير، فتقوم مسؤوليته في حال علمه بخلل في نظامه أو عدم قيامه بكل الإجراءات الموصى من طرف المصنع.
  • المستعمل: وهو الشخص التابع الذي يقوم باستعمال نظام الذكاء الاصطناعي لمصلحته دون أن يكون مالك أو مشغل له، فتقوم عليه المسؤولية في حالة استعماله للنظام في جرائم أو أعمال ضارة تنتج عن سوء استغلاله للنظام أو تقديم طلبات خاطئة له.

والملاحظ على هذا التوجه الحديث أنه أقر يفصل بين شخصية النظام الاصطناعي عن الشخص البشري الذي جعله تابع له، وكأنها مرحلة متقدمة للإقرار مستقبلا بالشخصية القانونية لأنظمة الذكاء الاصطناعي

 وهذه المسؤولية المدنية عن الأفعال الضارة الناتجة عن أعمال الروبوتات وأنظمة الذكاء الاصطناعي، لا تغني عن تصورات المساءلة الجزائية المترتبة عن الجرائم الواقعة من قرارات النظام ذاته أو استغلاله من طرف البشر لارتكابها

  • صور المسؤولية الجزائية للروبوت

توجد عديد أشكال المساءلات الجزائية عن أعمال الذكاء الاصطناعي

  • حالة ما إذا برمج الروبوت أصلا لارتكاب جريمة عمدا، وهنا تقع تبعات المسؤولية الجزائية مباشرة على من قام ببرمجة أو تكليف النظام بارتكاب الفعل الاجرامي، وفقا لمبدأ مسؤولية الفاعل المعنوي أو المحرض ولو لم يأت هو بالأفعال المادية للجريمة، فتقوم مسؤوليته فقط بتوجيه النظام للقيام بالأعمال المادية متى تحققت أركان المسؤولية على هذا الشخص المحرض قام بذلك بقصد لتحقيق الضرر وإرادته الكاملة والحرة. سواء كان هذا الشخص هو المصنع، أو المشغل أو المالك أو المستعمل.
  • وقوع جريمة من طرف الروبوت أو نظام الذكاء الاصطناعي نتيجة خلل تقني أو عدم كفاءة النظام أو تقصير في الصيانة وعدم إدراك المخاطر، هنا تقوم المسؤولية الجزائية للجريمة في حق من قام بتطوير وتصنيع هذا النظام، أو المشغل أو المسؤول عن حسن سير عمله، كل حسب سلطته على النظام، وفقا لمبدأ المسؤولية الجزائية عن الخطأ غير العمدي الناتج عن الإهمال وعدم اتخاذ تدابير الوقاية والأمن.
  • حالة ما إذا اقترف نظام الذكاء الاصطناعي لجريمة من تلقاء نفسه نتيجة تبنيه وتطوير لأفكاره الخاصة مما قد يؤدي الى تغير في بمبادئه وأعماله دون تدخل من أي طرف خارجي، وهذا النوع من الجرائم وارد جدا خصوصا لترابط هذه الأنظمة عبر شبكة الانترنت وغيرها

هنا ستكون اشكالية قانونية، فعلى من ستوقع المسؤولية الجزائية خصوصا وفقا لمبدأ الشخصية ونظرية الوعي والارادة، وهنا تجدر الاشارة الا استقلالية الذكاء الاصطناعي وكذلك إدراكه الواعي الناتج عن قدرته على التعلم، فقط ينقصه الاعتراف بالشخصية القانونية كشخص معنوي على غرار الشركات التجارية وباقي الأشخاص المعنوية الخاصة،

وهو ما يقترح البعض ضرورة قانونية وفق لمبدأ الملاءمة وما يفرضه الواقع والتطور السريع لهذه الأنظمة الذكية ، وبالرغم من الجدل الواسع في هذا السياق فإن الانتقال الذكاء الاصطناعي الى شخص افتراضي يراه الفقيه الفرنسي بوسيرا، سيصبح ضرورة وحتمية لا مفر منها[37] ، وفي هذا السياق وعند تحميل المسؤولية الجزائية للروبوت يجب أن تتلاءم العقوبات المقررة مع الطبيعة الخاصة لهذا الجان.

ج- العقوبات الجزائية المقررة عن أعمال الذكاء الاصطناعي:

لا يخفى علينا أن للجزاءات الجنائية وجهان هدفان، هدف لجبر الضرر وتعويض المتضرر  من الجريمة أو الخطأ، وهذا يتأتى بقيام المسؤولية المدنية عن أعمال الذكاء الاصطناعي والحكم بالتعويض المادي أو المعنوي للضحية.

أما الجانب الآخر من توقيع العقوبات الجزائية، فهدفه تحقيق الردع العام والخاص، لضمان السلامة والأمن القانوني داخل المجتمع، وهذا يفترض أن يكون في الشخصية الطبيعية للبشر كونه يمتلك الوعي والادراك والشعور بالألم وتأنيب الضمير.

وهو المثير للاهتمام فيما يتعلق بالذكاء الاصطناعي فإن المطورين يعملون على وضع آليات تحاكي المشاعر البشرية كالفرح والحزن والخجل وغيرها مما يتيح للروبوت القدرة على التعلم والإحساس بالأعمال الصالحة والمؤذية للغير، مما يتيح تطبيق العقوبات عليه

  • الغرامات المالية
  • تدابير اللوم
  • فرض تدابير إعادة التأهيل
  • عقوبة الإيقاف والإنهاء، وهي بمثابة عقوبة الإعدام في حقه.

ثانيا : التوصيات المقترحة و آفاق التطور التشريعي للذكاء الاصطناعي

لا شك أن للذكاء الاصطناعي تأثيرات كبيرة على العملية الانتخابية، سواء كانت إيجابية أو سلبية. ويقع على عاتق الحكومات تبني إطار قانوني فعال ومواكب لتغيرات دون .

حيث يُعد الذكاء الاصطناعي أداة قوية يمكن استخدامها في الحملات الانتخابية لتحسين التواصل مع الناخبين وزيادة فعالية الحملات. ومع ذلك، يجب على الدول والمجتمع المدني العمل معًا لمنع استخدام الذكاء الاصطناعي في الأغراض غير القانونية ويبقى على المنظمات الدولية المسؤولية ضمان استخدام هذه التكنولوجيا بشكل مسؤول وفعال لتعزيز الديمقراطية وضمان نزاهة الانتخابات.

  • تشريع خاصة بالذكاء الاصطناعي ، وضع قوانين تنظم استخدام الذكاء الاصطناعي في الحملات الانتخابية: يجب على الدول وضع قوانين تحدد كيفية استخدام الذكاء الاصطناعي في الحملات الانتخابية وتمنع استخدامه في الأغراض غير القانونية.
  • تطوير سياسات وإجراءات حماية البيانات والخصوصية رفع مستوى الوعي: يجب على الناخبين أن يكونوا على دراية بمخاطر استخدام الذكاء الاصطناعي في الحملات الانتخابية وأن يتعلموا كيفية تمييز المعلومات المضللة ومعلوماتهم الشخصية.
  • تعزيز التعاون الدولي في مجال التنظيم القانوني للذكاء الاصطناعي : يجب على الدول التعاون مع بعضها البعض لمكافحة الجرائم المتعلقة باستخدام الذكاء الاصطناعي في الحملات الانتخابية والجرائم العابرة للحدود.
  • وضع قوانين وتشريعات  وطنية تُنظّم استخدام تقنيات الذكاء الاصطناعي في الانتخابات وخاصة خلال الحملة الانتخابية والعمل على المراقبة الناجعة و المستدامة.
  • دعم مبادرات الشفافية والمساءلة في استخدام تقنيات الذكاء الاصطناعي  خلال فترة الانتخابات لضمان نزاهة وشفافية العملية الانتخابية و مصداقية نتائجها.

خاتمة:

هذا الموضوع معقدٌ وشاملٌ، ويجب على جميع أصحاب المصلحة المشاركة في نقاشٍ مفتوحٍ حول كيفية معالجة التحديات الأمنية والقانونية التي يطرحها الذكاء الاصطناعي لتحقيق نزاهة الانتخابات و الديمقراطية الفعلية. ذلك أن الذكاء الاصطناعي يُشكل أداةً قويةً يمكن أن تُحدث تغييراتٍ إيجابيةً في النظم القانوني من جهة و النظم السياسية بتعزيز الديمقراطية التشاركية من جهة أخرى . ومع ذلك، يجب معالجة التحديات الأمنية والقانونية التي يطرحها الذكاء الاصطناعي بشكلٍ فعالٍ لضمان استخدامه بشكلٍ مسؤولٍ وأخلاقي.

المراجع :

https://news.un.org/ar/story/2023/11/112563

الذكاء الاصطناعي و القانون: أهميته وتحدياته:

https://niuversity.com/ar

  • د،أحمد فتحي سرور، نظرية القانون، دار النهضة العربية،بيروت، لبنان، ط5 ،2004.
  • د/ياسر محمد اللمعي،المسؤولية الجنائية عن أعمال الذكاء الاصطناعي ما بين الواقع والمأمول، بحث مقدم الى مؤتمر الجوانب القانونية والاقتصادية للذكاء الاصطناعي وتكنولوجيا المعلومات، منعقد في 23-24 ماي 2021، بكلية الحقوق جامعة المنصورة، منشور في مجلة البحوث القانونية والاقتصادية
  • موسى اللوزي، الذكاء الاصطناعي في الأعمال، ملتقى دولي حول ذكاء أعمال اقتصاد المعرفة، جامعة الزيتونة الأردنية
  • د. عائشة بنت بطي بن بشير، مبادئ وإرشادات أخلاقيات الذكاء الاصطناعي، دبي الذكية، الإمارات العربية المتحدة
  • نصر الدين لعياضي: مناهج البحث في السياق الرقمي: خلاف واختلاف، مجلة لباب
  • د.عادل عبد النور بن عبد النور، مدخل الى علم الذكاء الاصطناعي، مدينة الملك عبد العزيز للعلوم والتقنية، المملكة العربية السعودية
  • د. همام القوصي، اشكالية الشخص المسئول عن تشغيل الروبوت، مجلة الأبحاث القانونية المعمق.

[1]  د/ياسر محمد اللمعي،المسؤولية الجنائية عن أعمال الذكاء الاصطناعي ما بين الواقع والمأمول، بحث مقدم الى مؤتمر الجوانب القانونية والاقتصادية للذكاء الاصطناعي وتكنولوجيا المعلومات، منعقد في 23-24 ماي 2021، بكلية الحقوق جامعة المنصورة، منشور في مجلة البحوث القانونية والاقتصادية، ص 828.

[2]  يقصد بأعمال الذكاء الاصطناعي: كل التطبيقات والبرامج ومواقع الانترنت، وكذالك الآلات والروبوتات وغيرها ممن تعتمد على هذه التقنية في برمجياتها software  لقيامها بأعمالها.

[3]  يقصد بالأمن القانوني: شعور المواطنين بالحماية القانونية لهم وسلطة القانون وقوته في المجتمع وضبط التعاملات، ويشتمل على

  • شرعية القواعد القانونية ووضوحها
  • استقلالية القضاء واحترام القوانين
  • وضع الحدود القانونية لأعمال المؤسسات وضبط سلطاتها بشكل يمنعها من التسلط الغير مشروع
  • ضمان سلطة القانون وفرضه على الجميع

أنظر: د،أحمد فتحي سرور، نظرية القانون، دار النهضة العربية،بيروت، لبنان، ط5 ،2004، ص25-28.

[4]  د/ياسر محمد اللمعي،المسؤولية الجنائية عن أعمال الذكاء الاصطناعي ما بين الواقع والمأمول، بحث مقدم الى مؤتمر الجوانب القانونية والاقتصادية للذكاء الاصطناعي وتكنولوجيا المعلومات، منعقد في 23-24 ماي 2021، بكلية الحقوق جامعة المنصورة، منشور في مجلة البحوث القانونية والاقتصادية، ص 831.

[5] موسى اللوزي، الذكاء الاصطناعي في الأعمال، ملتقى دولي حول ذكاء أعمال اقتصاد المعرفة، جامعة الزيتونة الأردنية، يومي 23-24 أفريل 2012، الأردن، ص23، نشرت  عبر مجلة ميادين  الاقتصادية، المجلد 01، العدد 01، سنة 2018.

[6]  قوانين اسيموف الثلاثية: هي قواعد كتبها الكاتب الأمريكي إسحاق اسيموف في روايات الخيال العلمي “أنا الروبوت” (I,Robots) سنة 1950، تنظم سلوك الروبوتات ومنهم من إيذاء البشر، وجدير بالذكر أن هذه القواعد ليست قوانين حقيقية، بل هي مجرد أفكار عامة جدا كانت سابقة لزمانها ذلك الحين، يتم الاستئناس بها في أعمال الذكاء الاصطناعي.

[7]  تبرز ضوابط المساءلة عن أعمال نظام الذكاء الاصطناعي في:

  • بحيث لا يسأل النظام بحد ذاته، لكن يسأل عنه المصممين له والمطورين والمشغلين له
  • يلتزم المطورون ببذل الجهد الكافي للحد من مخاطر نظام الذكاء الاصطناعي
  • يجب أن يتوفر النظام على آليات تتيح للمستخدم الاعتراض على القرارات الهامة للذكاء الاصطناعي
  • يجب أن تتضمن فرق تطوير أنظمة الذكاء الاصطناعي على تنوع في الخبراء بالمجال الذي تعمل فيه

أنظر: د. عائشة بنت بطي بن بشير، مبادئ وإرشادات أخلاقيات الذكاء الاصطناعي، دبي الذكية، الإمارات العربية المتحدة، 2019، ص6.

[8]  – بحيث يكون الهدف من تطوير النظام تقديم الخدمات والمعلومات  وليس الخداع والتلاعب

 – تلتزم الدول بالتعاون فيما بينها وتجنب السباق نحو التسلح  بالأسلحة ذاتية التحكم، كما يجب فرض الرقابة الشديدة على مثل هذه الأسلحة

 – الالتزام بالتعاون الفعال بين الدول من أجل التأكد من تطبيق معايير السلامة الخاصة بالذكاء الاصطناعي

أنظر: نفس المرجع السابق

[9]  د/ياسر محمد اللمعي،المسؤولية الجنائية عن أعمال الذكاء الاصطناعي ما بين الواقع والمأمول، بحث مقدم الى مؤتمر الجوانب القانونية والاقتصادية للذكاء الاصطناعي وتكنولوجيا المعلومات، منعقد في 23-24 ماي 2021، بكلية الحقوق جامعة المنصورة، منشور في مجلة البحوث القانونية والاقتصادية، ص 840-841.

[10] Bertrand Badré and  Charles Gorintin, How to Democratize AI project-syndicate, Feb 7 2024.

[11] Cornu Daniel, L’éthique de l’information, Paris, PUF, 1997, p8.

[12] مرسوم عدد 54 لسنة 2022 مؤرخ في 13 سبتمبر 2022 يتعلق بمكافحة الجرائم المتصلة بأنظمة المعلومات والاتصال.

[13]  نصر الدين لعياضي: مناهج البحث في السياق الرقمي: خلاف واختلاف، مجلة لباب، ماي- أيار- 2022، ص  12- 63.

[14] Martin Lister, Jon Dovey, Seth Giddings: New Media: a critical introduction Second Edition (USA, Routledge, 2009) P11-12.

[15]  Jeremy Harris, Lipschultz : Social Media Communication Concepts, Practices, Data, Law and Ethics Second Edition Taylor & Francis 2018, p26.

[16] Mahdi Loiati , le scandale de cambridge analytica ,ou comment facebook peut infuencer le résultat d’une élection ? infos juridiques n 334/335 Mars 2022.

[17]Automation” تسمى ايضا التشغيل الآلي وفي بعض الأحيان المكننة ، وهو مصطلح حديث نسبيا يغطي مجالا واسعا من التكنولوجيات التي تتطلب قدرا ضئيلا من التدخل البشري ويشمل ذلك عمليات مثل التصنيع وتكنولوجيا المعلومات،  والتسويق كما يغطي تطبيقات شخصية .

[18] شاي هيرشکوفيتش :”مستقبل الاستخبارات في عصر التقنيات الرقمية المتقدمة”، (دراسة مترجمة)، مهند ابو غوش (مترجم)،مرکز الارث المخابراتي بإسرائيل، معهد أبحاث الطرق العلمية الاستخبارية2019 ، انظر الرابط: 

https://babelwad.com/pdf/ مستقبلالاستخباراتفيعصرالتقنياتالرقميةالمتقدمة

[19] Eli Pariser, How Filter Bubbles Distort Reality: Everything You Need to Know,  Farnam Street Media ,see the link :

https://fs.blog/2017/07/filter-bubbles/, accessed on 06/08/2022.

[20] محاضرات الصادق الحمامي في الاتصال السياسي للسنة الثانية ماجستير مهني في الاتصال السياسي ، معهد الصحافة وعلوم الاخبار ، منوبة ،تونس 2021.

[21] أوسوندي أ. أوسوبا، ويليان ويلسر الرابع، مخاطر الذکاء الاصطناعي على الأمن ومستقبل العمل، منظور تحليلي: رؤي الخبراء بشأن السياسات الآنية،  مرکز Rand، 2018، https://www.rand.org/content/dam/rand/pubs/perspectives/PE200/PE237/RAND_PE237z1.arabic.pdf، متوفرة بتاريخ 17/12/2022.

[22] Will Mekemson, Political Revolution and the Blockchain: A Tale of Two Paradigm Shifts, see the link:

https://hackernoon.com/political-revolution-and-the-blockchain-18751b780f12, Oct 31st 2019.

[23] مخاطر الذکاء الاصطناعي على الأمن ومستقبل العمل، منظور تحليلي، مرجع سابق.

[24] مخاطر الذکاء الاصطناعي على الأمن ومستقبل العمل، منظور تحليلي، مرجع سابق.

[25]  société de technologie numérique et conseil en communication politique .

[26] المؤسسة الدولية للديمقراطية والانتخابات IDEA International: “مقدمة في التصويت الالكتروني اعتبارات جوهرية”، ورقة سياسية 2011، ص 6 .

https://www.idea.int/sites/default/files/publications/introducing-electronic-voting-AR.pd

[27]  Electronic Voting Machine.

[28]   Will Mekemson, Op.Cit.

[29] عن الموقع الرسمي الهيئة العليا المستقلة للانتخابات ، بتاريخ 15 مارس 2024.

[30] تقنية “Blockchain” أو سلسلة الكتل هي آلية متقدمة لقواعد البيانات تسمح بمشاركة المعلومات بشكل شفاف داخل شبكة أعمال. تخزن قاعدة بيانات سلسلة الكتل البيانات في كتل مرتبطة ببعضها في سلسلة. وتعد البيانات متسقة زمنيًا لأنه لا يمكنك حذف السلسلة.

[31]  لمزيد من التفاصيل انظر: 

Markus Spiske, I study Blockchain. It Shouldn’t be Used to Secure Our Election , see link:

https://www.fastcompany.com/90419485/i-study-blockchain-it-shouldnt-be-used-to-secure-our-elections

 , 19/10/2019, accessed on 15/04/2022.

[32] منشور جماعي :الانتخابات التشريعية والرئاسية في تونس عام 2019: الحقل السياسي والسلوك الانتخابي وحراك النخب ، المركز العربي للأبحاث والدراسات السياسية ، سلسلة دراسات التحول الديمقراطي، 2022 ، ص  114.

[33] Danny Crichton, liquid democracy uses blockchain to fix politics, and now you can vote for it.   see link :

https://techcrunch.com/2018/02/24/liquid-democracy-uses-blockchain/, 24/02/2018,accessed on 27/08/2023

[34] Tomer Afek, Blockchain, Power and Politics: How Decentralization Engenders Freedom. see link:

https://cointelegraph.com/news/blockchain-power-and-politics-how-decentralization-engenders-freedom, 30/11/2019, accessed on 27/08/2023

[35]  يعتبر الوعي خاصية أصيلة في الإنسان فإذا غاب عنه اختلت إنسانيته إذ أن الوعي هو ما يميزه عن غيره من الكائنات الحية، وهذا ما يطرح فكرة الوعي الاصطناعي للروبوت، لتوضيح الفكرة يجب القول أن الوعي مرتبط أساسا بعدد الشبكات العصبية، حيث كلما زاد عدد الشبكات العصبية بنسبة كبيرة ينتج الوعي وذلك حتى تتمكن هذه الشبكات من المحافظة على السلوكيات المعقدة، إذا الوعي هو نتيجة حتمية لأي نظام وصل إلى درجة عالية من التعقيد وبالتالي إذا ما وصلت هته الأنظمة المتقدمة للذكاء الاصطناعي لتلك الدرجة فإنها تتمتع بالوعي الاصطناعي. أنظر: د.عادل عبد النور بن عبد النور، مدخل الى علم الذكاء الاصطناعي، مدينة الملك عبد العزيز للعلوم والتقنية، المملكة العربية السعودية، 2005، ص87.  

[36]  د. همام القوصي، اشكالية الشخص المسئول عن تشغيل الروبوت، مجلة الأبحاث القانونية المعمقة، عدد 25، سنة 2018،ص77.

[37]  د/ياسر محمد اللمعي،المسؤولية الجنائية عن أعمال الذكاء الاصطناعي ما بين الواقع والمأمول، بحث مقدم الى مؤتمر الجوانب القانونية والاقتصادية للذكاء الاصطناعي وتكنولوجيا المعلومات، منعقد في 23-24 ماي 2021، بكلية الحقوق جامعة المنصورة، منشور في مجلة البحوث القانونية والاقتصادية، ص 862.

اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *


زر الذهاب إلى الأعلى
إغلاق
إغلاق