أكاديمي يقترح 3 خطوات تشريعية للحفاظ على القيمة العليا للانتخابات في عصر الذكاء الاصطناعي

9

بغداد / شبكة أخبار الانتخابات العراقية 

كتب الأكاديمي حسين المولى الحاصل على شهادة الدكتوراة في القانون الجنائي، مقالاً حول تأثير الذكاء الاصطناعي على نزاهة الانتخابات، مقترحاً فيه 3 من الخطوات التشريعية الممهدة للحفاظ على القيمة العليا للانتخابات والعمل السياسي، تتمثل بتشريع قانون حماية البيانات الشخصية، بما يمنع استخدام بيانات الناخبين دون موافقتهم، وإلزام الأحزاب السياسية بالإفصاح عن أي استخدام للذكاء الاصطناعي في الحملات الانتخابية، فضلاً عن إنشاء هيئات رقابية أو أقسام متخصصة داخل المفوضية لمتابعة النزاهة الرقمية للانتخابات.

نص المقال: 

الانتخابات في عصر الذكاء الاصطناعي: نزاهة رقمية أم وهم ديمقراطي؟
د. حسين المولى
لم يعد الذكاء الاصطناعي اليوم مجرد أداة أو تقنية محصورة في المختبرات أو الشركات التقنية، بل تسلل إلى عمق العملية السياسية ليصبح اللاعب الخفي، خاصة في تشكيل الرأي العام وصناعة القرار، إن ما يُعرف اليوم بـ «الذكاء الاصطناعي السياسي» يمثل واحدًا من أخطر وأعمق التحولات في علاقة التقنية بالسلطة أو التوجه السياسي، إذ تتقاطع فيه البيانات مع النفوذ، والخوارزميات مع الديمقراطية، لتفتح الباب أمام تساؤلات جوهرية: هل سيعزز الذكاء الاصطناعي مستقبلًا سياسيًا أكثر شفافية وكفاءة؟ أم أنه سيخلق نوعًا جديدًا من الديكتاتورية الرقمية؟
يقصد بالذكاء الاصطناعي السياسي استخدام تقنيات الذكاء الاصطناعي، مثل تحليل البيانات الضخمة، والتعلم الآلي، ومعالجة اللغة الطبيعية، في مجالات السياسة والحكم، ويتراوح ذلك من فهم اتجاهات الرأي العام، مرورًا بالتنبؤ بنتائج الانتخابات، وصولًا إلى صياغة سياسات عامة مبنية على البيانات بدلًا من الحدس السياسي.
يمثل الذكاء الاصطناعي اليوم في مجال تحليل الرأي العام أحد أبرز التطورات في هذا الحقل المتنامي بسرعة، فبفضل قدرته على معالجة ملايين التفاعلات على وسائل التواصل الاجتماعي، يستطيع قياس المزاج الشعبي بصورة أسرع وأكثر دقة من استطلاعات الرأي التقليدية، التي باتت تعاني التعقيد والتأخر في فهم السلوك الاجتماعي.
كما أن أدوات الذكاء الاصطناعي في مجال التنبؤ السياسي توفر بيانات دقيقة حول احتمالات نجاح السياسات أو فشلها، مما يعزز عقلانية القرار السياسي، ويُعد ذلك من أبرز التحديات الإيجابية لفهم سلوك صانع القرار واستناده إلى كمٍّ هائل من البيانات التي يتدرب عليها الذكاء الاصطناعي وصولًا إلى القرار الأكثر عقلانية وملاءمة، سواء في الوضع السياسي العراقي أو غيره.
وتستخدم الحملات الانتخابية أدوات الذكاء الاصطناعي لتوجيه إعلانات سياسية مصممة خصيصًا لكل فرد بناءً على اهتماماته وسلوكياته الرقمية عبر المنصات الأكثر استخدامًا، ومن جانب آخر، يمكن لهذه الأدوات المساهمة في كشف الأخبار الكاذبة والدعاية المضللة، إذ يرصد الذكاء الاصطناعي المحتوى الزائف بسرعة، مما يساعد على حماية الناخبين من التضليل.

لكن بالمقابل، يمكن استغلال تقنيات الذكاء الاصطناعي لإنتاج محتوى زائف يصعب كشفه، مثل تقنيات الـ Deepfake، وهذا ما حذرت منه المفوضية العليا المستقلة للانتخابات في العراق، مؤكدة يوم الثلاثاء الموافق 26/8/2025 أن استخدام المرشحين للذكاء الاصطناعي بصورة سلبية مؤثرة في الآخرين يُعد مخالفة تصل إلى مستوى الجريمة الانتخابية، وأوضحت أن التحقيق في مثل هذه الجرائم يتطلب الاستعانة بخبراء فنيين لبيان ما إذا كان المحتوى حقيقيًا أم صُنع باستخدام الذكاء الاصطناعي.
إن التلاعب بالرأي العام عبر الخوارزميات قد يحوِّل الديمقراطية إلى “إدارة للرغبات” بدلًا من التعبير الحر، وهو ما يُخالف كل المبادئ والقيم الانتخابية التي يجب أن يلتزم بها أي مرشح أو كيان سياسي.
ومن هنا يمكن اقتراح عدد من الخطوات التشريعية الممهدة للحفاظ على القيمة العليا للانتخابات والعمل السياسي، أبرزها:
• تشريع قانون حماية البيانات الشخصية، بما يمنع استخدام بيانات الناخبين دون موافقتهم.
• إلزام الأحزاب السياسية بالإفصاح عن أي استخدام للذكاء الاصطناعي في الحملات الانتخابية.
• إنشاء هيئات رقابية أو أقسام متخصصة داخل المفوضية لمتابعة النزاهة الرقمية للانتخابات.
في النهاية، يبقى الذكاء الاصطناعي السياسي سيفًا ذا حدين: إما أن يكون أداة لتعزيز الديمقراطية أو وسيلة لترسيخ الديكتاتورية الرقمية، والفيصل بين الوجهين يكمن في وجود تشريعات واضحة وأطر أخلاقية تنظيمية صارمة تحكم استخدامه.

لايوجد تعليق

Leave a Reply