الذكاء الاصطناعي وتأثيره المحتمل على الانتخابات في الولايات المتحدة وكيفية التعامل معه
كتب د وائل بدوى
حذر أداف نوتي، المدير التنفيذي لمركز الحملات القانونية في الولايات المتحدة، من أن عام 2024 سيشهد تأثيراً واسع النطاق للذكاء الاصطناعي قبل وأثناء وبعد تصويت الناخبين، بما في ذلك في إنشاء وتوزيع الرسائل العامة حول المرشحين والعمليات الانتخابية. يعمل المركز بجد لمواجهة تأثير الذكاء الاصطناعي على الديمقراطية، من خلال تثقيف الجمهور حول ما يمكن توقعه في الحملات السياسية المقبلة وتوصية المشرعين بحلول سياسية للتخفيف من أكبر المخاطر على نظامنا الانتخابي.
أبرز المركز خطر الإعلانات السياسية التي تستخدم تقنيات الذكاء الاصطناعي لإنتاج محتوى زائف واقعي بشكل مخادع – مثل “الديبفيكس”، وهي وسائط معدلة تصور الأشخاص وهم يقولون أو يفعلون أشياء لم يقوموا بها، أو أحداث لم تحدث بالفعل – لتضليل الجمهور حول ما يدعيه المرشحون، ومواقفهم من القضايا، وحتى ما إذا كانت بعض الأحداث قد وقعت فعلاً.
بالإضافة إلى تأثيره على تصورات الناخبين للمرشحين، يمكن استخدام الذكاء الاصطناعي للتلاعب في إدارة الانتخابات، بما في ذلك نشر المعلومات المضللة لقمع الإقبال على التصويت. يمكن للجهات الفاعلة السيئة استخدام أدوات الذكاء الاصطناعي لإنشاء وتوزيع رسائل كاذبة مقنعة حول مكان أو موعد الإدلاء بالصوت، أو لثني الناخبين عن الذهاب إلى مواقع الاقتراع في المقام الأول.
على سبيل المثال، قبل الانتخابات التمهيدية في نيو هامبشاير لعام 2024 بوقت قصير، قام روبوكول تم إنشاؤه بواسطة الذكاء الاصطناعي بمحاكاة صوت الرئيس بايدن وحث الناخبين على عدم المشاركة في تلك الانتخابات، مما يوحي خطأً بأن على الناخبين “حفظ” أصواتهم للانتخابات العامة في نوفمبر 2024.
إن الخطر الحقيقي يكمن في أن الذكاء الاصطناعي قد يُستخدم لتفاقم استهداف المعلومات المضللة بشكل غير متناسب للناخبين السود والبنيين، الذين يواجهون بالفعل العديد من العقبات أمام المشاركة المتساوية في العملية الديمقراطية. كما أن الذكاء الاصطناعي يخلق فرصًا جديدة للجهات الفاعلة السيئة لتقويض إدارة الانتخابات أو بث الشكوك غير المبررة حول نتائج الانتخابات. يمكن استخدام تقنيات الذكاء الاصطناعي بسهولة لتصنيع صور مزيفة وأدلة زائفة عن سوء السلوك، مثل التلاعب بالأصوات أو تمزيقها، مما لا يؤدي فقط إلى تقويض الثقة العامة في نتائج الانتخابات، بل قد يؤدي أيضًا إلى تأجيج التهديدات العامة بالعنف ضد المسؤولين عن الانتخابات.
في السنوات الأخيرة، واجه العاملون في الانتخابات غير الحزبيين مستويات غير مسبوقة من التهديدات و المضايقات أثناء محاولتهم ضمان سير العملية الديمقراطية بسلاسة وعدل. يمكن لتقنية الذكاء الاصطناعي أن تجعل وضعهم أسوأ.
حتى بعد الانتهاء من جميع عمليات التصويت، يمكن استخدام الذكاء الاصطناعي لتزوير تسجيل صوتي لمرشح يدعي أنه رتب النتائج، أو لإنتاج معلومات مضللة أخرى قد تقنع أنصار الحملات الخاسرة بتعطيل إجراءات فرز الأصوات والتصديق عليها، والتي أصبحت مسيسة بشكل متزايد وكانت أساسًا للجهود الرامية إلى تخريب الانتخابات الرئاسية لعام 2020. وقد تم بالفعل استخدام وسائط مزيفة مصنعة بواسطة الذكاء الاصطناعي للتأثير على الانتخابات الكبرى في الأرجنتين وسلوفاكيا.
لنكن واضحين، مخاطر التلاعب بالانتخابات وقمع الناخبين ونشر المعلومات المضللة سبقت جميعًا وصول أدوات الإعلام القائمة على الذكاء الاصطناعي. ولكن من دون شك، يوفر الذكاء الاصطناعي للجهات السيئة سهولة الوصول إلى أدوات جديدة لإلحاق الضرر بديمقراطيتنا بشكل أسهل وأكثر فعالية، مما يزيد من إلحاح الاستجابة القوية.
لقد بدأت العديد من الولايات في اتخاذ إجراءات، من خلال تمرير واقتراح تشريعات تتراوح من إشعارات إلزامية تُعلم الناخبين عند استخدام الذكاء الاصطناعي في الانتخابات، إلى تشريعات تحظر الديبفيكس السياسي. على المستوى الفيدرالي، تم تقديم تشريعات ثنائية الأطراف في الكونغرس من شأنها أن تحظر توزيع المحتوى المُنتَج بالذكاء الاصطناعي المُضلل للتأثير على الانتخابات أو لجمع التبرعات.
كما تفكر الوكالات الفيدرالية في ما يمكنها القيام به لحماية ديمقراطيتنا في عصر الذكاء الاصطناعي، مع بعض الاقتراحات التي قد تمتد إلى ما وراء الانتخابات ولكنها تساعد على مواجهة المخاطر الخاصة التي يواجهها الناخبون. على سبيل المثال، ردًا على روبوكول المزيف الذي تم إنشاؤه بواسطة وبوكول المزيف الذي تم إنشاؤه بواسطة الذكاء الاصطناعي في نيو هامبشاير، أصدرت لجنة الاتصالات الفيدرالية (FCC) قرارًا بحظر بعض أنواع الروبوكولات التي تحتوي على أصوات تم توليدها بواسطة الذكاء الاصطناعي.
أخيرًا، تجري جهود تعليمية جديدة لإعداد الجمهور ببساطة للتعامل مع وسائط الذكاء الاصطناعي التي يُمكن استخدامها للتأثير على الانتخابات وربما التلاعب بها، والتي من شأنها أن تساعد على التخفيف من أسوأ تأثيراتها. في الواقع، تعهدت عشرون شركة تقنية كبرى، بما في ذلك Google وMeta (الشركة الأم لـ Facebook و Instagram)، OpenAI، X (المعروفة سابقًا بـ Twitter)، وTikTok، مؤخرًا باتخاذ خطوات ملموسة للكشف عن استخدام الديبفيكس وجهود التدخل في الانتخابات ومكافحتها. وبالطبع، يجب عليهم الوفاء بتلك الوعود.
على الرغم من أنه من المشجع رؤية اهتمام واسع النطاق بمنع التلاعب القائم على الذكاء الاصطناعي في الانتخابات، فإن العديد من الحلول المقترحة لا تزال بعيدة عن توفير حماية ملموسة للناخبين والعملية الانتخابية. لهذا السبب، يواصل مركز الحملات القانونية حث صانعي السياسات في جميع أنحاء البلاد على مضاعفة جهودهم واتخاذ إجراءات قوية لمواجهة التحديات الفريدة التي يخلقها الذكاء الاصطناعي للديمقراطيه.
تعليق الكاتب –
تكشف هذه المقالة عن التحديات العميقة والمعقدة التي يطرحها الذكاء الاصطناعي على نزاهة العمليات الانتخابية، وتظهر كيف أن التقنيات الجديدة قد تكون سيفًا ذو حدين. من ناحية، توفر الأدوات التكنولوجية الحديثة فرصًا للتأثير الإيجابي وتحسين الوعي العام والتفاعل في العمليات الديمقراطية؛ ومن ناحية أخرى، تُظهر الخطر الكبير الذي يمكن أن تُشكله هذه الأدوات عند استخدامها لنشر المعلومات المضللة والتلاعب بالرأي العام.
أبرزت المقالة الدور الحاسم الذي يمكن أن تلعبه التدابير القانونية والتنظيمية في مواجهة هذه التحديات. ومع ذلك، يبقى السؤال الملح حول مدى كفاءة هذه التدابير وقدرتها على مواكبة التطورات التكنولوجية المتسارعة. هناك حاجة ماسة للتفكير في حلول مبتكرة تتجاوز الإطار التقليدي للقانون والسياسة لضمان حماية ديمقراطيتنا من التهديدات الناجمة عن سوء استخدام الذكاء الاصطناعي.
على الرغم من التقدم الملحوظ الذي تم إحرازه في بعض الدول من خلال تشريعات معينة، يظل هناك ضرورة لمزيد من العمل المتعمق لتقييم التأثير الفعلي لهذه القوانين على الأرض. هذا يعني الحاجة إلى رصد وتقييم مستمرين لفعالية القوانين والسياسات لتكون قادرة على التكيف مع التغييرات التكنولوجية السريعة والديناميكية.
كما يجب النظر بجدية في الدور الذي يمكن أن تلعبه المبادرات التعليمية والتوعوية لرفع مستوى الفهم العام لكيفية تأثير الذكاء الاصطناعي على العملية الانتخابية ومناعة الناخبين ضد التأثيرات المضللة.