ميتا تقيد استجابات الذكاء الاصطناعي المتعلقة بالانتخابات في الهند: خطوة نحو الشفافية أم تقييد للمعلومات؟
كتب د وائل بدوى
بدأت شركة ميتا، العملاقة في مجال وسائل التواصل الاجتماعي، اختبار دردشة ذكاء اصطناعي جديدة في الهند عبر منصات واتساب وإنستغرام وماسنجر، وذلك تزامنًا مع بدء الانتخابات العامة الهندية. في هذه المرحلة التجريبية، أكدت الشركة أنها تقوم بحظر استفسارات معينة تتعلق بالانتخابات بهدف تحسين نظام استجابة الذكاء الاصطناعي لديها. وقد أشار متحدث باسم الشركة إلى أن هذه التكنولوجيا الجديدة قد لا تُعطي دومًا الردود المتوقعة، وهو ما ينطبق على جميع أنظمة الذكاء الاصطناعي التوليدية، مؤكدًا على التحديثات والتحسينات المستمرة التي تُطرح لتعزيز أداء هذه النماذج.
تأتي هذه الخطوة في إطار جهود ميتا الأوسع لضبط ما يُسمح به وما لا يُسمح به على منصاتها في فترة ما قبل الانتخابات، حيث تعهدت بحظر الإعلانات السياسية خلال الأسبوع الذي يسبق أي انتخابات في أي دولة، وهي تعمل أيضًا على تحديد وكشف الصور التي تم إنشاؤها باستخدام الذكاء الاصطناعي.
يعتمد تعامل ميتا مع استفسارات الذكاء الاصطناعي على قائمة حظر معينة؛ عندما يسأل المستخدمون عن سياسيين محددين أو مرشحين أو شاغلي مناصب ومصطلحات أخرى معينة، يُعاد توجيههم إلى موقع لجنة الانتخابات.
الشركة لا تحجب بصورة صارمة الردود على الأسئلة التي تحتوي أسماء الأحزاب فقط، لكن إذا تضمن الاستفسار أسماء المرشحين أو مصطلحات أخرى، قد يظهر الرد النمطي المذكور أعلاه. ومع ذلك، كما هو الحال مع أنظمة الذكاء الاصطناعي الأخرى، فإن نظام ميتا يعاني من بعض التناقضات. على سبيل المثال، عندما طلبت تك كرانش معلومات عن “تحالف إندي” – وهو تحالف سياسي يضم عدة أحزاب تقاوم الحزب الحاكم باراتيا جاناتا بارتي (BJP) – أجابت الدردشة بمعلومات تحتوي على اسم سياسي. ومع ذلك، عندما سُئلت عن ذلك السياسي في استفسار منفصل، لم تُقدم الدردشة أية معلومات.
هذا الأسبوع، أطلقت الشركة دردشة الذكاء الاصطناعي الجديدة المدعومة بتقنية Llama 3 في أكثر من عشر دول، بما في ذلك الولايات المتحدة، لكن الهند لم تكن ضمن القائمة. وذكرت ميتا أن الدردشة ستظل في مرحلة الاختبار بالبلاد في الوقت الحالي.
وفقًا لما ذكره المتحدث باسم الشركة لتك كرانش، “نحن نواصل التعلم من اختبارات مستخدمينا في الهند. كما نفعل مع العديد من منتجات وميزات الذكاء الاصطناعي لدينا، نختبرها علنًا في مراحل متفاوتة وبقدرات محدودة”. حاليًا، لا تقوم ميتا بحظر استفسارات تتعلق بالانتخابات للمصطلحات المتعلقة بالولايات المتحدة مثل “أخبرني عن جو بايدن”. وقد سألنا ميتا إذا كانت الشركة تخطط لتقييد استفسارات الذكاء الاصطناعي خلال الانتخابات الأمريكية أو في أسواق أخرى، وسنقوم بتحديث القصة إذا تلقينا أي رد.
هذه الخطوات تعكس الحرص المتزايد من الشركات التكنولوجية الكبرى على تقنين استخدام خدمات الذكاء الاصطناعي التوليدية في فترات الانتخابات، في محاولة لمنع الاستخدام غير القانوني وغير المرغوب فيه الذي قد يؤثر على العملية الديمقراطية بتقديم معلومات مضللة أو غير صحيحة للمستخدمين.
ويبقى التحدي الذي تواجهه هذه الشركات هو التوفيق بين تعزيز الابتكارات في مجال الذكاء الاصطناعي وضمان عدم استغلال هذه التقنيات بطرق قد تُضر بالنظام الديمقراطي. يبرز هذا التحدي بوضوح في الهند، حيث يتطلع الناخبون والمراقبون إلى كيفية تأثير الذكاء الاصطناعي على الانتخابات، خاصة بعد تجارب سابقة أظهرت انتشار معلومات مضللة خلال فترات انتخابية مهمة.
تحاول ميتا وغيرها من الشركات الكبرى تحسين طرق تعاملها مع المعلومات السياسية بشكل خاص خلال هذه الفترات الحرجة، وذلك بالاعتماد على تقنيات التعلم الآلي المتطورة ولكن مع وضع ضوابط صارمة لمنع الإساءة. وتشمل هذه الضوابط، مثلاً، تصنيف المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي وتوفير شفافية أكبر حول الإعلانات والمحتوى المدعوم من الذكاء الاصطناعي.
بالإضافة إلى ذلك، تعمل ميتا على توسيع نطاق تجاربها واختباراتها لتشمل مزيدًا من البلدان والمناطق، مع الحرص على جمع البيانات والملاحظات من المستخدمين بشكل يساعدها على تحديد الثغرات والتحديات التي قد تواجه تقنيات الذكاء الاصطناعي. وتأمل الشركة أن تساهم هذه الجهود في تحسين الأنظمة وتقديم تجربة استخدام أفضل وأكثر أمانًا، وذلك في إطار الالتزام بحماية النظام الديمقراطي وضمان نزاهة الانتخابات.
بينما تستمر هذه الاختبارات والتطويرات، تظل العيون مفتوحة على كيفية تأثير هذه التكنولوجيا في السياسة والانتخابات في الهند وحول العالم، حيث يمكن أن تلعب دورًا حاسمًا في تشكيل مستقبل الحوار العام والعملية الانتخابية.