كيف يُشكل الذكاء الاصطناعي تهديداً حقيقياً للديمقراطية في العالم؟

صحيفة "فايننشل تايمز" تتحدث عن التهديدات التي تواجهها الديمقراطية في العالم نتيجة المعلومات المضللة التي ينتجها الذكاء الاصطناعي، ذاكرةً أمثلة على ذلك من أرض الواقع.

  • "الديمقراطية في العالم أمام تهديدات حقيقية نتيجة الذكاء الاصطناعي"

تحت عنوان: "الديمقراطية في العالم أمام تهديدات حقيقية نتيجة المعلومات المضلّلة التي ينتجها الذكاء الاصطناعي"، تناولت هانّا ميرفي في صحيفة "فايننشل تايمز" التأثير السلبي للذكاء الاصطناعي في الديمقراطية في العالم. 

وجاء في المقال:

الخبراء يتخوفون من أن يكون عام 2024 العام الذي يكون فيه لعمليات التزييف العميقة وغير القابلة للاكتشاف تأثير كارثي في الانتخابات.

قبل يومين من الانتخابات السلوفاكية في أيلول/سبتمبر، انتشر تسجيل غامض في وسائل التواصل الاجتماعي بصوت مرشح المعارضة الليبرالية ميشال سيميتشكا، وهو يتآمر مع أحد الصحافيين لشراء الأصوات والتلاعب بالنتائج.

وممّا يُفترض أنّه جاء على لسان سيميتشكا في التسجيل الصوتي، فإنّ ذلك "سيتم بطريقة لا يمكن لأحد أن يتهمّك فيها بتلقي رشىً"، وفقاً لنص المحادثة الذي جرى تداوله في ذلك الوقت، بينما يجيب الصحافي قائلاً: "كن حذراً، فهناك كثير من الناس حولك، لا تستخدم أيّ كلمة بذيئة".

ثم جاءت المفاجأة: التسجيل مزيف. لقد تبيّن أنّه حيلة متطورة أُنشئت بواسطة الذكاء الاصطناعي، بحسب مدققي الحقائق، الذين استشهدوا بمؤشرات مثل الإلقاء غير الطبيعي والتوقفات غير المعتادة. ومع ذلك، تمت مشاركة التسجيل الصوتي من جانب آلاف الناخبين خلال فترة الصمت الإعلامي الذي فرضته البلاد خلال تغطية الانتخابات، الأمر الذي جعل من الصعب على حلفاء سيميتشكا أو وسائل الإعلام دحض الاتهامات الموجّهة إليه، كونها مزيفة.

وندد سيميتشكا، الذي كان تصدّر استطلاعات الرأي في البلاد بالتسجيل، ووصفه بأنّه "حماقة كبيرة وواضحة". وأصدرت الشرطة السلوفاكية تحذيراً للناخبين بضرورة توخي الحذر عبر الإنترنت من الجهات الفاعلة والخبيثة وذات "المصالح الخاصة"، إلّا أنّ سيميتشكا خسر الانتخابات لمصلحة منافسه الشعبوي الموالي لروسيا، روبرت فيكو.

ولا يزال المذنبون مجهولين حتى اليوم. ومن المستحيل قياس التأثير الدقيق لهذا الاختراق في نتائج الانتخابات، لكن الحادثة أنذرت بفجر جديد لحرب المعلومات، وشكلت تحدياً كبيراً لمنصات التواصل الاجتماعي في وادي السيليكون قبل عام تاريخي من الانتخابات، إذ من المتوقع أن يتوجه ما يقدر بنحو ملياري شخص، أو نحو نصف السكان البالغين في العالم، إلى صناديق الاقتراع في عام 2024، بما في ذلك في الولايات المتحدة والاتحاد الأوروبي والهند والمملكة المتحدة.

طوال أعوام كثيرة، شكّلت المعلومات المضللة عبر الإنترنت عاملاً مهماً في الانتخابات، لكن التطورات السريعة الأخيرة، والتي شهدتها تكنولوجيا الذكاء الاصطناعي، تشير إلى أنّ التعامل مع وسائل الإعلام بات أرخص وأسهل من أي وقت مضى، بفضل سوق جديدة نشطة من الأدوات القوية مثل "تشات جي بي تي" و"الأوبن إي آي" و"ميدجورني" وغيرها من أدوات إنشاء النصوص والتسجيلات والفيديو. وفي الوقت عينه، أصبح من الصعب على نحو متزايد اكتشاف الوسائط المُتلاعَب بها، أو المركَّبة.

وبالفعل، باتت عمليات التزييف العميق تشكل جبهة جديدة في مشهد التضليل بشأن الصراعات الدائرة بين "إسرائيل" وحماس من جهة، وروسيا وأوكرانيا من جهة أخرى. وهي حالياً على وشك تعكير صفو العمليات الانتخابية، التي سبق أن تم تشويهها نتيجة تضاؤل ​​ثقة الجمهور بالحكومات والمؤسسات والديمقراطية، إلى جانب النزعة الليبرالية الكاسحة والاستقطاب السياسي.

ويقول هنري أجدر، الخبير في الذكاء الاصطناعي وعمليات التزييف العميق ومستشار شركات أدوبي وميتا وإي واي: "لقد وصلت التقنيات إلى هذه الثلاثية المثالية من الواقعية والكفاءة وإمكان الوصول. لقد بقيت المخاوف بشأن التأثير الانتخابي أمراً مبالَغاً فيه حتى هذا العام، ثم حدثت الأمور بسرعة، بصورة غير متوقَّعة".

ولم تتأخر السلطات في إصدار تحذيرات، فلقد أثارت، في تشرين الثاني/نوفمبر، مكاتب الاتصالات الحكومية البريطانية احتمال إنشاء "حسابات مزيفة شديدة الواقعية بواسطة الذكاء الاصطناعي"، وحملات تزييف عميقة متقدمة بصورة متزايدة قبل الانتخابات في المملكة المتحدة. واقترحت مجموعة من أعضاء مجلس الشيوخ الأميركي من الحزبين مؤخراً تشريعاً يحظر استخدام "الإعلانات السياسية المخادعة التي ينتجها الذكاء الاصطناعي" في الدعاية السياسية.

وتواجه منصات وسائل التواصل الاجتماعي، بما في ذلك "ميتا"، ومنصة "يوتيوب" التابعة لشركة "غوغل"، و"تيك توك" و"أكس"، اليوم، ضغوطاً لإدخال حواجز حماية بشأن التزييف العميق، وكبح الجهات الفاعلة الخبيثة، والتأكد من اتخاذها قرارات الاعتدال الصحيحة عندما يتعلق الأمر بوسائل الإعلام الغامضة للغاية، مع البقاء في الوقت نفسه غير منحازة.

ويحذّر الخبراء من أنّ كثيراً من هذه المنصات يُظهر استعداداً للقيام بهذه الخطوة أقل مما كانت عليه الحال في الانتخابات الكبيرة السابقة. لقد قلص بعضها، بما في ذلك شركة "ميتا"، استثماراتها في الفِرَق المخصصة للحفاظ على انتخابات آمنة بعد تراجع قيمة أسهم التكنولوجيا في أوائل عام 2023. وفي حالة منصة "أكس"، التي يملكها إيلون ماسك، تم تقليص موارد الإشراف على المحتوى بصورة كبيرة، بعد تعهده استعادة ما يطلِق عليه حرية التعبير المطلقة.

بالإضافة إلى ذلك، أصبحت جهود مجموعات التكنولوجيا، التي تتخذ الولايات المتحدة مقراً لها، للاستثمار في التحقق من الحقائق ومعالجة المعلومات الخاطئة، مُسيَّسة، إذ يتهمها الساسة الأميركيون اليمينيون بالتواطؤ مع الحكومة والأكاديميين لفرض رقابة على الآراء المحافظة.

ويحذّر الكثير من خبراء التضليل والأكاديميين اليساريين من أنّ هذه الدينامية تجبر المنصات والجامعات والوكالات الحكومية على الانسحاب من مبادرات نزاهة الانتخابات والتعاون على مستوى العالم خوفاً من تعرضها للعقوبات. وقالت شركة "ميتا"، في كانون الأول/ديسمبر، إن الحكومة الأميركية أوقفت تبادل المعلومات مع المنصة، على الرغم من أن مثل هذا التعاون ساعد الشركة في السابق على تحديد "مصادر التهديد المتطورة".

ويحذر الكثيرون من أنّ هذا المزيج السام من أدوات الذكاء الاصطناعي الأكثر تطوراً، وتدابير الوقاية الأقل قوة، يعني أنّ ما يصفه الخبراء بسيناريو يوم القيامة، المتعلق بالمعلومات المضلِّلة، وأن التزييف العميق المنتشر، والذي لا يمكن اكتشافه، سيكون لهما تأثير كارثي في العملية الديمقراطية، ولم يعودا مجرد نظرية.

في هذا السياق، يقول رئيس أحد مراكز الأبحاث الرقمية غير الهادفة للربح: "أعتقد أنّ الجمع بين الفوضى، التي ستحدثها أدوات الذكاء الاصطناعي التوليدية، وبين عيوب البرامج التي وضعتها المنصات لضمان نزاهة الانتخابات، هو الكارثة التي تتكشف أمام أعيننا. أنا قلق للغاية من أن تكون الضحية هي الديمقراطية نفسها". 

تجدر الإشارة إلى أنه تم طرح فكرة حروب التضليل عبر الإنترنت أمام الرأي العام في أعقاب فوز دونالد ترامب في الانتخابات الرئاسية الأميركية عام 2016.

ووفقاً لمعهد أكسفورد للإنترنت، فإنّه بحلول عام 2020، انتشرت حملات التضليل في وسائل التواصل الاجتماعي في أكثر من 80 دولة، ونظمتها بصورة مغايرة الأحزاب السياسية، أو العلاقات العامة الغامضة، أو مجموعات استخبارات القطاع الخاص، أو الحكومات نفسها. وبدأ البعض تجربة تقنيات التزييف العميق البدائية، وخصوصاً التصاميم الرقمية للوجوه الوهمية.

ورداً على ذلك، وضعت شركتا "غوغل" و"ميتا" ومنصتا "تيك توك" و"أكس" قواعد تحظر عمليات التأثير السرية المنسقة والمعلومات الخاطئة بشأن عملية التصويت وقمع الناخبين. وحظرت شركة "غوغل" الوسائط المتلاعَب بها والمرتبطة بالسياسة والقضايا الاجتماعية، بينما حظرت شركة "ميتا" المحتوى الذي تم التلاعب به، والذي تم تصميمه من أجل التضليل، وسمحت لمدققي الحقائق التابعين لها بالإبلاغ بشأن ما إذا تم "تغيير" الوسائط، وهو ما جعلها أقل بروزاً في عملية بث المستخدمين.

إلا أنّ ظهور الذكاء الاصطناعي التوليدي، وهو عبارة عن نماذج قوية متعددة الوسائط يمكنها مزج النصوص والصور والصوت والفيديو، أدى إلى حدوث تحول جذري في إمكانات عمليات التزييف العميق، وهو ما جعل القدرة على إنشاء وسائط مقنعة على نطاق واسع في متناول أي شخص تقريباً.

فعلى سبيل المثال، تسمح الشركات الناشئة، والتي تعمل في مجال إنشاء مقاطع الفيديو، مثل هايجين ومقرها لوس أنجلوس، وسينثيزيا ومقرها لندن، والتي تلبي مجموعة واسعة من القطاعات، بما في ذلك الأفلام والإعلانات، للعملاء بإنشاء مقاطع فيديو أمام صور رمزية للذكاء الاصطناعي في مقابل ما يزيد قليلاً على 20 دولاراً شهرياً، في سوق سريع النمو بلغت قيمته بالفعل نحو نصف مليار دولار في عام 2022. كما يمكن استخدام التقنية نفسها لإنشاء مقالات إخبارية مدعومة بالذكاء الاصطناعي، أو إطلاق مواقع إخبارية، أو أتمتة جيوش من الروبوتات، أو حتى إنشاء روبوتات دردشة نصية لإثارة ميول سياسية معينة لدى المستخدم في نهاية المطاف.

وفي معرض تعليقه على هذا الأمر، قال براين ليستون، وهو محلّل استخبارات في مجموعة "ريكوردد فيوتشر" السيبرانية: "كان عام 2023 بمثابة تمهيد لما سنشهده هذا العام عندما نتحدث عن الوسائط التي تم التلاعب بها، وعمليات التأثير التي تعمل عبر الذكاء الاصطناعي... سواء كانت من عمل الجهات الفاعلة الفردية، أو ربما منظمات الدول القومية". 

وتتباين دوافع الحملات، بحيث يتم تصميم بعضها للتأثير في الرأي أو تشويه سمعة المرشحين. ويسعى آخرون لتقويض الثقة بالديمقراطية كجزء من أهداف جيوسياسية أوسع وأكثر استراتيجية. ثم هناك أولئك الذين يحاولون فقط تحقيق التفاعل والربح عبر النقرات الإعلانية، على سبيل المثال.

كذلك، نجد تأثيرات ثانوية لهذه الحملات، مثل استخدام بعض الساسة، أمثال ترامب، مفهوم "الأخبار المزيفة" سلاحاً من خلال تحويل المصطلحات إلى روايات لا يتفقون معها، كما يمكن استخدام الوعي العام المتزايد في عمليات التزييف العميق لتشويه الحقائق وإنكار الواقع.

وبالفعل، يُعَد ادعاء أن شيئاً ما هو مجرد تزييف عميق تكتيكاً تستخدمه الفرق القانونية للدفاع عن عملائها. ففي العام الماضي، أشار محامو إيلون ماسك إلى أنّ مقطع فيديو في موقع "يوتيوب" لرائد الأعمال الملياردير، يتحدث فيه عن قدرات شركة "تسلا" في القيادة الذاتية، قد يكون مزيَّفاً، كجزء من دعوى قضائية بشأن وفاة رجل يستخدم النظام. وقال القاضي إنّ هذا الفيديو لا يشكل سبباً لدحض الأدلة، واصفاً الحجة بأنها "مقلقة للغاية".

وفي المجال السياسي، بات لدى المرشحين حالياً "القدرة على استبعاد مقطع صوتي أو فيديو خبيث"، وفق بريت شيفر، خبير الدعاية في التحالف من أجل تأمين الديمقراطية، وهو جزء من صندوق مارشال الألماني لتمويل البحوث. وتم توضيح هذا المفهوم، المعروف باسم "مكسب الكاذب"، لأول مرة في ورقة بحثية أكاديمية عام 2018، تقول إنّ "التزييف العميق يجعل من السهل على الكذابين تجنب المساءلة عن الأشياء التي هي في الواقع صحيحة".

علاوة على ذلك، تُظهر الأبحاث أنّ مجرد وجود التزييف العميق يؤدي إلى تعميق عدم الثقة بكل شيء عبر الإنترنت، حتى لو كان حقيقياً. وفي هذا الصدد، يقول شيفر إنهّ في السياسة "يوجد ميزة استبدادية لمهاجمة فكرة وجود شيء اسمه الحقيقة الموضوعية".

"يمكنك أن تجعل الناس يصدقون أن ’التصويت غير مهم، فالجميع يكذب علينا. إذ تتم دراسة كل ذلك ولا يمكننا التحكم في النتائج‘. وهذا يؤدي بالتالي إلى انخفاض كبير في المشاركة المدنية". 

بناءً عليه، تحاول شركات التواصل الاجتماعي إنشاء حواجز حماية لهذا النوع الجديد من النشاط.

وأعلنت شركتا "ميتا" و"غوغل" مؤخراً سياسات تتطلب من الحملات الكشف عما إذا كانت إعلاناتها السياسية تم تعديلها رقمياً. ويشترط "تيك توك" أن يتم الكشف بوضوح عن الوسائط المركَّبة، أو التي تم التلاعب بها، والتي تعرض مشاهد واقعية يجب الكشف عنها بوضوح من خلال ملصق أو علامة أو تسمية توضيحية. فهو يحظر استخدام الوسائط المركَّبة التي تضر بشخصيات خاصة حقيقية أو شخصية عامة، إذا تم استخدامها للتأييد، ويَعُدّها عمليه احتيال.

وفي الوقت نفسه، تقول منصة "أكس" إنها ستقوم إما بتصنيف، وإما بإزالة الوسائط الخادعة التي تم التلاعب بها، بحيث تسبب الضرر، بما في ذلك التسبب بحدوث ارتباك في الاستقرار السياسي.

إلّا أنّ منع هذا النوع من الوسائط من النشر والمشاركة أصبح أكثر صعوبة، حتى بالنسبة إلى شركات مثل "تيك توك" و"ميتا"، اللتين استثمرتا في قدرات الكشف عالية الجودة.

وتُعَدّ السرعة والاستجابة في الوقت الفعلي أمراً ضرورياً. ففي حال كانت الثقة بصحة الأخبار المنتشرة متزعزعة، وكانت المنصات بطيئة في الاستجابة، فإنّ هذا يترك فراغاً معرفياً خطيراً، كما يقول أجدر، "لتدخل الجهات الفاعلة سيئة النية ووسائل الإعلام الأقل دقة، وخصوصاً وسائل الإعلام المتحيزة، من أجل ملء هذا الفراغ مع الإثبات".

وبينما انصب تركيز الباحثين الأكاديميين وفرق الإشراف في السابق على اكتشاف التناقضات في الوجوه التي يولدها الذكاء الاصطناعي، بحسب ما تقول رينيه ديريستا، مديرة الأبحاث في جامعة ستانفورد، فلقد بدأوا حالياً من الصفر عبر استخدام كثير من أحدث تقنيات الذكاء الاصطناعي التوليدية. وتُضيف أنّ "تقنيات الكشف عن الوجوه المزيفة غير مرتبطة بأحدث إبداعات نماذج البث". 

في الأمثلة السابقة عن عمليات التزييف التي تم القيام بها، كانت ملامح الوجه "تُصف داخل شبكة"، بحسب ديريستا، وكان من السهل اكتشاف المفارقات. أمّا اليوم، فيمكن للتزييف العميق للبشر أن يتخذ أي وضعية، ويتحرك بشكل طبيعي على ما يبدو. وتابعت أن "هناك دينامية عدائية متواصلة، بحيث تتطور التكنولوجيا قبل تطور تقنيات الكشف عنها. إنها "معضلة مراوحة المكان"، فنحن نركض بأقصى سرعتنا في المكان نفسه". 

ويتفق الخبراء في أنّ أدوات الكشف الحالية ليست دقيقة بصورة عامة، على نحو يكفي لتكون بمثابة ضمانة موثوق بها ونهائية. ووفقاً لليستون، فإنّ "التباين في النسبة المئوية للكشف عن التزييف موجود في كل مكان، وهناك تناقضات بشأنه". 

بالإضافة إلى ذلك، يجب أن تواصل المنصات ضبط السياسات بشأن كيفية التعامل مع تلك التزييفات العميقة في حال تم اكتشافها. "فهل يتم القضاء على هذه التزييفات؟ وهل يتم تصنيفها؟ وهل يتم الحد من الوصول إليها؟" تتساءل كايتي هارباث، مسؤولة الشؤون العالمية في شركة دوكو إكسبرتس، ومديرة السياسة العامة السابقة في شركة "ميتا". 

وتشير كايتي إلى أن المنصات ستحتاج إلى فوارق دقيقة في سياساتها للتمييز بين الاستخدامات الحميدة المتعددة للذكاء الاصطناعي، مثل الحملة التي ترغب في استخدامها لإنشاء خلفية معينة لإعلان ما، والاستخدامات الخبيثة له.

وبعيداً عن عمليات الكشف، يستكشف عدد من المنصات كيفية استخدام العلامات المائية أو المؤشرات الأخرى لتعيين توقيع موثوق به للمحتوى قبل نشره. وتقدم كل من "غوغل" و"ميتا" علامة مائية غير مرئية للمحتوى، الذي تم إنشاؤه، بواسطة أدوات الذكاء الاصطناعي الخاصة بهما. 

لكن المشككين يشيرون إلى أن هذا عمل قيد التنفيذ ولن يكون حلاً فعالاً إلا إذا تم تكييفه على نطاق واسع وبصورة مستمرة. وتحدث نيك كليغ، رئيس الشؤون العالمية في  شركة "ميتا"، علناً، عن الحاجة إلى معايير مشتركة في القطاع، بينما صرّحت شركة "تيك توك" بأنّها كانت تقوم بتقويم الخيارات المتاحة من أجل تشكيل تحالف لتحديد مصادر المحتوى.

وبحسب خبراء التضليل، فإنّ حملات التضليل حولت انتباهها نحو الشركات التي تتخذ نهجاً أخف تجاه الاعتدال، وعلى وجه الخصوص "تلغرام" و"إكس"، المكان الذي "ظهرت فيه حالياً الكثير من عمليات التزييف، لأن [المذنبين] يدركون أنّ المنصات القديمة تستثمر المصادر في هذا الأمر"، كما تشير هارباث.

وصرّحت منصة "إكس" بأنّها " مجهزة جيداً للتعامل" مع الوسائط المركبة والمتلاعب بها، وأشارت إلى برنامجها التطوعي لتدقيق الحقائق، المسمى كوميونيتي نوتس. وقالت منصة "تلغرام" إنها تتعاون مع وكالات التحقق من الحقائق لإضافة تصنيفات إلى المحتوى المضلل المحتمل والمعلومات الدقيقة عبر قنواتها، مضيفة أنها تعتقد أن الطريقة الأكثر فعالية لمكافحة المعلومات الخاطئة هي "نشر المعلومات التي تم التحقق منها".

وحتى داخل المنصات الأكبر حجماً، يمكن أن تكون الموارد المخصصة لمعالجة المعلومات المضلِّلة ونزاهة الانتخابات محدودة للغاية، أو تكون ذات أولوية أقل في مناطق جغرافية معينة. وكان هذا أحد الانتقادات المركزية، التي وجهتها المخبرة فرانسيس هاوجين إلى شركة "ميتا"، في تشرين الأول/أكتوبر 2021. وسربت هاوجين وثائق داخلية إلى وسائل الإعلام، تُظهر أن البلدان غير الناطقة باللغة الإنكليزية تمتلك أعداداً منخفضة من المشرفين، على سبيل المثال.

ويحذر أجدر من "أنّ نظامك جيد بقدر قدرتك على تنفيذه. فعندما لا تتوافر طريقة مجدية يمكن للمنصات من خلالها اكتشاف المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي بصورة موثوق بها، على نطاق واسع، وعندما يتوافر كثير من المحتوى الجيد، الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، يجب أن نتساءل عما إذا كانت هذه السياسات ستُحدث فارقاً كبيراً في أرض الواقع."

يبقى أن مجموعة من المنصات تواصل تحدّيها. وصرّحت شركة "ميتا"، في تقريرها الصادر في تشرين الثاني/نوفمبر، بأنّ "مجتمع المدافعين عن عمليات التزييف في مجتمعنا يحتاج إلى الاستعداد لتلقي حجم أكبر من المحتوى المركَّب"، لكنها أضافت أنها لا تعتقد أن ذلك "سيقوض جهود قطاعنا المبذولة لمواجهة عمليات التأثير الخفية".

بالنسبة إلى البعض، هناك بصيص أمل مغاير يتمثل بأنّ أزمة الصدقية ستشهد نهايتها، مع عودة الناخبين إلى المؤسسات القديمة عبر منصات وسائل التواصل الاجتماعي للحصول على المعلومات التي يحتاجون إليها. ويقول شيفر إنّه "في حال كنت متفائلاً في هذا الوضع، ففي غضون خمسة أعوام، آمل أن يعود الناس إلى اعتماد وسائل الإعلام المؤتمنة والنزيهة والموثوق بها". 

أمّا بالنسبة إلى البعض الآخر، فيبدو المستقبل قاتماً، في حال لم نتمكن من تصديق ما تراه أعيننا وتُسمعنا إياه آذاننا. ولن يؤخذ أي أمر على محمل الجد، إذ سيتم طرح تساؤلات عن كل شيء، وستكون الديمقراطية أكثر ضعفاً.

يقول نيكولا مولر، وهو عالم أبحاث في مجال التعلم الآلي في معهد "عالم أبحاث التعلم الآلي" في فراونهوفر آيزك، إن "التكنولوجيا موجودة لتبقى، وستصبح جيدة جداً. ربما لن تتمكن أنت من الوثوق بالوسائط مثل الصوت أو الفيديو فحسب. وهذا الأمر يتطلب نقلة نوعية في عقولنا. وربما علينا فقط أن نتعايش معها، كما فعلنا مع جائحة كوفيد".

نقله إلى العربية: زينب منعم