أطباء يحذّرون: النصائح الطبية على منصات التواصل وهمية ومزيفة!

أطباء مشهورون وموثوقون باتوا ضحايا على منصات التواصل بسبب استخدامهم من قبل الذكاء الاصطناعي التوليدي للترويج لعلاجات ونصائح مزيفة لمستخدمي المنصات.. والمشكلة أنّ مقاطع الفيديو تعاود الظهور بعد الحذف!

  • ما هي نصيحة الأطباء لمستخدمي منصات التواصل عن العلاجات عبر الذكاء الاصطناعي؟
    أطباء ينصحون المستخدمين لمنصات التواصل بعدم التخلّي عن أدويتهم واستخدام العلاجات المزيفة عبر الذكاء الاصطناعي!

تنتشر عبر منصات التواصل الاجتماعي إعلانات مضللة تستخدم صور أطباء معروفين ويحظون بالاحترام تمّ إنشاؤها بواسطة الذكاء الاصطناعي التوليدي، تروّج لعلاجات "معجزة" لمرض السكري أو ارتفاع ضغط الدم، وهي ظاهرة يرى خبراء أنّ "من الصعب لجمها".

يَعدُ هؤلاء "الأطباء المزيّفون" عبر موقعي "فيسبوك" و"إنستغرام" مثلاً، بعلاج لمرض السكري من دون تناول "الميتفورمين" الذي عادة ما يوصف لهذه الحالات. حتى أنهم يشجّعون المرضى على التخلّي عن دوائهم الذي يدّعون أنه "سيقتلهم"، وفق نصيحتهم، واعتماد "شراب طبيعي" غامض بدلاً منه.

فقد عرّضت عمليات الاحتيال هذه حياة مرضى كثر للخطر، وتزداد خطورتها لأنها تستند إلى صور أطباء مشهورين، مثل الدكتور ميشال سيم في فرنسا أو الدكتور مايكل موسلي في المملكة المتحدة، وهما من ضحايا ظاهرة "التزييف العميق" عبر الإنترنت.

يقول الطبيب العام البريطاني، جون كورماك، الذي يتعاون مع مجلة "بريتيش ميديكال جورنال" (BMJ) بشأن هذا الموضوع، في حديث إلى وكالة (فرانس برس)،  إن "الناس يثقون بهذه الفيديوهات لأنّ هؤلاء الأطباء أمضوا وقتاً في بناء صدقيّتهم، لذا نصدّقهم حتى عندما يقدّمون ادعاءات غريبة جداً".

وفي السياق، يقول المتخصص في الذكاء الاصطناعي، هنري أدجير، إنّ عمليات "التزييف العميق" هذه "بدأت فعلياً خلال السنة الحالية"، مشيراً إلى أنّ" الإعلانات تستهدف بشكل أساسي جمهوراّ كبيراً في السن نوعاً ما"، من خلال "تشويه صورة الأطباء الذي يظهرون كثيراً على التلفزيون".

وأكّد الطبيب، ميشيل سيم، الذي أصبح ضحية الذكاء الاصطناعي على منصات التواصل، أنه رفع دعوى على شركة "ميتا" بشأن "عمليات الاحتيال".

البريطاني هيلاري جونز (الذي يظهر في مقاطع فيديو مُبتكرة بواسطة الذكاء الاصطناعي وهو يبيع دواء مزيّفاً لارتفاع ضغط الدم بالإضافة إلى علكة من القنّب)، عيّن خبيراً لرصد أي إعلانات مماثلة.

ويقول جونز عبر "بريتيش ميديكال جورنال": "حتى عندما تُحذف مقاطع الفيديو هذه، تعاود الظهور في اليوم التالي تحت عناوين أخرى".

تقدّم التكنولوجيا ونظرية المؤامرة

اكتسبت عمليات الاحتيال بـ"التزييف العميق" زخماً كبيراً بسبب التقدم في التعلّم العميق بالتكنولوجيا، والتي تهدف إلى تمكين الآلة من التعلّم بنفسها، وفق ما  يقول فريديريك جوري، وهو مدرس وباحث في علوم الكمبيوتر لدى جامعة "كاين".

ويشير جوري إلى أنّ "جودة عمليات التزييف العميق" في الصور والمقاطع الصوتية والفيديوهات تقدّمت بشكل كبير، مضيفاً أنه "باتت مُتاحة أمامنا اليوم عشرات المليارات من الصور، ونحن قادرون على بناء خوارزميات يمكنها وضع نماذج لكل ما يمكن أن يظهر في الصور وتجديد الصور، وهو ما نطلق عليه الذكاء الاصطناعي التوليدي".

وفي المرحلة الأخيرة، وقعت شخصيات مثيرة للجدل مثل البروفيسور ديدييه راوول في فرنسا، ضحية لـ"التزييف العميق".

ويرى هنري أدجير بعد انتشار هذه الظاهرة أنّ "هؤلاء الأشخاص هم نماذج لبعض أوساط نظرية المؤامرة".

ومن بين مقاطع الفيديو المزيفة التي تستخدم، باربرا أونيل، يندرج عدد منها في إطار نظريات المؤامرة إذ تزعم أنّ "المعالجة الطبيعية ماتت"، و"هي معلومة غير صحيحة، بعد اكتشاف زيت معجزة" يُباع عبر موقع "أمازون".

وفي مواجهة عمليات "التزييف العميق" هذه، لا يبدي الخبراء تفاؤلاً كبيراً بشأن نجاح أدوات رصدها وإيقاف انتشارها، حيث يقول جوري: "إنها كلعبة القط والفأر.. من حيث المبدأ، لا يمكن أن تتحسن عمليات الرصد كثيراً، فإذا وجد أحد الأشخاص طريقة لتحسين اكتشافها، سيستخدم مَن يريد إنشاء صور مزيفة الطريقة نفسها للتحايل".

ويسلّط أحد الباحثين الضوء على "تقنيات تتيح ضمان عدم تغيير المحتوى"، كما هي الحال بالنسبة إلى الرسائل، وذلك بفضل برامج تنتج توقيعات رقمية، كالشهادات المزيفة.

اقرأ أيضاً: دور الذكاء الاصطناعي في الرعاية الصحية عن بُعد