هل يملك الذكاء الاصطناعي حس الفكاهة حقاً؟.. دراسة تجيب!

دراسة بريطانية أجرت تجارب على النماذج اللغوية الكبيرة من الذكاء الاصطناعي لمعرفة ما إذا كانت تملك حسّاً فكاهياً وقدرة على التعرّف إلى النكات واعتمدت على التلاعب اللفظي والغموض.. ماذا كانت النتيجة؟

  • الذكاء الاصطناعي لا يملك حسّاً فكاهياً والقدرة على التعرف على النكات بعد إجراء تجارب اعتمدت على التلاعب اللفظي والغموض
    الذكاء الاصطناعي لا يملك حسّاً فكاهياً وقدرة على التعرّف إلى النكات بعد إجراء تجارب اعتمدت على التلاعب اللفظي والغموض

كشفت دراسة أنّ النماذج اللغوية الكبيرة تتظاهر فقط بامتلاك "حسّ فكاهي"، حيث اختبر الباحثون قدرة الذكاء الاصطناعي على التعرّف إلى النكات التي تعتمد على التلاعب بالكلمات والغموض.

وتبين أنّ النماذج اللغوية الكبيرة، على الرغم من أنها تبدو وكأنها تدرك الفكاهة بشكل قريب من البشر، غير قادرة حتى الآن على التفكير الإبداعي وفهم المعنى بعمق.

وقدّمت دراسة جديدة، نُشرت نتائجها في "مؤتمر 2025 حول الطرق التجريبية لمعالجة اللغة الطبيعية"، فحصاً دقيقاً لهذه الجوانب من الذكاء الاصطناعي.

وكان يُعتقد سابقاً أنّ الذكاء الاصطناعي "يفهم النكات"، لكنّ مؤلفي الدراسة أشاروا إلى أنّ البيانات المستخدمة في التجارب السابقة لم تكن دقيقة بما يكفي. وللاختبار، قام الباحثون بتحسين الاختبارات القديمة وتصميم اختبارات جديدة.

اقرأ أيضاً: هل اللهجة الفظة أم المهذبة تعطي نتائج أفضل في التعامل مع ChatGPT؟

فعلى سبيل المثال، طُلب من النماذج تمييز الفرق بين التلاعب اللفظي ذي المعنى والجمل العادية مقابل التعبيرات عديمة المعنى. وعندما تمّ تغيير كلمات محورية، انخفضت دقة الإجابات بشكل حاد، وغالباً ما ارتبكت النماذج وصنّفت النكات بشكل غير صحيح، ما يدل على وجود نقاط ضعف واضحة في فهم السياق والتشابه الصوتي للكلمات.

وفي هذا السياق، قال محمد طاهر بيلوار، المؤلف المشارك من جامعة "كارديف" البريطانية: "عندما تواجه النماذج تلاعبات لفظية غير مألوفة، قد ينخفض نجاحها في التمييز بين النكات والجمل العادية إلى 20%، وهو أقل بكثير من نسبة 50% المتوقّعة عند التخمين العشوائي".

وأضاف: "كما كشفنا عن الثقة المفرطة للنماذج في افتراض أنّ النصّ مضحك حقاً، وظهر هذا بوضوح عند التعامل مع التلاعبات اللفظية غير المألوفة لها".

اقرأ أيضاً: OpenAI تطلق شخصية "غريبة اﻷطوار" في "تشات جي بي تي"..لماذا؟

اخترنا لك