الإنسان بعد الذكاء الاصطناعي: هل تهدد الخوارزميات تفكيرنا؟
في زمن تُختزل فيه التجربة البشرية إلى بيانات، لا يكفي أن نسأل: "كيف نستخدم الذكاء الاصطناعي؟"، بل يجب أن نتساءل: من سيبقى يفكّر حين تتكفّل الخوارزميات بكلّ شيء؟ إنها معركة خفيّة بين الإنسان كذات حرّة، والنظام كقالب للتكرار والسيطرة.
-
يجب إعادة التفكير الجذري في علاقة البشر بالتقنية والحدود التي يجب ألّا يتجاوزها الذكاء الاصطناعي (غرافيك: حوراء علي)
لقد أصبح الذكاء الاصطناعي ـ كما هو الحال مع الإنترنت قبل عقود، أحد أبرز اختراعات الإنسان الحديث، لكنه ليس مجرّد اختراع محايد أو أداة تقنية باردة.
إنه، بحسب الباحثة الأميركية شوشانا زوبوف الشهيرة، تجسيد حيّ لنظام اقتصادي جديد تُطلق عليه اسم "رأسمالية المراقبة": نظام يجمع بين تقنيات التتبّع، والتنبّؤ، والتأثير السلوكي، ويخضع بوعي أو بغير وعي،ـ لحسابات الشركات العملاقة التي لا تحكمها سوى مصالح النمو والتراكم.
لذا، حين نسأل "كيف نحقّق أقصى استفادة من الذكاء الاصطناعي؟"، فإنّ هذا السؤال لا يمكن أن يُفهم إلّا ضمن شبكة أوسع من الأسئلة الأخلاقية والسياسية والاقتصادية. فالمسألة ليست فقط في اختيار الأداة المناسبة أو اختبار دقة الإجابة، بل في إعادة التفكير الجذري في علاقة البشر بالتقنية، والحدود التي يجب ألّا تتجاوزها أدوات الذكاء الاصطناعي في اختراق خصوصيتنا، وتأطير قراراتنا، بل وربما تشكيل وعينا نفسه.
وفي هذا السياق، نطرح 4 أسئلة جوهرية، ليست فقط عملية، بل وجودية أيضاً:
السؤال الأول: هل هذه هي الأداة المناسبة، أم أنني أُعيد إنتاج وهم "الكلّ في واحد"؟
يبدو أنّ منطق السوق الرقمي يسعى إلى إقناعنا بأنّ أداة واحدة (مثل ChatGPT أو Copilot) قادرة على فعل كلّ شيء: كتابة دراسة، تصحيح أخطاء برمجية، تقديم نصائح حياتية، بل وحتى تحليل مشاعرنا.
هذا الترويج ليس مجرّد خطاب تسويقي، بل هو استراتيجية للهيمنة: حين يتعامل المستخدم مع أداة واحدة فقط، فإنّ الشركة المشغّلة تحصل على بيانات أعمق، وأطول، وأكثر تنوّعاً.
المنطق التحليلي هنا يحتّم علينا رفض هذه النزعة التوحيدية. فكما لا يمكن للطبيب أن يكون محامياً، ولا للصحافي أن يحلّ مكان المؤرخ، كذلك لا يمكن لأداة واحدة أن تكون أمينة على كلّ تفاصيل حياتنا الرقمية.
مأزق التخصّص مقابل العمومية
وربما الأهم، أنّ هذا السؤال يضعنا أمام مأزق التخصّص مقابل العمومية: أدوات الذكاء الاصطناعي المتخصصة (مثلاً تلك المخصصة للتحليل الأكاديمي أو القانوني أو الطبي) قد لا تكون مشهورة، لكنها غالباً أكثر دقة وأماناً من أدوات "الكلّ في واحد" التي تغرينا بسهولتها، لكنها قد تضللنا أو تستنزفنا من حيث لا ندري.
السؤال الثاني: هل يمكن الوثوق بإجابات الذكاء الاصطناعي، أم أننا أمام عصر جديد من "التضليل المؤتمت"؟
ما تعبّر عنه مؤلفة كتاب "في عصر الآلة الذكية باسم اقتصاد التنبؤ السلوكي"، يعكس بدقة إحدى أهم إشكاليات الذكاء الاصطناعي التوليدي: الأنظمة لا تعرف، بل "تتوقّع". هي لا تفهم المحتوى، بل تتنبّأ بما يُفترض أن يكون "الردّ التالي المناسب" بناء على الأنماط السابقة.
الذكاء الاصطناعي لا يمتلك ضميراً!
هذا يعني أننا قد نحصل على إجابات تبدو معقولة ومنطقية، لكنها في حقيقتها محض تخمين لغوي مبرمج، قد يتضمّن أخطاء قاتلة في حال استخدامها في قرارات طبية، قانونية، أو تعليمية. وقد رأينا كيف وقع طلاب في فخ "الهلوسة المعلوماتية" حين نسخوا مقاطع من الذكاء الاصطناعي تتضمّن مراجع مختلقة بالكامل.
وبما أنّ الذكاء الاصطناعي لا يمتلك ضميراً، ولا مسؤولية أخلاقية، فإنّ ثقته الظاهرية في إجاباته (والتي تظهر في نبرة "المؤكّد" التي يستخدمها) قد تكون أداة خداع معرفي ناعم، تغري المستخدمين بالركون إلى ما تقدّمه من دون تمحيص نقدي.
النتيجة؟
علينا أن نتعلّم استخدام الذكاء الاصطناعي، لا أن نُستخدم عبره. وأن نعود إلى فضيلة الشكّ، وإلى قواعد التفكير النقدي، والاطلاع على مصادر متعدّدة، لا الاكتفاء بردّ آلي مصقول لغوياً لكنه فارغ معرفياً.
السؤال الثالث: ما الذي أعطيه للآلة حين أستخدمها؟ وهل أقبل بهذا الثمن؟
في "عصر رأسمالية المراقبة"، لا يُعتبر المستخدم زبوناً، بل مصدراً للبيانات. هذا يعني أنّ كلّ معلومة نُدخلها، وكلّ سؤال نطرحه، بل حتى توقيت استخدامنا وسرعة كتابتنا، تُخزّن وتُحلّل وتُستخدم إما لتطوير النموذج أو لغايات تجارية وحتى سياسية.
وهذا لا يقتصر على البيانات "الواضحة"، بل يشمل البيانات السياقية: ما نوع الأسئلة التي تسألها؟ ما المواضيع التي تتجنّبها؟ هل تميل لطرح أسئلة شخصية؟ ما هي اللهجة التي تستخدمها؟ وهكذا.
وبينما تدّعي بعض الشركات أنها لا تحتفظ ببيانات المستخدمين، فإنّ الواقع يُظهر أنّ سياسات الخصوصية مليئة بالثغرات، وغالباً ما تُصاغ بلغة قانونية غامضة تسمح للشركات بالوصول إلى معلومات أكثر مما نعتقد.
Exactly what I have feared and warned about.
— Joshua Charles (@JoshuaTCharles) June 19, 2025
For countless millions, AI is creating an incentive structure in which thought itself is no longer desirable or “productive.”
This is a strike at the very heart of what it means to be a human being.
Can some use it well? Yes. We can… https://t.co/ZEwFNDtFTE
لذا فإنّ السؤال الحقيقي هو: هل أعي حجم ما أقدّمه؟
هل أقبل بأن أحمّل صورة لابني أو لزوجتي أو وثيقة شخصية إلى أداة قد تُستخدم لاحقاً لتغذية نموذج تسويقي، أو حتى أمني؟
إذا كانت الإجابة لا، فلا بدّ من التراجع، لأنّ الثمن قد يكون أعلى من الفائدة.
السؤال الرابع: هل أحتاج فعلاً إلى الذكاء الاصطناعي، أم أنني أهرب من مسؤولية التفكير؟
وهنا تكمن النقطة الأخلاقية الجوهرية. استخدام الذكاء الاصطناعي قد يُغنينا عن الجهد، لكنه أيضاً قد يُفقِدنا القدرة على المحاولة، وعلى التعلّم من الفشل.
التكنولوجيا، حين تتحوّل إلى بديل عن العقل، لا تصبح مجرّد أداة، بل إعاقة مغلّفة بالراحة. وقد بدأنا نشهد بالفعل ظهور جيل من الطلاب والمهنيين الذين يعتمدون كلياً على الأدوات التوليدية في الكتابة، والتفكير، والتحليل، بل وفي اتخاذ قرارات تتعلّق بحياتهم الشخصية.
لكنّ هناك بُعداً آخر لا يقلّ أهمية:
فالذكاء الاصطناعي يستهلك موارد طبيعية هائلة. التوسّع في استخدامه يستنزف الطاقة والمياه، ويُفاقم البصمة البيئية الرقمية.
فهل من المنطقي أن نستخدم نموذجاً ضخماً لمجرّد تصحيح جملة، أو كتابة تغريدة، أو اقتراح اسم لطبق جديد؟
وهل نعي أنّ هذا التوسّع غير المقيّد قد يؤدّي إلى أزمة بيئية رقمية؟
There's a dark side to OpenAI's Operator that no one is talking about:
— Heath Ahrens (@heathahrens) January 28, 2025
It doesn't just do tasks –– it learns how you think.
Cambridge researchers warn that we could lose the only thing that is truly unique to us.
Here's what's really at stake (and why we need to act now): pic.twitter.com/OVd1CsL1SJ
رسم الحدود الأخلاقية والسياسية والاقتصادية
لنُبقي التقنية في مكانها الطبيعي.. تقول زوبوف مؤسسة "برنامج التعليم التنفيذي (الملحمة): مدرسة النصف الثاني من الحياة في كلية هارفارد للأعمال": "إنّ أكبر تهديد في عصر الذكاء الاصطناعي ليس في الآلة، بل في المنظومة التي توجّهها".
هذا يعني أنّ مسؤوليتنا، كأفراد ومجتمعات، لا تكمن فقط في كيفيّة استخدام الأدوات، بل في رسم الحدود الأخلاقية والسياسية والاقتصادية التي تُبقي الإنسان في المركز، لا على الهامش.
استخدام الذكاء الاصطناعي يجب ألّا يكون فعل خضوع أو تبعيّة، بل فعل وعي ومساءلة. يجب أن نستخدم هذه الأدوات كما نستخدم العدسة أو الميكروسكوب: للمساعدة، لا للهيمنة.
لأنّ ما يجعلنا بشراً ليس امتلاكنا للأدوات، بل قدرتنا على نقدها، والسيطرة عليها، ورفض ما لا يليق بأخلاقنا وقيمنا وحياتنا وكرامتنا ووعينا.