بين الأخلاق والتقنية: كيف تعيد إيطاليا تعريف العلاقة بين الإنسان والآلة؟

إيطاليا تعتمد أول قانون وطني شامل للذكاء الاصطناعي في الاتحاد الأوروبي، واضعةً قواعد صارمة تحمي الخصوصية والقاصرين وتواجه "الديب فيك"، في خطوةٍ تؤسس لعصرٍ جديد من التوازن بين الابتكار والمسؤولية الأخلاقية.

  • إيطاليا تصبح أول دولة في الاتحاد الأوروبي تُقرّ قانوناً لتنظيم الذكاء الاصطناعي
    إيطاليا تصبح أول دولة في الاتحاد الأوروبي تُقرّ قانوناً لتنظيم الذكاء الاصطناعي

شهدت إيطاليا في منتصف أيلول لحظة مفصلية تُسجّل في تاريخ التقنية، في العلاقات بين الإنسان والآلة، في الحقوق والواجبات الرقمية: حكومة جورجيا ميلوني أقرّت أول قانون وطني شامل للذكاء الاصطناعي في الاتحاد الأوروبي، ينسجم مع التزامات القانون الأوروبي (AI Act)، لكنه يضيف طبقات حماية صارمة، خصوصاً ضد الاستخدام الضار للذكاء الاصطناعي، مثل "الديب فيك"، ويضع قواعد للمسؤولية في مواقع العمل، ويمنح حماية إضافية للقاصرين.

ويمثل القانون الذي أقرّه البرلمان الإيطالي بعد نقاش استمر سنة، مجموعة تدابير تقنية من ناحية مباشرة، لكنه يتّسع إلى خريطة أخلاقية أكثر شمولاً في معناه الأكبر، خريطة توازن بين الابتكار من جهة، والحقوق الإنسانية، الخصوصية، الأمان النفسي والاجتماعي من جهة أخرى. 

أبرز مضامين القانون

يشمل القانون الجديد الذي يحقق هدفاً تشريعياً وتنظيمياً تسعى الدول عبر العالم إلى تحقيقه، بنوداً كثيرة تحاول استشراف تفاعلات الذكاء الاصطناعي مع نشاط الدولة والمجتمع، وهو يأتي في مرحلةٍ مبكرة نسبياً من تطور عالم الذكاء الاصطناعي، الذي تظل التوقعات بشأنه عرضةً للغموض وانعدام اليقين. ومن أبرز البنود التي يطالها هذا القانون:

- جرائم الذكاء الاصطناعي ومكافحة "التزييف العميق-الديب فيك" الضار.

- نشر المحتوى المُنتَج أو المُحرَّف بالذكاء الاصطناعي، إذا تسبّب بالضرر، جريمة يُعاقب عليها القانون الإيطالي بالسجن من سنة إلى خمس سنوات.

- إذا استُخدم الذكاء الاصطناعي في جرائم مثل الاحتيال، انتحال الهوية، سرقة البيانات أو التزوير، تُطبّق عقوبات أشدّ.

- منع القاصرين دون سن 14 عاماً من الوصول إلى خدمات الذكاء الاصطناعي إلا إذا كان هناك موافقةُ الأبوين أو الوصيّ القانوني.

- في المسائل المتعلقة بالمكان العمل والقطاعات الحسّاسة، يُطلب من أصحاب العمل إنذار العاملين عندما تُستخدم أنظمة الذكاء الاصطناعي التي قد تؤثر في شروط العمل أو حقوق العمل.

- تخضع قطاعات مثل الصحة، العدالة، التعليم، الرياضة والإدارة العامة، لقواعد صارمة تشمل الشفافية، الرقابة البشرية على القرارات المصنوعة جزئياً أو كلياً بالذكاء الاصطناعي، وضرورة إعلام الأشخاص المتأثرين بالقرارات التي يتخذها النظام.

- في الخصوصية، الحقوق الفكرية، والبحث العلمي، تُحمى الحقوق الفكرية في الأعمال التي تُنشأ بمساعدة الذكاء الاصطناعي فقط إذا كان هناك "جهد فكري إنساني" حقيقي واضح فيها. أي أن الذكاء الاصطناعي وحده لا يكفي للحصول على حق ملكية فكرية.

- تحليل البيانات أو التنقيب عن النصوص والبيانات (text and data mining) باستخدام الذكاء الاصطناعي يُسمَح به فقط للمواد غير المحمية بحقوق الطبع أو من قبل مؤسسات بحثية مرخّصة.

- وفي المؤسسات الرقابية والتنفيذ والعقوبات، تمّ تكليف هيئتين مركزيتين للإشراف والتنفيذ: وكالة إيطاليا الرقمية (Agency for Digital Italy) والوكالة الوطنية للأمن السيبراني. كما تحتفظ أجهزة تنظيم القطاع المالي والأسواق مثل البنك المركزي الإيطالي، بدورها حيث ينطبق.

- تخصيص مليار يورو لدعم الشركات العاملة في الذكاء الاصطناعي، الأمن السيبراني، والاتصالات، كمساهمة من الدولة لتعزيز الابتكار تحت لواء المسؤولية القانونية والتنظيمية.

سياق الاتحاد الأوروبي: قانون الذكاء الاصطناعي (AI Act)

وكان قانون الذكاء الاصطناعي الأوروبي قد دخل تدريجاً حيز التنفيذ منذ آب/أغسطس 2024، بعد موافقة البرلمان الأوروبي والمجلس الأوروبي. وهو القانون الأوروبي يُعدّ إطاراً تنظيميّاً موحّداً يُقسّم أنظمة الذكاء الاصطناعي بحسب درجة المخاطر، ويُلزم المطوّرين والمستخدمين باتّباع معايير شفافية، أمان، حماية للبيانات، ومراقبة بشرية، وكذلك قيود فيما يتعلق بالأنظمة عالية المخاطر.

وبهذا القانون الجديد والشامل، تكون إيطاليا قد فعّلت التزامات الاتحاد الأوروبي على مستوى الدولة، وأضافت ضوابطٍ توقّعية أعمق في بعض الجوانب مثل العقوبات الجنائية والوصول للأطفال والمراقبة في أماكن العمل.

ومن وجهة نظر اجتماعية، يغيّر هذا القانون التشريع، ويشير إلى تحوّل بنيوي في كيفية فهم المجتمع للعلاقة بين الإنسان والتكنولوجيا، وبين الحقوق والواجبات الرقمية. 

ويمكن أن يبدو أثر هذا التطور عميقاً في المستقبل، من خلال إعادة تعريف المسؤولية والذنب الرقمي. فالقانون يُحمّل أفعالاً كانت تُعتبر في فئة "التحذير الأخلاقي" إلى فئة "المسؤولية القانونية"، خصوصاً استخدامات مثل "الديب فيك" أو إنتاج محتوى مزيّف يضرّ الأفراد. وهذا يتوقع منه أن يُفهم المجتمع أن الخطأ التقني أو السيئ النية في الإنترنت يمكن أن يُترجَم إلى تداعيات مادية وقانونية، مما يعنّف وعي الأفراد والمؤسسات بأن يكونوا أكثر حذراً، مُراعين للشفافية والأثر الاجتماعي لما ينشرونه.

أما في مسألة حماية القاصرين وإعادة بناء البيئة النموذجية للتربية، فإنّ منح حماية خاصة للأطفال تحت 14 عاماً هو مؤشر على إدراك الدولة للمخاطر النفسية، التعليمية، الأخلاقية وأنماط الاستغلال المحتملة عبر الذكاء الاصطناعي. وهذا يعني أن البيئة الاجتماعية للأجيال الناشئة تكتسب فرصاً أكبر بأن تبنى على أساس احترام لخصوصية الطفل، ووعي مُسبق بالوسائط التي يتفاعل معها. المدارس، الأسر، الإعلام الرقمي، سيُطلب منها أن تكون أكثر شفافية ومسؤولية.

محاولة تحقيق التوازن بين الابتكار والأخلاق

خلف هذا القانون تقف نية المشرّع، الذي بطبيعة الحال لا يرغب بوقف التقدم في لحظة شديدة التنافسية على المستوى العالمي، وتعاني فيها أوروبا خصوصاً بشدة في محاولتها الحفاظ على فرصها في الأسواق الداخلية والخارجية، بل يرغب بأن يُوجّهه: يشجّع الابتكار، يوفّر تمويلاً، لكنه يُصرّ على أن "النمو" لا يكون على حساب الحقوق، الخصوصية، الأمان النفسي، الاستقامة القانونية. وهذا التوازن سيُحدث ضغطاً على الشركات، الباحثين، المطورين، ليجعلوا التصميم الأخلاقي جزءاً من المنهج، وليس فقط تكميل بعد الإنتاج.

ومن هذا المنطلق، تعبر رغبة المشرعين عن تنزيه تطور القواعد القانونية عن اعتقال الأفراد بقوانين غير مرئية أو انضغاط تضيفه التكنولوجيا من دون موافقتهم أو وعيهم. الآن، الدولة تُقيّد، تُراقب، تُحاسب. والمؤسسات، من شركات التكنولوجيا إلى أماكن العمل، عليها أن تُبلّغ الموظفين عند استخدام  الذكاء الاصطناعي، وأن توفر إشرافاً بشرياً، وأن توثّق القرارات. وهذا يُعطي للفرد حق المطالبة، للمجتمع المدني دوراً رقابياً أكبر، وللنقاش العام موقعاً رئيسياً.

ثقافة قانونية جديدة

مع هذا التطور، يحاول المشرعون الإيطاليون توجيه رسالة قوية تقول إن تطور التكنولوجيا يجب أن يتوازى مع الأخلاق وصحة المجتمع، وأنه لا يجب أن يكون ملاذاً غير خاضعٍ للمحاسبة لمن ينتج أو ينشر عبر الذكاء الاصطناعي. وهذا يُسهم في بناء ثقافة قانونية جديدة، حيث أنّ الأفعال الرقمية تُحتسب، والشفافية تصبح معياراً يُنتظر، والخصوصية حقٌ وليس ترفاً.

ولا يمكن تحليل هذا التغيير بدون أن نقرّ بنقاط الاحتكاك، بمدى التحديات التي ربما تعترض التنفيذ، وبالأثر الذي يمكن أن يكون مزدوجاً، إيجابياً وسلبياً. فالقوانين القوية تحتاج إلى مؤسسات قوية؛ وهذا يطرح السؤال حول ما إذا كانت وكالات الرقابة قادرة على المراقبة اليومية، التحقيق في الشكاوى، التعامل مع المحتوى الرقمي السريع الانتشار، وما إذا كان نظام العدالة الجنائية هو الآخر مستعدّ للتعامل مع قضايا ذهنية.

لكن الأمر ليس سهلاً بالنسبة لشركات التكنولوجيا، خصوصاً تلك الناشئة، والمؤسسات الصغيرة، التي ربما تشعر بالضغوط الكبيرة في تلبية متطلبات الشفافية، التوثيق، الرقابة البشرية، ونظام الموافقة للقاصرين. وهذا قد يُبطئ الابتكار أو يُرفع تكلفة الخدمات، خصوصاً في المجالات التي تعتمد بشدة على الذكاء الاصطناعي كمكوّن أساسي.

ثم إن القانون وحده ليس كافياً، إذ يجب أن يترافق بنشر ثقافي، تعليم، توعية حول حقوق الأفراد الرقمية، المفاهيم مثل "الخصوصية، الموافقة، التزييف العميق، والهوية الرقمية. والتي من دون وعي عام، قد تُستغَل بعض الثغرات القانونية، أو يُضلّ التفسير، أو يختفي التنفيذ الفعلي على الأرض.

وهناك دائماً مخاطرة أن يُستخدم القانون ذريعة لمنع التجربة والابتكار، أو لتقييد حرية التعبير أو إيقاف البحث، خصوصاً في المجالات التي يكون فيها التزييف العميق جزءاً من الفن، أو السخرية، أو النقد السياسي. حيث ينبغي أن توازن الدولة بين حماية الحقوق وبين السماح بالمجال للتعبير الفني أو الحرّ.

ويعطي القانون الدولة مزيداً من السلطة الرقابية على محتوى الذكاء الاصطناعي، الاستخدامات، المؤسسات التقنية، وربما حتى المنصات الرقمية والشركات العابرة للحدود. الأمر الذي قد يؤدي إلى توترات حول سلطة الرقابة، السيادة الرقمية، الحريات الفردية، خصوصاً إذا ما طُبِّق بصورة غير شفافة أو بها تحيّز.

المجتمع عند مفترق طرق

وإذا افترضنا أن القانون يُنفَّذ بكفاءة، ومع التزام واضح من الدولة، من القطاع الخاص، ومن المجتمع المدني، فيمكن تصوّر ما قد تبدو عليه بنية المجتمع الإيطالي والأوروبي بعد عقدٍ أو أكثر:

- تحوّل الحقوق الرقمية إلى جزءٍ من الحقوق الأساسية، إلى جانب الحق في التعليم، الصحة، والكرامة. وهكذا ستكون الحقوق، مثل الحق في عدم التعرض للتزييف العميق، الحق في الهوية الرقمية الآمنة، الحق في خصوصية القاصر، قد أصبحت جزءاً من الثقافة القانونية والمطالب الاجتماعية.

- تبلور مفهوم المواطنة الرقمية، أي أن الفرد لا يُقاس فقط بمواطنيته على الأرض، بل بوجوده الرقمي، ما ينشره، ما يُنتجه، ما يُتحكم به في حساباته الرقمية. وسيكون هناك توقع من المواطن أن يكون مطّلعاً ومُطالِباً، وهكذا تصبح المسؤولية الرقمية جزءاً من الكرامة الاجتماعية.

- تحوّل في مهنة المحتوى الرقمي والإعلام: الإعلاميون، المبدعون، صانعو المحتوى سيعملون ضمن إطار قانونيٍّ واضح. المهارات المتعلقة بمكافحة المعلومات المضللة، إنتاج المحتوى الشفاف، إثبات التوثيق، ستكون مطلوبة. وقد تنشأ مهن متخصصة في التحقق الرقمي، التزوير العميق، وغيرها من التخصصات التي اليوم ما تزال في مراحل ناشئة.

- أجيال جديدة تنمو ضمن بيئة أكثر انتباهاً أخلاقياً وتقنياً. الأطفال والمراهقون الذين يكبرون في بيئة تُحترم فيها خصوصياتهم، تُقيّد فيها التجاوزات الرقمية، سيصبحون مواطنين رقميين أكثر وعياً، مع توقعات أعلى من الشفافية والأمان.

- تأثير إيجابي في الثقة العامة بالمؤسسات. فإذا تمّ التنفيذ بنزاهة، قد يعيد القانون الشامل بناء الثقة بين المواطن والمؤسسات الرقمية والحكومية. حيث إنّ الكثير من النفور من التكنولوجيا يحدث بسبب التجاوزات، الاستغلال، والتزييف؛ مواجهة هذه المشكلات قانونياً يمكن أن تُخفّف من الخوف، والشك، والعزلة التي يشعر بها البعض في العصر الرقمي.

ومن هذه المنطلقات، يمكن القول إن قانون الذكاء الاصطناعي الإيطالي الشامل هو بمثابة إعلان مشروع لبناء مجتمع يُعاد فيه رسم الخط الفاصل بين الهامش والأخلاق الرقمية، بين الحرية والمسؤولية، بين الابتكار والصياغة القانونية المغلقة. إنه دعوة لأن يكون الذكاء الاصطناعي أداة تمكين تخدم الإنسان، لا أداة إخضاع وتتبع.

وفي خلاصة الأمر، تكون إيطاليا مع هذا القانون قد خطت خطوةً تنتظرها الكثير من الدول، وفي وقتٍ مبكرٍ نسبياً، نظراً للجهود التي تبذلها دول العالم للتعامل مع هذا الاختراق الكبير الذي يعتبر محطةً فاصلة بين زمنين. لكن، وكأي جهد قانوني، تبقى العبرة والمحك في التنفيذ، الذي سيحدد ما إذا كان هذا الإطار التشريعي كافياً للاستجابة لعالمٍ جديدٍ نشأ، وليس لتطورٍ في قلب عالمٍ نعرفه. الأمر ليس أقل من ذلك. 

اخترنا لك