مقالات الرأي

الذكاء الاصطناعي وحقوق الإنسان: بين الآمال التكنولوجية والتحديات الحقوقية.

بقلم فاطمة الزهراء حنيش: طالبة باحثة بسلك الدكتوراه تخصص القانون الدستوري والعلوم السياسية…

يشهد العالم تحوّلًا غير مسبوق بفعل تطور تقنيات الذكاء الاصطناعي (AI)، حيث باتت هذه النظم الذكية جزءًا لا يتجزأ من الحياة اليومية، من الصحة والتعليم إلى الإعلام والقضاء. غير أن هذا التطور المتسارع، وإن حمل في طياته آفاقًا واعدة لتعزيز الكرامة الإنسانية، يفرض في المقابل تحديات حقوقية تستدعي وقفة تأمل وتحليل.

إن أحد أبرز تجليات هذه التحديات يتمثل في تعارض بعض تطبيقات الذكاء الاصطناعي مع المبادئ الأساسية لحقوق الإنسان، لاسيما ما يتعلق بالخصوصية، وعدم التمييز، والمساءلة. فأنظمة التعلم الآلي، على سبيل المثال، تعتمد على كميات هائلة من البيانات التي غالبًا ما تُجمع دون علم الأفراد أو موافقتهم، ما يهدد الحق في حماية المعطيات الشخصية. إلى جانب ذلك، فإن تحيّز الخوارزميات، الناتج عن انحراف البيانات المستخدمة في تدريبها، قد يُفضي إلى قرارات تمييزية تمس بمبدأ المساواة.

وإلى جانب هذه المخاطر التقنية، تبرز إشكاليات قانونية عميقة: من يتحمل المسؤولية في حال ارتكاب نظام ذكي خطأً أدى إلى ضرر جسيم؟ هل المطوّر؟ أم المستخدم؟ أم الشركة المنتجة؟ هذا التساؤل يعكس ما يُعرف بفجوة المساءلة، والتي لا تزال تفتقر إلى أطر تنظيمية دولية واضحة.

استجابة لهذه المعضلات، شهدت السنوات الأخيرة بروز اتجاهات دولية ترمي إلى تأطير استخدام الذكاء الاصطناعي ضمن مبادئ حقوق الإنسان. من بين أبرز هذه المبادرات، نذكر إعلان اليونسكو بشأن أخلاقيات الذكاء الاصطناعي (2021)، والذي يُعد أول وثيقة دولية تُجمع عليها 193 دولة، وتؤكد على ضرورة تضمين قيم الشفافية، والمسؤولية، والعدالة في كل مراحل تطوير النظم الذكية. كما شكّلت اتفاقية مجلس أوروبا (2024) نقطة تحول، بوصفها أول صك ملزم قانونًا يهدف إلى تنظيم الذكاء الاصطناعي بما يتوافق مع حقوق الإنسان، والديمقراطية، وسيادة القانون.

وفي سياق متصل، يكتسي النقاش حول الذكاء الاصطناعي وحقوق الإنسان بعدًا كونيًا، تتقاطع فيه مسؤوليات الدول، والشركات التكنولوجية، والمنظمات الدولية. فالتحديات التي يطرحها الذكاء الاصطناعي لا تعترف بالحدود الجغرافية، كما أن انعكاساته تتجاوز نطاق الدول المتقدمة لتطال الدول النامية، التي غالبًا ما تكون أقل استعدادًا تشريعيًا ومؤسساتيًا لمواجهة تداعياته. من هذا المنطلق، برزت الدعوات إلى تبني حوكمة متعددة الأطراف تتأسس على مبادئ التعاون الدولي وتشارك المعايير الأخلاقية والتقنية. وقد أكدت الجمعية العامة للأمم المتحدة، في قرارها الأول بشأن الذكاء الاصطناعي سنة 2024، على ضرورة ضمان عالمية المعايير الحقوقية المرتبطة بالتقنيات الناشئة، محذّرة في الوقت ذاته من مخاطر الفجوة الرقمية والتمييز التكنولوجي، الذي قد يعمق أوجه اللامساواة بين دول الشمال والجنوب.

أما على المستوى الوطني، فقد بدأت بعض الدول، من بينها المغرب، تتلمس طريقها نحو وضع أطر تشريعية ومؤسساتية تتماشى مع هذه التطورات، من خلال مقترحات قوانين لتقنين استخدام الذكاء الاصطناعي، وحماية البيانات، وتعزيز الشفافية في المنظومات الرقمية.

في المحصلة، يمكن القول إن العلاقة بين الذكاء الاصطناعي وحقوق الإنسان تظل علاقة مزدوجة: فهي من جهة، تُتيح فرصًا لتعزيز الحقوق وتحقيق العدالة الرقمية؛ لكنها من جهة أخرى، قد تتحول إلى أداة للانتهاك إن تُركت دون ضوابط. وعليه، فإن التحدي الحقيقي الذي يواجه المجتمع الدولي اليوم ليس في وقف التقدم التكنولوجي، بل في ضمان توجيهه وفقًا لقيم إنسانية راسخة، وفي مقدمتها صيانة كرامة الإنسان وحقوقه في العصر الرقمي.

اظهر المزيد

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى