Hot eventsأخبارأخبار سريعةالذكاء الاصطناعي AIالعلوم والتكنولوجيامجتمع

هل الذكاء الاصطناعي يحمي الفئات الضعيفة أم يزيد من أضرارها؟

يشهد العالم تبنيًا متسارعًا لتقنيات الذكاء الاصطناعي (AI) في مجالات تهدف إلى منع الإساءة وحماية الفئات الضعيفة مثل الأطفال وكبار السن والطلاب. تُوعد هذه الأدوات بالكشف الفوري عن المخاطر وتنبيه السلطات، لكن هذا الوعد يثير تساؤلات عميقة حول ما إذا كنا نبني أنظمة حماية أكثر ذكاءً، أم أننا نُكرر الأخطاء والتحيزات التاريخية.

– استخدامات الذكاء الاصطناعي في الحماية
يوفر الذكاء الاصطناعي إمكانات كبيرة لتعزيز كفاءة وفعالية أنظمة الحماية الاجتماعية، ومن أبرز استخداماته:

تحليل الأنماط اللغوية: تُستخدم تقنيات معالجة اللغة الطبيعية (NLP) لاكتشاف أنماط التهديد والتلاعب في الرسائل النصية، مما يساعد في تحديد حالات العنف الأسري والتدخل المبكر.
النمذجة التنبؤية: تعتمد وكالات رعاية الأطفال على نماذج الذكاء الاصطناعي التنبؤية لحساب مؤشرات الخطر لدى الأسر، مما يساعد الأخصائيين الاجتماعيين في ترتيب أولويات الحالات عالية الخطورة.
المراقبة: تساعد كاميرات المراقبة المدعومة بالذكاء الاصطناعي في اكتشاف العنف الجسدي في مرافق الرعاية من خلال تحليل حركات الأطراف بدلاً من الوجوه أو الأصوات.
دعم القرار: تُزود هذه الأدوات العاملين في المجال الاجتماعي بتحليلات بيانات قد لا تكون واضحة بالعين المجردة، مما يساعدهم على التدخل في وقت مبكر.

– التحديات والمخاوف الأخلاقية: تكرار التحيزات والوصمة
تُدرب العديد من أدوات الذكاء الاصطناعي على تحليل البيانات التاريخية، لكن المشكلة تكمن في أن هذا التاريخ غالبًا ما يكون مليئًا بعدم المساواة والتحيز. هذا ينعكس على البشر الذين يصممون الأنظمة، مما يؤدي إلى نتائج قد تكون ضارة وغير عادلة.

تكرار التمييز المنهجي: يمكن أن تؤدي التحيزات المتأصلة في البيانات إلى تكرار أشكال التمييز المنهجية مثل العنصرية أو التمييز الطبقي. على سبيل المثال، أظهرت دراسة عام 2022 في بنسلفانيا أن نموذجًا للتنبؤ بالمخاطر كان يبلّغ عن الأطفال السود للتحقيق بنسبة تزيد على 20% مقارنة بالأطفال البيض، لو استخدم بدون إشراف بشري.
التحيز اللغوي: أساءت أنظمة معالجة اللغة الطبيعية تصنيف اللغة الإنجليزية العامية للأمريكيين من أصل أفريقي على أنها عدوانية بمعدل أعلى بكثير من اللغة الإنجليزية الأمريكية القياسية (تصل إلى 62% أكثر في سياقات معينة).
صعوبة فهم السياق: وجدت دراسة عام 2023 أن نماذج الذكاء الاصطناعي غالبًا ما تجد صعوبة في فهم السياق، مما قد يؤدي إلى تصنيف رسائل ساخرة أو فكاهية بشكل خاطئ كتهديدات خطيرة، وبالتالي تدخلات غير ضرورية.
هذه العيوب تُكرر مشكلات كبيرة في أنظمة الحماية الاجتماعية، حيث لطالما خضع الملونون لرقابة مفرطة، غالبًا بسبب سوء الفهم الثقافي أو التحيزات المتجذرة. تُظهر الدراسات أن الأسر السوداء وأسر السكان الأصليين تواجه معدلات أعلى من البلاغات والتحقيقات والفصل الأسري بشكل غير متناسب.

– المراقبة على حساب الخصوصية
حتى عندما تُقلل أنظمة الذكاء الاصطناعي الأضرار، فإنها غالبًا ما تفعل ذلك على حساب الخصوصية وتؤدي إلى تنبيهات كاذبة مرهقة:

برنامج أسترالي تجريبي: في عام 2022، ولّد نظام كاميرات ذكاء اصطناعي في دارين للرعاية أكثر من 12,000 تنبيه كاذب في عام واحد، مما أرهق الموظفين وأدى إلى إغفال حادثة حقيقية واحدة على الأقل.
أنظمة المراقبة في المدارس: تُسوّق أنظمة مثل Gaggle وGoGuardian كأدوات لسلامة الطلاب، لكنها تُشير إلى سلوكيات غير ضارة كـ”مثيرة للقلق”، مثل كتابة قصص قصيرة بعنف خفيف أو البحث عن مواضيع الصحة النفسية.
سوء تحديد السلوكيات الطبيعية: الأنظمة التي تستخدم الكاميرات والميكروفونات في الفصول الدراسية للكشف عن العدوانية غالبًا ما تُسيء تحديد السلوكيات الطبيعية، مثل الضحك أو السعال، كمؤشرات خطر.
هذه المشكلات ليست مجرد أخطاء فنية، بل انعكاس لعيوب عميقة في كيفية تدريب الذكاء الاصطناعي ونشره، حيث تتعلم هذه الأنظمة من بيانات سابقة تعكس التحيزات الاجتماعية القائمة.

– نحو إطار عمل مسؤول: مبادئ الذكاء الاصطناعي المستجيب للصدمات
ترى الدكتورة أيسلين كونراد أن الذكاء الاصطناعي يمكن أن يكون قوة للخير، ولكن فقط إذا أعطى مطوروه الأولوية لكرامة الأشخاص الذين صُممت هذه الأدوات لحمايتهم. لقد طوّرت إطار عمل يُسمى “(الذكاء الاصطناعي المستجيب للصدمات)”، ويقوم على أربعة مبادئ أساسية:

تحكم الناجين في المراقبة والبيانات: يجب أن يكون للأفراد الخاضعين للمراقبة الحق في تقرير كيفية ووقت استخدام بياناتهم.
الإشراف البشري: يجب أن تظل قرارات التدخل النهائية في أيدي متخصصين قادرين على فهم السياق وتقييم الموقف بصورة شاملة، حيث لن تحل الآلة محل الحكم المهني.
تدقيق التحيز لضمان الحيادية: يجب على الحكومات والمطورين إجراء اختبارات منتظمة لأنظمتهم للكشف عن التحيزات العرقية والاقتصادية وتقليلها باستخدام أدوات مفتوحة المصدر مثل (AI Fairness 360) و(What-If Tool) و Fairlearn.
الخصوصية حسب التصميم: يجب بناء الأنظمة منذ البداية بهدف حماية الخصوصية، ويمكن أن تساعد أدوات مثل (Amnesia) و(Differential Privacy Library) و(SmartNoise) في إخفاء هوية البيانات الحساسة أو إزالة المعلومات التعريفية.
تؤكد هذه المبادئ ضرورة بناء أنظمة تستجيب بالرعاية بدلاً من العقاب. بدأت بعض النماذج الواعدة بالظهور، وتلعب التشريعات دورًا حيويًا، مثل القانون الذي وقّعه حاكم ولاية مونتانا في 5 مايو 2025، والذي يقيد استخدام الذكاء الاصطناعي في اتخاذ القرارات الآلية بشأن الأفراد دون إشراف بشري هادف ويطالب بالشفافية.

في الختام، لن يتمكن الذكاء الاصطناعي من أن يحل محل القدرة البشرية الفريدة على التعاطف وفهم السياق. لكن إذا صُمم وطُبق وفقًا لمبادئ أخلاقية صارمة، فقد يصبح أداة تساعدنا في تقديم المزيد من الرعاية والحماية للفئات الضعيفة.

مقالات ذات صلة

أضف تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button