هل الذكاء الاصطناعي مخيف إلى هذا الحد ؟

منذ الإعلان عن التقرير المثير للجدل الصادر عن جامعة تكساس، الذي يحذر من احتمال انقراض البشرية بحلول عام 2027 نتيجة لتطورات الذكاء الاصطناعي، تصاعد الجدل العالمي بين تيارين متناقضين: تيار يبالغ في التهويل ويرى في هذه التكنولوجيا مقدمة لكارثة وجودية، وتيار آخر يسعى للتقليل من شأن المخاطر والترويج لصورة وردية بلا تحفظ. لكن الحقيقة، كما تكشفها قراءة متأنية، تكمن في منطقة وسطى أكثر تعقيدًا. فالذكاء الاصطناعي، شأنه شأن أي أداة صنعها الإنسان، ليس خيرًا مطلقًا ولا شرًا مطلقًا، بل هو انعكاس مباشر للمنظومات القيمية والسياسية والاقتصادية التي تحتضنه وتوجهه. إن السؤال الحقيقي ليس: هل يمكن للذكاء الاصطناعي أن يقضي على البشرية؟ بل: كيف ستتعامل البشرية – سياسيًا، اقتصاديًا، وأخلاقيًا – مع هذه القوة الجديدة؟

كاتب و أستاذ باحث – المعهد العالي للإعلام والاتصال. الرباط
في هذا السياق، يمكننا تحديد خمسة ملامح أساسية تحوّل النقاش من نبوءة رعب إلى تحذير واقعي :
. أولًا، غياب الرقابة الديمقراطية الفاعلة على الشركات التكنولوجية العملاقة التي تملك زمام التطوير، حيث تتحرك هذه الكيانات بمنطق السوق والربح، لا بمنطق الصالح العام، وهو ما يجعلها في موقع سلطة غير خاضعة للمحاسبة الشعبية أو المؤسسية؛
. ثانيًا، التوظيف العسكري المتسارع للذكاء الاصطناعي، كما نراه في استخدام الطائرات المسيّرة القتالية والبرمجيات ذاتية القرار في النزاعات الحديثة، مما يمنح “الآلة” صلاحيات قاتلة كانت حكرًا على القرار البشري؛
. ثالثًا، تفاقم خطر التضليل الإعلامي عبر تقنيات التزييف العميق (Deepfake) والخوارزميات التي توجه الرأي العام في منصات التواصل، وهو ما يهدد أسس الديمقراطية وحرية الفكر؛
. رابعًا، اتساع الهوة الرقمية بين الشمال والجنوب، حيث يُعاد إنتاج شكل جديد من الاستعمار التكنولوجي يجعل الدول النامية مجرد مستهلكة للتقنيات دون امتلاك القدرة على إنتاجها أو التحكم في معاييرها الأخلاقية؛
. خامسًا، الإشكالية القيمية المتجسدة في تحيز البيانات، إذ إن الخوارزميات تتغذى على معلومات مشحونة بانحيازات تاريخية وجندرية وثقافية، فتكررها وتكرسها دون وعي. كل هذه الملامح تجعل النقاش حول خطورة الذكاء الاصطناعي أمرًا مشروعًا وضروريًا، بعيدًا عن ثنائية الخوف أو الإنكار.
و الآن لندافع عن فكرة في غاية الأهمية : الذكاء الاصطناعي لا يولد خطرًا بذاته، فهو لا يمتلك نوايا ولا طموحات، لكنه يصبح خطرًا عندما يُسخَّر في سياقات تفتقر إلى الضوابط الأخلاقية والرقابية. و في الحقيقة، يبقى مصدر التهديد الحقيقي هو الإنسان، حين يترك القرارات المصيرية في يد خوارزميات مبنية على مصالح ضيقة أو رؤى تجارية بحتة. و إن أخطر ما يمكن أن يحدث هو أن نُسلم مقاليد مستقبلنا لخبراء التقنية وحدهم، بينما يتم إقصاء الفلاسفة، وعلماء الاجتماع، وصناع السياسات، والمواطنين من دوائر القرار. فالتاريخ يعلمنا أن أي تكنولوجيا فائقة القوة – من البارود إلى الطاقة النووية – يمكن أن تتحول إما إلى أداة تحرر أو أداة دمار، حسب من يتحكم بها.
على سبيل المثال، إذا نظرنا إلى الاستخدامات العسكرية، سنجد أن الذكاء الاصطناعي قادر على تحديد الأهداف، اتخاذ قرارات الإطلاق، وتقدير الخسائر في ثوانٍ معدودة، وهو ما يختصر دور الإنسان إلى مجرد مشاهد أو مصادق. وفي ميدان الإعلام، يمكن لخوارزميات المنصات الكبرى مثل فيسبوك أو تيك توك أن تعيد تشكيل قناعات الملايين في أيام قليلة، ليس عبر الإقناع العقلاني، بل عبر استغلال الانفعالات البشرية وتحيزات الانتباه. أما على مستوى العلاقات الدولية، فإن احتكار الدول الكبرى لتقنيات الذكاء الاصطناعي يخلق ميزان قوة جديدًا، حيث تتحول البيانات والمعرفة التقنية إلى أدوات هيمنة جيوسياسية. و لعل هذه الصورة تجعل من الواضح أن “الخطر” ليس في الكود البرمجي ذاته، بل في البنية السلطوية التي تحتضنه، وفي غياب رؤية إنسانية قادرة على توجيهه نحو الخير العام. من هنا، يصبح النقاش حول الذكاء الاصطناعي نقاشًا حول العدالة، والمساواة، والسيادة الرقمية، أكثر مما هو نقاش حول التكنولوجيا نفسها. ولعل أخطر ما قد يحدث في العقود القادمة هو أن نفقد السيطرة الأخلاقية على هذه التكنولوجيا الكاسحة.
و رغم كل ما سبق، فإن الانغماس في خطاب الرعب وحده قد يكون بنفس خطورة الإنكار؛ فهو يشل القدرة على الفعل ويغذي ثقافة الاستسلام. والحقيقة أن الذكاء الاصطناعي، إذا أُحسن توجيهه، يمكن أن يكون حليفًا استراتيجيًا للبشرية. فالمجال الطبي، على سبيل المثال، يشهد ثورة غير مسبوقة بفضل هذه التقنيات، من التشخيص المبكر للأمراض النادرة إلى تصميم أدوية مخصصة لكل مريض. وفي التعليم، يمكن للذكاء الاصطناعي أن يوسع فرص الوصول إلى المعرفة، ويقدم محتوى تعليميًا مخصصًا للمتعلم وفقًا لسرعته واهتماماته، مما قد يسهم في تقليص الفوارق التعليمية. كما يمكن أن يلعب دورًا حاسمًا في مواجهة التغير المناخي، عبر تحسين كفاءة استهلاك الطاقة، ورصد الانبعاثات، وتصميم حلول مستدامة.
لكن كل هذه الإمكانات تبقى مشروطة بإطار عمل يضع الإنسان في مركز المعادلة. و بالتالي، فإن المطلوب اليوم هو بناء “عقد اجتماعي رقمي” جديد، يضمن أن تكون قرارات تطوير ونشر الذكاء الاصطناعي خاضعة لمعايير الشفافية والمساءلة، وأن تُدار هذه الثورة التكنولوجية بروح تشاركية تشمل الأكاديميين، والمجتمع المدني، والمواطنين العاديين، لا أن تُترك حكرًا على الشركات العملاقة أو الدول القوية. وهذا العقد يجب أن يستند إلى قيم العدالة، والكرامة، والمساواة، بحيث لا تكون الخوارزميات أداة لتعميق الانقسامات، بل وسيلة لبناء جسور جديدة بين البشر.
و ختاما فإن مستقبل البشرية مع الذكاء الاصطناعي لن يُرسم في مختبرات وادي السيليكون وحدها، بل في القوانين التي سنقرها، و في مناهج التعليم التي سنصوغها، وفي القيم التي سنختار أن نغرسها في الأجيال القادمة. و إذا أدركنا ذلك، فإن الحديث عن “انقراض البشرية” سيتحول من نبوءة سوداوية إلى دافع لبناء مستقبل تشاركي، حيث تتعايش الآلة والإنسان في توازن عجيب يحفظ الوجود البشري ويعزز الإبداع.



