نحو ذكاء اصطناعي أكثر إنسانية - العالم يفكر - بوابة الشروق
الثلاثاء 12 أغسطس 2025 2:05 ص القاهرة

احدث مقالات الكاتب

شارك برأيك

هل تتوقع النجاح لنظام الدوري المصري الجديد في ظل مشاركة 21 فريقًا؟

نحو ذكاء اصطناعي أكثر إنسانية

نشر فى : الإثنين 11 أغسطس 2025 - 6:45 م | آخر تحديث : الإثنين 11 أغسطس 2025 - 6:45 م

على الرغم من تعدد إيجابيات الذكاء الاصطناعى إلا أن هناك العديد من المخاوف التى لا يمكن تجاهلها لدى الحديث عن تأثيره على البشر. يأتى على رأس تلك التهديدات الترسيخ لفكرة «الانتقائية والتحيزات العنصرية»؛ فعلى سبيل المثال قد تفضل أدوات التوظيف بالذكاء الاصطناعى فئات ديموغرافية معينة، بينما تعاقب أخرى بشكل غير عادل. وبالمثل قد تؤدى خوارزميات الرعاية الصحية إلى حدوث نقص فى التشخيص والخدمات الصحية المقدمة لبعض الفئات من المرضى.

 


فى السياق ذاته، تفيد العديد من الدراسات أنه مع استمرار التطور المتسارع لتقنيات الذكاء الاصطناعى، من المحتمل حدوث السيناريو الأخطر على الإطلاق فى المستقبل، وهو التهديد الوجودى للبشر أنفسهم وتحقيق ما سماه الخبراء بـ «التفرد التكنولوجى»، ويعنى فرض الآلات سيطرتها على البشر بشكل كامل والاتجاه نحو اتخاذ إجراءات عدوانية ضدهم.
إدراكا بمدى خطورة تلك التهديدات، بدأ البعض بالحديث عن أهمية ابتكار ذكاء اصطناعى «ودود»، يتم تصميمه وفق أطر أخلاقية وقيم إنسانية تكون الأولوية فيه للأبحاث المتعلقة بالتحكم فى الذكاء الاصطناعى وضمان بقاء الآلات خاضعة لسيطرة الإنسان.. وليس العكس.

 


أخلاقيات الذكاء الاصطناعى

 


يقصد بها منظومة المعايير الأخلاقية والحواجز الوقائية التى تحكم سلوك الذكاء الاصطناعى وتساعد فى تطويره واستخدامه بطرق تعود بالنفع على المجتمع. وفى سبيل ذلك، بدأت المؤسسات والحكومات بوضع أطر عمل لمعالجة المخاوف الأخلاقية الحالية ورسم ملامح مستقبل العمل فى هذا المجال من خلال وضع مجموعة من الاعتبارات فى مقدمتها: العدالة، الشفافية والمساءلة، الإبداع والملكية، مواجهة التضليل، الخصوصية والأمن والمراقبة، مواجهة مخاطر الأسلحة ذاتية التشغيل.
تدرب أنظمة الذكاء الاصطناعى على كميات هائلة من البيانات التى قد تحتوى على تحيزات مجتمعية، كما سبقت الإشارة. ونتيجة لذلك، يمكن أن تترسخ تلك التحيزات فى خوارزميات الذكاء الاصطناعى، ما يديم ويضخم النتائج غير العادلة أو التمييزية فى مجالات حيوية كالتوظيف، والإقراض، والعدالة الجنائية، وتخصيص الموارد.
فى مجال التوظيف، على سبيل المثال، إذا استخدمت شركة ما نظام ذكاء اصطناعى لفرز المتقدمين للوظائف من خلال تحليل سيرهم الذاتية، فمن المرجح أن يكون هذا النظام قد درب على بيانات تاريخية للتعيينات الناجحة داخل الشركة. ومع ذلك، إذا كانت تلك البيانات تحتوى على تحيزات جنسية أو عرقية، فقد يتعلم نظام الذكاء الاصطناعى هذه التحيزات ويديمها، ما يجعله متحيزا ضد المرشحين الذين لا يتوافقون مع التعيينات السابقة للشركة.
تعمل أنظمة الذكاء الاصطناعى فى «صندوق أسود»؛ حيث لا تقدم تفسيرا دقيقا لكيفية عملها واتخاذها قرارات معينة فى العديد من المجالات الحيوية، لذا تعد الشفافية أمرا بالغ الأهمية لتحديد كيفية اتخاذ القرارات ومن يتحمل مسئوليتها. ومن أبرز الأمثلة على ذلك، استخدام الأنظمة ذاتية القيادة كقيادة السيارات؛ ففى حالة حدوث حادث لسيارة ذاتية القيادة، من المسئول؟ كذلك أيهما أصوب، الاستمرار فى تطوير المركبات ذاتية القيادة، أم الاقتصار على دمج هذه التقنية لإنتاج مركبات شبه ذاتية القيادة تعزز من سلامة السائقين؟
فى السياق ذاته، تعد المساءلة أمرا بالغ الأهمية حين ترتكب أنظمة الذكاء الاصطناعى أخطاء أو تسبب أضرارا لضمان اتخاذ الإجراءات التصحيحية المناسبة. وفى سبيل ذلك، يعمل الباحثون على تطوير ذكاء اصطناعى قابل للتفسير بشكل أفضل، ما يساعد فى تحديد مدى نزاهة النموذج، ودقته، وتحيزه المحتمل.
عندما يكمل رسام ما لوحة تصبح ملكا له. أما عندما ينتج مبدع بشرى عملا فنيا رقميا باستخدام نظام ذكاء اصطناعى مبرمج من قبل فرد أو مؤسسة مستقلة، تصبح الأمور فى تلك الحالة غير واضحة، ويبقى السؤال: من يمتلك العمل الفنى المولد بواسطة الذكاء الاصطناعى؟ ومن يمكنه تسويقه؟ ومن المعرض لخطر التعدى؟
للأسف تتطور تلك الإشكالية بوتيرة أسرع من قدرة الجهات المنظمة على مواكبتها. وبما أن المبدعين البشر ينتجون أعمالا فنية رقمية من خلال أنظمة ذكاء اصطناعى مطورة من قبل آخرين، يبقى من الضرورى أن يوضح المشرعون حقوق الملكية ويقدموا إرشادات للتعامل مع التعديات المحتملة.
يمكن استغلال خوارزميات الذكاء الاصطناعى لنشر المعلومات المضللة، والتلاعب بالرأى العام، وتضخيم الانقسامات الاجتماعية. ومن أبرز الأمثلة على ذلك التدخل فى الانتخابات والتأثير على أصوات الناخبين من خلال إنتاج محتويات سمعية بصرية واقعية مفبركة.
شكل إصدار ChatGPT فى العام 2022 نقطة تحول حقيقية فى مجال الذكاء الاصطناعى؛ فقد أتاحت قدرات «روبوت الدردشة»، بدءا من كتابة المذكرات القانونية وصولا إلى تصحيح أخطاء الأكواد البرمجية، آفاقا جديدة من الإمكانيات لما يمكن للذكاء الاصطناعى فعله وكيفية تطبيقه فى سائر القطاعات تقريبا.
يعتمد ChatGPT والأدوات المماثلة على نماذج توليدية واسعة النطاق قابلة للتكيف بدرجة عالية وقادرة على أداء مجموعة واسعة من المهام المختلفة. ومع ذلك، ثمة العديد من المخاوف الأخلاقية المتعلقة بتلك النماذج مثل: التحيز وإنتاج محتوى زائف، وعدم القدرة على التفسير، وإساءة الاستخدام، والتأثير المجتمعى.
تعتمد فعالية الذكاء الاصطناعى على توافر كميات هائلة من البيانات الشخصية، الأمر الذى يبرز العديد من المخاوف بشأن كيفية جمع هذه المعلومات وتخزينها واستخدامها. على سبيل المثال، تستخدم الصين أدوات مثل تقنية التعرف إلى الوجه لدعم شبكة المراقبة الواسعة، الأمر الذى من شأنه أن يؤدى إلى قدر كبير من التمييز والقمع ضد بعض الجماعات العرقية.
فى مجال الذكاء الاصطناعى، تصبح مسألة الحفاظ على خصوصية الأفراد وحقوقهم الإنسانية أمرا بالغ الأهمية، ما يستلزم ضمانات قوية ضد اختراق البيانات، والوصول غير المصرح به إلى المعلومات الحساسة، والحماية من المراقبة المكثفة.
أتاحت هذه المخاوف لصانعى السياسات تحقيق تقدم أكبر فى هذا المجال فى السنوات الأخيرة؛ فعلى سبيل المثال فى العام 2016، صدر تشريع اللائحة العامة لحماية البيانات الشخصية للأفراد فى الاتحاد الأوروبى والمنطقة الاقتصادية الأوروبية GDPR، ما يمنح الأفراد مزيدا من التحكم فى بياناتهم. وفى الولايات المتحدة الأمريكية، تعمل كل ولاية على حدة على وضع سياسات، مثل: قانون خصوصية المستهلك فى كاليفورنيا CCPA، الذى يلزم الشركات بإبلاغ المستهلكين بجمع بياناتهم.
أجبرت تلك التشريعات الشركات على إعادة النظر فى كيفية تخزينها واستخدامها للبيانات الشخصية، ونتيجة لذلك أصبحت الاستثمارات فى مجال الأمن أولوية متزايدة للشركات فى سعيها للقضاء على أية ثغرات أو فرص للمراقبة والاختراق والهجمات الإلكترونية.
تنشأ مخاوف أخلاقية فى ظل التطور المستمر للأسلحة ذاتية التشغيل، المدعومة بالذكاء الاصطناعى، والتى من السهل إساءة استخدامها، بحيث يفقد البشر سيطرتهم على قرارات الحياة والموت، الأمر الذى يستلزم اتفاقيات ولوائح دولية لتنظيم استخدام هذه الأسلحة ومنع العواقب الوخيمة الناجمة عنها.

 


مبادرات أخلاقية

 


انطلاقا من أن المعايير الأخلاقية ليست الشاغل الرئيس لمهندسى البيانات، برز عدد من المنظمات غير الربحية التى تراعى مثل تلك الأمور وتروج لفكرة السلوك الأخلاقى فى مجال الذكاء الاصطناعى مثل:
• AlgorithmWatch: منظمة حقوقية غير حكومية وغير ربحية، لديها مقر فى «برلين» وآخر فى «زيورخ». وهى تناصر قيم الديمقراطية كسيادة القانون، والعدالة، والمساواة، من خلال التركيز على خوارزمية عملية اتخاذ قرار قابل للتفسير والتتبع فى برامج الذكاء الاصطناعى.
• معهد AI now: معهد غير ربحى، مقره نيويورك، ومهمته إجراء أبحاث حول الآثار الاجتماعية للذكاء الاصطناعى.
• وكالة مشاريع البحوث الدفاعية المتقدمة DARPA: تابعة لوزارة الدفاع الأمريكية، وتركز على تعزيز الذكاء الاصطناعى القابل للتفسير.
• مركز الذكاء الاصطناعى المتوافق مع الإنسان CHAI: هو مركز بحثى فى جامعة كاليفورنيا، يركز على أساليب السلامة المتقدمة للذكاء الاصطناعى.
• لجنة الأمن القومى المعنية بالذكاء الاصطناعى NASCAI: هى لجنة مستقلة تنظر فى الأساليب والوسائل اللازمة للنهوض بتطوير الذكاء الاصطناعى والتعلم الآلى والتقنيات المرتبطة به، وذلك لتلبية احتياجات الأمن القومى والدفاع للولايات المتحدة الأمريكية بشكل شامل.
• شركة IBM: حيث تستند خلال عملها على تطوير البيانات والذكاء الاصطناعى إلى 3 مبادئ أساسية هى:
• الغرض من الذكاء الاصطناعى هو تعزيز الذكاء البشرى: بمعنى أن الشركة لا تسعى إلى استبدال الذكاء البشرى بالذكاء الاصطناعى، بل تدعمه. وفى سبيل ذلك، تلتزم الشركة بدعم العاملين من خلال الاستثمار فى مبادرات عالمية لتعزيز التدريب على المهارات المتعلقة بهذه التكنولوجيا.
• البيانات ملك لمبتكرها: حيث تلتزم الشركة بحماية خصوصية عملائها ضد برامج المراقبة ولا تتيح للحكومات الوصول إلى بيانات عملائها.
• التركيز على الشفافية وسهولة التفسير: حيث تؤمن الشركة بضرورة وضوح شركات التكنولوجيا بشأن من يدرب أنظمة الذكاء الاصطناعى الخاصة بها، والبيانات المستخدمة فى هذا التدريب، هذا بالإضافة إلى ماهية البيانات المستخدمة فى توصيات خوارزمياتها.
فى ضوء ما سبق ذكره، يمكن القول إن معالجة المخاوف الأخلاقية المتعلقة بالذكاء الاصطناعى تتطلب تعاونا استباقيا مشتركا بين خبراء التكنولوجيا، وصانعى السياسات، والمجتمع ككل، وذلك بهدف تسخير الإمكانات الهائلة للذكاء الاصطناعى مع التمسك بالمبادئ الأخلاقية بغية صوغ مستقبل يرتكز على ذكاء اصطناعى داعم للبشر وليس بديلا منهم.

 

ممدوح مبروك

مؤسسة الفكر العربي
النص الأصلي

 


https://bitly.cx/T9Q0

التعليقات