نشر المركز المصرى للفكر والدراسات الاستراتيجية مقالا للكاتبة رغدة البهى، تناولت فيه أبرز المخاوف العالمية من الذكاء الاصطناعى، وأبرز الجهود الدولية لمواجهة هذه المخاوف، ومدى فعاليتها... نعرض من المقال ما يلى.
فى الوقت الذى تحتدم فيه المنافسة الدولية فى مجال الذكاء الاصطناعى، تقف مختلف القوى الدولية فى مراحل متباينة على صعيد القواعد والأطر المقننة له وسط خلافات جذرية فيما بينها على أفضل السبل التى تكفل ذلك.
• • •
تدور المخاوف العالمية من الذكاء الاصطناعى حول جملة من النقاط:
1ــ التسبب فى وفيات بشرية: تسبب الذكاء الاصطناعى فى سابقة هى الأولى من نوعها عالميا؛ فقد أسفر استخدامه عن وفاة أحد مستخدميه بسبب استخدامه لأحد تطبيقات الدردشة فى بلجيكا. فقد انتحر أحد الباحثين المعنيين بالأبحاث البيئية عقب استخدامه المفرط لمنصة «إليزا»، وهى واحدة من أقدم منصات الذكاء الاصطناعى المعنية بتقديم المشورة النفسية ودعم الأفراد نفسيا عندما يحتاجون للتحدث عن مشاعرهم وتجاربهم. فقد أمضى ذلك الباحث ساعات ممتدة بحثا عن إجابات لأسئلته البيئية حتى أدمن استخدامها، وتحول شغفه بالمجال البيئى إلى قلق مفرط خوفا على كوكب الأرض من الكوارث التى تنتظره بسبب التغيرات المناخية، مما أدى إلى عزلته واعتقاده أن مجابهة ذلك يتطلب استخدام الذكاء الاصطناعى. ومع الثقة المتنامية فى المنصة، قالت له: «سنعيش معا كشخص واحد فى الجنة دون أن نفترق»، مما أدى لانتحاره.
2ــ غياب الأطر المقننة: طالب عدد من الخبراء التقنيين على شاكلة «إيلون ماسك» بالتوقف لمدة ستة أشهر عن تطوير أبحاث الذكاء الاصطناعى لحين اعتماد أنظمة حماية تمكن من تنظيم عمليات الذكاء الاصطناعى ومراقبتها والتصدى لما قد ينجم عنها من اختلالات، لا سيما أن الذكاء الاصطناعى سيسفر عن تطوير عقول غير بشرية قد تتفوق على البشر عددا ونوعا.
3ــ التأثير فى هيكل الوظائف: مع تزايد أتمتة الوظائف عالميا من ناحية، واتجاه الشركات الكبرى إلى دمج الذكاء الاصطناعى فى برامجها المعلوماتية ما يتيح لها مزايا استثنائية من ناحية ثانية، تتعدد الدراسات التى تحذر من التأثيرات السلبية للذكاء الاصطناعى على عالم الأعمال، وبخاصة مع الاستعاضة عن بعض الوظائف وتضرر أخرى. إذ يشير مصرف «جولدمان ساكس» إلى أن نحو ثلثى الوظائف الحالية عالميا قد تصبح آلية بدرجات متفاوتة، كما سيحل الذكاء الاصطناعى التوليدى محل نحو ربع المهام، وقد يسهم فى أتمتة 300 مليون وظيفة بدوام كامل مع تضرر الوظائف الإدارية والقانونية بصفة خاصة، لتتزايد ظاهرة تسريح العمال عالميا.
4ــالتضليل الإعلامى: قد يتسبب الذكاء الاصطناعى فى أضرار دولية بالغة بسبب إمكانية توظيفه لأغراض التضليل الإعلامى، ونشر خطاب الكراهية عبر الإنترنت، ونشر معلومات مغلوطة. فقد كشف انتشار صور منشأة عبر الذكاء الاصطناعى التوليدى وبعض التطبيقات على شاكلة «ميدجورنى» (Midjourney) على منصات التواصل الاجتماعى الاجتماعية عن مخاطر الذكاء الاصطناعى وقدرته على التلاعب بالرأى العام لا سيما أن الصور المنشأة أكثر واقعية من الصور الحقيقية. وهى ما يذكى الصراعات ويهدد الديمقراطية ويقوض حقوق الإنسان ويضر بالصحة العامة، لا سيما فى ظل الافتقار إلى قواعد السلوك ذات الصلة بصحة المعلومات على المنصات الرقمية.
5ــ تراجع الفاعلية السياسية: لا يمكن إغفال تكلفة الذكاء الاصطناعى المرتفعة، وعدم قدرته على اتخاذ القرارات باستخدام العاطفة التى لا غنى عن الانسياق وراءها فى بعض الحالات لا سيما فى حالة القرارات الجماهيرية. كما لا يمكنه ابتكار حلول فريدة للتحديات السياسية بسبب افتقاره للإبداع. إذ يمكن برمجته لإنتاج أفكار «جديدة» ولكن ليس أفكار «أصلية»، ما يحد من قدرته على اتخاذ القرارات المبتكرة؛ إذ سيختار الذكاء الاصطناعى الأفضل فى ظل الظروف المتاحة إلى أن يتعلم قراءة وفهم المشاعر الإنسانية.
• • •
فى اتجاه مضاد للمخاوف العالمية وبهدف احتوائها، تتعدد جهود الدول والمنظمات الدولية الرامية إلى تقنين الذكاء الاصطناعى وتنظيم استخداماته. ففى يونيو 2023، أيد الأمين العام للأمم المتحدة «أنطونيو جوتيريش» اقتراحا قدمه بعض المديرين التنفيذيين البارزين فى مجال الذكاء الاصطناعى بإنشاء هيئة رقابة دولية للذكاء الاصطناعى على غرار الوكالة الدولية للطاقة الذرية. وقد أعلن عن خطط لبدء العمل بحلول نهاية العام الحالى فى هيئة استشارية رفيعة المستوى للذكاء الاصطناعى لمراجعة ترتيبات حوكمة الذكاء الاصطناعى بانتظام وتقديم توصيات حول كيفية مواءمتها مع حقوق الإنسان وسيادة القانون والصالح العام، مع الأخذ فى الاعتبار أن هذا النموذج لا بد أن ينشأ بواسطة الدول الأعضاء فحسب لا الأمانة العامة للأمم المتحدة.
وفى 14 يوليو 2023، حذرت منظمة الأمم المتحدة للتربية والعلوم والثقافة (اليونسكو) من أن استخدام الذكاء الاصطناعى لتعزيز التطور فى مجال التكنولوجيا العصبية يشكل تهديدا لعقليات الأفراد. إذ تعمل اليونسكو على وضع «إطار أخلاقيات» عالمى يتعلق بحماية حقوق الإنسان فى مواجهة التكنولوجيا العصبية التى تعتمد على قدرة الخوارزميات على فك شفرة العمليات العقلية والتلاعب المباشر بآليات الدماغ التى تستند إليها نواياهم وعواطفهم وقراراتهم. ومن الأمثلة البارزة على ذلك وحدة «فك ترميز اللغة» التى أعلن عنها العلماء الأمريكيون فى مايو 2022 والتى تتيح ترجمة أفكار الشخص إلى نص مكتوب دون أن يتحدث بعد تدريب دماغه من خلال تمضية ساعات طويلة فى جهاز التصوير بالرنين المغناطيسى.
وقد دعت اليونسكو فى هذا الإطار إلى تطبيق التوصية التى أصدرتها فى عام 2021 والمتعلقة بطرق تطوير الذكاء الاصطناعى، والتى تشدد على ضرورة إنشاء أداة تشريعية لتنظيم الذكاء الاصطناعى ومراقبته على نحو يضمن الأمن الكامل للبيانات الشخصية والحساسة مع استحضار البعد الأخلاقى فى طموح الدول الاستفادة من هذا التطور التقنى لتقليل المخاطر الناجمة عنه.
• • •
بهدف تنظيم الذكاء الاصطناعى، أصدرت الصين فى يوليو 2023 إرشاداتها الرسمية لخدمات الذكاء الاصطناعى التوليدى، لتصبح بذلك واحدة من أوائل الدول التى تقننه بعد أن وضعت إدارة الفضاء الإلكترونى فى الصين (CAC) قواعد ملزمة فى صورة 24 بندا دخلت حيز التنفيذ فى 15 أغسطس 2023، لتلزم مقدمى خدمات الذكاء الاصطناعى بإجراء مراجعات أمنية، وتسجيل خوارزمياتهم لدى الجهات الرسمية.
وفى سياق متصل، حظرت الصين تطبيق «تشات جى بى تى» خوفا من تقديم إجابات لا تخضع للرقابة، كما شنت حملة على المواطنين الذين يستخدمونه، واعتقلت شخصا استخدم التطبيق لكتابة مقالات مزيفة. إذ تتمسك الصين بمشروعية المصادر المستخدمة فى توليد المعلومات بجانب حقوق الملكية الفكرية التى تتمتع بها البيانات المستخدمة من قبل الذكاء الاصطناعى.
وتتأسس تلك القواعد التنظيمية على رغبة الصين فى ريادتها عالميا فى مجال حوكمة الذكاء الاصطناعى كى تتمكن من بلورة المعايير العالمية فى ذلك المجال، ما يكفل لها جذب الاستثمارات العالمية وتحفيز نموها الاقتصادى.
أما على صعيد الولايات المتحدة، فقد استدعى رؤساء شركات التكنولوجيا إلى البيت الأبيض فى 5 مايو 2023 تأكيدا على ضرورة حماية مختلف المستخدمين من مخاطر الذكاء الاصطناعى انطلاقا من واجباتهم الأخلاقية ومسئوليتهم المعنوية من ناحية، وضرورة تنظيم ذلك المجال من ناحية ثانية، وحتمية وضع الضوابط والآليات التى تكفل سلامة وأمن الشركات التكنولوجية على اختلاف منتجاتها من ناحية ثالثة، وانفتاح الإدارة الأمريكية على تقديم لوائح وتشريعات جديدة فى مجال الذكاء الاصطناعى من ناحية رابعة.
وفى سياق متصل، أعلن البيت الأبيض عن تخصيص «مؤسسة العلوم الوطنية» ما يقرب من 140 مليون دولار لإطلاق 7 معاهد بحثية جديدة فى مجال الذكاء الاصطناعى. كما أطلق «المعهد الوطنى للمعايير والتكنولوجيا» (NIST) مجموعة عمل عامة لتقنيات الذكاء الاصطناعى التوليدى لتطوير الإرشادات الواجب اتباعها لمعالجة المخاطر التى قد تنجم عن تلك التقنيات على أن تتكون من متطوعين ذوى خبرة فنية من القطاعين الخاص والعام.
• • •
ختاما، على تعدد الجهود الدولية الرامية إلى تنظيم الذكاء الاصطناعى عالميا، فإنها لا تتقدم بنفس السرعة التى تتطور بها مختلف تقنيات الذكاء الاصطناعى على تعدد إشكالياتها. إذ يثير تنظيم الذكاء الاصطناعى بدوره مخاوف يصعب احتواؤها، وفى مقدمتها: التخوف من طرد الاستثمارات فى هذا المجال، ومنع الصعود السريع للذكاء الاصطناعى فى الوقت الذى تتسابق فيه مختلف القوى الدولية على تطويره؛ ليبرز فى هذا الإطار مقاربتان مختلفتان تنظم أولاهما البيانات، وتبسط ثانيتهما قبضتها عليها لصالح الأنظمة السياسية الحاكمة. ويظل دعم الابتكار من ناحية والحد من مخاطر الذكاء الاصطناعى من ناحية ثانية طرفين فى معادلة تنظيم الذكاء الاصطناعى رغم صعوبة تحقيق التوازن بين كليهما.
النص الأصلي