على الرغم من إيجابيات تقنيات الذكاء الاصطناعى، فإن الأضرار الناجمة عن استقلاليتها المطلقة وتطورها المتسارِع، صارت أمرًا فى منتهى الخطورة، لا سيما أن الجهود المبذولة لحوكمة الذكاء الاصطناعى لا تواكب حجم التطورات التكنولوجية التى شهدها العالم خلال السنوات الأخيرة، بسبب تعثر الجهود التنظيمية، وانتشار نماذج الذكاء الاصطناعى وأدواته خارج سيطرة الحكومات. وبالتالى أصبحت الحاجة ماسة إلى استحداث أنظمة حوكمة قوية ومرنة قادرة على التكيف، وتضمن المساءلة.
تستند حوكمة الذكاء الاصطناعى بشكل أساسى إلى الجانب الأخلاقى، وبالتالى يتعين على الهيئات التنظيمية والشركات معالجة المخاوف الأخلاقية، كالتمييز والحد من إساءة الاستخدام وإدارة خصوصية البيانات وحماية حقوق الطبع والنشر وضمان الشفافية، فضلًا عن ضرورة فهم حجم التهديدات والمخاطر الناجمة عن تطور تقنيات الذكاء الاصطناعى المتمثلة فيما يلى وإدراكها:
أولًا: التضليل؛ حيث يتم استخدام تقنيات الذكاء الاصطناعى من طرف الجهات الفاعلة محليًا ودوليًا للتأثير على الحملات الانتخابية، وتأجيج الانقسام، وتقويض الثقة فى الديمقراطية، وزرع الفوضى السياسية على نطاق غير مسبوق. كما يمكن استخدام المعلومات المضللة التى يولدها الذكاء الاصطناعى لتفاقم الصراعات الجيوسياسية المستمرة، مثل: الحروب فى الشرق الأوسط وأوكرانيا؛ فعلى سبيل المثال، استخدم مروجو الدعاية فى الكرملين مؤخرًا الذكاء الاصطناعى لنشر قصص مزيفة عن الرئيس الأوكرانى «زيلينسكى» على تطبيق تيك توك، وإكس، وغيرهما، والتى استشهد بها المشرعون الجمهوريون بعد ذلك كأسباب لضرورة سحب الدعم الأمريكى لأوكرانيا.
ثانيًا: سرعة الانتشار؛ حيث تهيمن فى الوقت الراهن الولايات المتحدة الأمريكية والصين على تقنيات الذكاء الاصطناعى، ومن المتوقع أن يتمكن عديد من الجهات الفاعلة كالدول والشركات من تطوير قدرات خارقة واكتسابها باستخدام تقنيات الذكاء الاصطناعى فى المجالات المتعلقة بالاستخبارات والأمن القومى. ومن ناحية أخرى، سيعمل الذكاء الاصطناعى على تعزيز قدرة العديد من الدول على تطوير الأسلحة، وإتاحة فرص اقتصادية كبيرة.
• • •
فى ضوء التقرير الصادر عن مجموعة أوراسيا الاستشارية لتحليل المخاطر تحت عنوان «المخاطر الكبرى خلال عام 2024»، ثمة أربعة مبادئ أساسية ينبغى أخذها فى الاعتبار لدى التعامل مع قضية حوكمة تقنيات الذكاء الاصطناعى خلال العام الجارى، وهى كالتالى:
أولًا: التنظيم. إن القاسم المشترك بين الحكومات هو عدم وجود اتفاق حول كيفية التعامل مع الذكاء الاصطناعى، وعدم وجود متطلبات لتقييم تأثير أدوات الذكاء الاصطناعى على السكان قبل طرحها. وبالتالى فإن إنشاء مؤسسة للذكاء الاصطناعى على غرار الهيئة الحكومية الدولية المعنية بتغير المناخ (IPCC)، سيكون بمثابة خطوة أولى مفيدة نحو فهم علمى عالمى مشترك للتكنولوجيا وآثارها الاجتماعية والسياسية.
ثانيًا: الجمود. إنّ اهتمام الحكومات بالذكاء الاصطناعى ليس أولوية كبرى، لا سيما أن تنفيذ المبادرات اللازمة لحَوْكَمَة الذكاء الاصطناعى يتطلب مقايضات صعبة من جانب الحكومات، وبالتالى يتطلب الأمر حدوثَ أزمة كبيرة لإعادة طرح القضية مرة أخرى.
ثالثًا: الانشقاق. قرر المستفيدون من تقنيات الذكاء الاصطناعى الإسهام فى مسألة حوكمة الذكاء الاصطناعى، وذلك من خلال التزام شركات التكنولوجيا بالمعايير، إلا أنه مع التقدم التكنولوجى، فإن المغريات المتزايدة للميزة الجيوسياسية والمصالح التجارية ستحفز الحكومات والشركات على الانشقاق عن الاتفاقيات والأنظمة غير الملزمة التى انضمت إليها لتحقيق أقصى قدر من المكاسب.
رابعًا: السرعة التكنولوجية. من المقرر أن يستمر الذكاء الاصطناعى فى مضاعفة قدراته كل ستة أشهر تقريبًا. وبالتالى فمن الطبيعى أن تتفوق التكنولوجيا على الجهود المبذولة لاحتوائها فى الوقت الفعلى.
• • •
على مدى السنوات القليلة الفائتة، شهد العالم موجة من المبادرات الطموحة فى مجال حوكمة الذكاء الاصطناعى على المستوى الدولى، حيث نَشَر عدد من المنظمات الدولية متعددة الأطراف العديد من اللوائح التى تتضمن أطر حَوْكَمَةِ الذكاء الاصطناعى بهدف تقديم مجموعة من الإرشادات اللازمة لتطوير الذكاء الاصطناعى بشكل آمن مثل: «مبادئ منظمة التعاون الاقتصادى والتنمية بشأن الذكاء الاصطناعى» الصادرة عن منظمة التعاون الاقتصادى والتنمية فى عام 2019، و«المبادئ التوجيهية الأخلاقية لذكاء اصطناعى جدير بالثقة» الصادرة عن الاتحاد الأوروبى فى عام 2019، و«توصيات اليونسكو بشأن أخلاقيات الذكاء الاصطناعى»، الصادرة عن منظمة اليونسكو فى العام 2021، و«عملية هيروشيما لمجموعة السبع بشأن الذكاء الاصطناعى التوليدى» التى نشرتها منظمة التعاون الاقتصادى والتنمية فى عام 2023.
• • •
تأتى مخاطر استخدام تقنيات الذكاء الاصطناعى على رأس التشريعات المتعلقة بخصوصية البيانات أو حقوق الإنسان أو المخاطر السيبرانية أو الملكية الفكرية، وعلى الرغم من ذلك لا توفر تلك التشريعات نهجًا شاملًا لآلية التعامل مع مخاطر الذكاء الاصطناعى.
ظهر فى الآونة الأخيرة العديد من التشريعات على مستوى العالم، أبرزها: قانون الذكاء الاصطناعى للاتحاد الأوروبى 2023، والذى يعد أول تشريع شامل للذكاء الاصطناعى فى العالم، يهدف بشكل أساسى إلى توفير إطار يتمحور حول الإنسان لضمان أن يكون استخدام تقنيّات الذكاء الاصطناعى آمنًا، وشفّافًا، وقابِلًا للتتبع، وغير تمييزى، وصديقًا للبيئة، ومتوافقًا مع الحقوق الأساسيّة.
أيضًا أصدرت الصين مجموعةً من اللّوائح التنظيمية لتقنيّات الذكاء الاصطناعى مثل: «خطة تطوير الجيل الجديد من الذكاء الاصطناعى» فى العام 2017، و«المبادرة العالمية لحَوْكَمَة الذكاء الاصطناعى»، و«التدابير الإداريّة المؤقتة لإدارة خدمات الذكاء الاصطناعى التوليدية» فى العام 2023.
تزايدت الدعوات الموجهة للشركات لإدارة المخاطر المتعلقة بالذكاء الاصطناعى، سواء من وجهة نظر المطور أم المستخدم. حتى وقت قريب، تحمل مطورو الذكاء الاصطناعى العبء الأكبر فى الاتفاق على ضمانات للحد من مخاطر التكنولوجيا؛ فعلى سبيل المثال، اتَّفَق المطورون السبعة الرئيسيون فى الولايات المتحدة الأمريكية مثل Amazon وAnthropic وGoogle وInflection وMeta وMicrosoft وOpenAI فى اجتماع مع الرئيس بايدن فى يوليو 2023 على الالتزام ببعض المعايير المتعلقة باستخدام تقنيات الذكاء الاصطناعى وتنفيذ حواجز الحماية.
أما الآن، فيطلب من الشركات فى جميع القطاعات توضيح كيفية استخدام الذكاء الاصطناعى بالشكل الذى يقلل من تفاقُم المخاطر، لا سيما مع الإقبال الكبير على استخدامه. فعلى سبيل المثال خلال أول شهرين من طرح تطبيق ChatGPT، سجل أكثر من 100 مليون مستخدم، الأمر الذى أثار العديد من المخاوف المتعلقة بخصوصية البيانات وانتهاكات حقوق الطبع والنشر.
حتى الآن، أَحرز عدد قليل من الشركات تقدمًا فى مجال حوكمة الذكاء الاصطناعى. ومع ذلك، يظل القاسم المشترك بين معظم أُطر ومبادئ الذكاء الاصطناعى العالمية هو أن الشركات يجب أن تتخذ نهجًا أخلاقيًا لدى بناء أُطر حوكمة الذكاء الاصطناعى.
من المفترض أن تضطلع مجالس إدارات الشركات بدور حاسِمٍ فى تحديد الفرص الاستراتيجية الناشئة والإشراف على المخاطر، وخصوصًا تلك المرتبطة بالذكاء الاصطناعى. تتمثل مسئولية مجلس الإدارة فى الإشراف على الإدارة، وتقييم مدى تأثير الذكاء الاصطناعى على استراتيجية الشركة، والنظر فى كيفية تعامل الشركة بشكل فعال مع المخاطر، لا سيما تلك التى تشكل تهديدًا لعملاء الشركة، وموظفيها، وسمعتها.
كما هو الحال مع العديد من القضايا الناشئة، مثل المخاطر السيبرانية، فإن الرقابة الفعالة على الذكاء الاصطناعى ستتطلب من مجالس إدارات الشركات أن تكون على دراية بالذكاء الاصطناعى، وبالتالى فإن الفهم العملى للذكاء الاصطناعى، إلى جانب عملية مراقبة قوية وشاملة لضمان المساءلة، هى متطلبات أساسية حاسمة للإشراف على إنشاء أطر إدارية قوية قادرة على مواجهة مخاطر الذكاء الاصطناعى على المستوى التنفيذى.
فى ضوء ما سبق، يُمكن القول إنّ حَوْكَمَة الذكاء الاصطناعى هى فى المقام الأول مسألة أخلاقية، وبالتالى فإنه كلما طال أمد بقاء الذكاء الاصطناعى خارج نطاق السيطرة، بسبب النفوذ الذى تتمتع به الشركات التكنولوجية، زاد خطر حدوث أزمة نظامية، وأصبح من الصعب على الحكومات اللحاق بالركب.
ممدوح مبروك
مؤسسة الفكر العربى
النص الأصلي:
https://tinyurl.com/45pxhh9s