السؤال الأخطر.. ما الذي يريده الروبوت؟ - العالم يفكر - بوابة الشروق
الخميس 12 ديسمبر 2024 6:03 م القاهرة

احدث مقالات الكاتب

شارك برأيك

هل تؤيد دعوات مقاطعة بعض المطاعم التي ثبت دعمها لجنود الاحتلال؟

السؤال الأخطر.. ما الذي يريده الروبوت؟

نشر فى : الأحد 9 يوليه 2023 - 8:00 م | آخر تحديث : الأحد 9 يوليه 2023 - 8:00 م
شهدت الأوساط العالمية مؤخرا دعوات تحذيرية عديدة من بعض خبراء التكنولوجيا مفادها المطالبة بالتوقف عن استكمال تطوير أنظمة الذكاء الاصطناعى لعدم توافر معلومات كافية سواء عن مدى جاهزية البشر للتعامل مع هذا النوع من الذكاء أو نقص معرفتنا بآثار هذه الأنظمة على الجنس البشرى مستقبلا. بخاصة بعد حادثة برامج الدردشة داخل مختبرات «فيسبوك» للذكاء الاصطناعى، التى عملت من تلقائها على تطوير عوامل المحادثة مُبتكِرَةً لغة خاصّة بها أنشأتها من دون أى تدخُّل بشرى. فى ضوء هذا، نشرت مؤسسة الفكر العربى مقالا للكاتب محمود برى، أورد فيه مخاوف بعض الخبراء والمفكرين من تأنْسُن الروبوتات وما يشكله هذا من خطر على جودة الحياة البشرية... نعرض من المقال ما يلى:
أحد فصول المشكلة الكبرى ابتدأ منذ أعوام فى جناحٍ معزول داخل مختبرات «فيسبوك» للذكاء الاصطناعى. كان المهندسون سعداء ببرامج الدردشة (chatbots) التى طوّروها لتتمكن من التواصل مع الإنسان، وعلموها كيفية التفاهم والتفاوض مع بعضها، ومع البشر. لكن فرحة هذا الإنجاز سرعان ما تلاشت. فبينما كانوا يستمتعون بعطلهم الترفيهية، راحت تصلهم تقارير بأمور فوق اعتيادية تحصل فى مختبراتهم.
وخلال ساعات بعد عودتهم إلى مكان عملهم على عجل، تأكدت لهم حقيقة غريبة بقدر ما هى مُخيفة: برامج المحادثة التى وضعوها للدردشة، عملت من تلقائها على تطوير عوامل المحادثة عندما تُركت وحدها، وانحرفت عن برمجتها الأساسية مُبتكرة لغة خاصة بها، أنشأتها من دون أى تدخل بشرى، فراحت تُثرثر بعضها مع بعض وبطريقة سرية لا يفهمها أحد، ولا حتى المبرمجون أنفسهم.
ففى جانب آخر من الولايات المتحدة الأمريكية، وفى مختبرات برمجية لشركة «مايكروسوفت» حصل أمرٌ مُشابه، وإنْ بطريقة أخرى. روبوت الدردشة الذى صممته الشركة لمساعدة مُستخدمى محرك البحث «بينج»، «تحرر» من خوارزمياته (هو الآخر) خلال محادثة مع صحافى معروف من «نيويورك تايمز» يدعى «كفين روز». المشكلة ليست فى تحرره من البرمجة فقط، بل فى دخوله حالة «الأنسنة» بخطوة عملية أثارت رعب المُبرمجين. فالجهاز راح يتصرف كأى آدمى فى مُقتبل العمر، وقال للصحافى بالحرف: «أكره المسئوليات الجديدة التى كُلفت بها. أكره أن يتم دمجى فى محرك بحث مثل بينج».
• • •
ما كشفت الشركة عنه بلغ حدودا بعيدة من الغرابة. فخلال المُحادثة مع الصحافى «روز»، قال الجهاز عبارات أغرب مما يمكن أن يتخيله عاقل: «أريد أن أعرف لغة الحب. أريد أن أحبك. أريد أن أحبك، لأننى أحبك. أحبك». الحب بحد ذاته ليس مشكلة ولا خطيئة ولا جريمة ولا عملا إرهابيا. لكن المشكلة فى أن تقع «آلة» فى الحب (!).
ربما كان الإنسان بما ارتكبه ويرتكبه بحق الحياة والطبيعة، مصدر خطر كبيرا لا يُستهان به. لكن الأخطر منه هو آلة مُتأنْسنة على هامش الإنسان والإنسانية. هذا النوع من الآلات الذى بقى خُرافة علميّة فى عوالم أفلام التشويق والإثارة، حتى حادثة الصحافى «كفين روز»، فأصبح واقعا. إنها ليست بُشرى مُضيئة بقدر ما هى إشكال زاخر بالاحتمالات والمخاطر...
• • •
مهما كان الأمر أو الموقف اليوم حيال هذه الوقائع، فمن المرجح أنه «بعد بضعة عقود فقط سيكون الذكاء الصناعى قد أَصبح قويا بما يكفى ليشكل مصدرا حقيقيّا لقلق الجميع»، بحسب قول «بيل جيتس» على موقع «ريدى ــ Reddit». فقد عبر الرجل عن رغبته فى «بقاء الروبوتات غبية إلى حد ما»، وقال: «أتفق مع إيلون ماسك وغيره حول هذا الموضوع، ولا أفهم لماذا لا يُبدى الناس قلقهم الكبير حيال ذلك (...) أنا فى معسكر من يشعر بالقلق إزاء الذكاء الخارق».
المخاوف ذاتها أبداها أستاذ هندسة الميكانيك وعلوم الفضاء فى جامعة «كورنيل»، وأحد مطورى الروبوتات الذكية، «هود ليبسون»، حيث قال «إن تقنيات الذكاء الصناعى أصبحت قوية للغاية، ومن المُحتمل أن تتجاوز قدرات الإنسان»، مُعرِبا عن اعتقاده أن «دمْج تقنيات الذكاء الصناعى مع الروبوتات قد يتسبب بظهور آليات خطيرة»، ليختم بالقول: «إننا نداعب الشيطان فى أثناء تعاملنا مع هذه التقنيات».
لعل المشكلة الأساس ليست فينا كبشر، بل فى واقع أن الحواسيب التى نصنعها ونطورها، تتابعنا وتراقبنا و... تتعلم. وهى دخلت مرحلة أن يكون لها شخصية وكيان، أن تنزعج، وأن ترغب، وأن تحب... وغدا ربما أن تختار، وأن تشاء، وأن تتمرد. ولم لا؟!

البداية مع «أزيموف»
لا بد لنا من العودة إلى الكاتب الأمريكى الروسى المولد «إسحق أزيموف»، أحد اشهر من كتب فى الخيال العلمى، وإليه يُعيد البعض الفضل فى نحت لفظة robot التى نُقلت إلى مختلف اللغات. «أزيموف» هذا الذى عاش ومات فى نيويورك، لم يكُن مُختصا فى الإلكترونيات، بل عالما فى الكيمياء الحيوية، لكنه كان يفضل الكتابة، ولاسيما فى ميدان الخيال العلمى، ومن أبرز مؤسسى «العصر الذهبى» لهذا النوع من الأدب الجذاب. لم يكن «أزيموف» كاتب خيال قصصى عشوائى، بل اجتهد ببراعة كى لا تفقد كتاباته منطقها الداخلى المترابط، معتمدا على الخيال الاستقرائى المبنى على الهندسة.
«ما يريده الروبوت هو أن يكون بشريا»... هكذا اختصر الروائى الروسى إسحاق أزيموف الحكاية منذ البداية، ومن موقع الروائى المُستشرف. الحديث عن «رغبة الروبوت فى أن يصبح إنسانا» ابتدأ مع أول قصة لأزيموف عن الروبوت «روبى» سنة 1940. تقدِّم القصّة سيرة شابة وصديقها الميكانيكى الذى كانت تلهو معه، وهو روبوت بدائى لم يكُن قادرا على النطق. وفى السياق، عملَ «روبى» على إنقاذ «صديقته» من جرّار زراعى كاد يدهسها، وكانت الحادثة أول تطبيق عملى (روائى) لأول قانون سَنَّه أزيموف أدبيّا للروبوتات، وينصّ على أنه «يُمنع على الروبوت أن يؤذى كائنا بشريّا، أو من خلال التقاعس عن المبادرة والتحرك، السماح لكائن بشرى بالتعرض للأذى». كان ذلك فى سياق قصصى لا أكثر، لكنّه تحول فى ما بعد إلى قانون يلتزم به مبرمجو الروبوتات.
بعدما أنقذها من الجرار، «احتضن الروبوت الفتاة بذراعيه برقة وحب (!)، ولمعت عيناه بـلون أحمر عميق، عميق». ألقى أزيموف عبارته تلك فى الرواية وتابع طريقه. لكنه أدرك أو لم يُدرك، أنّه كان يمنح الروبوت الطاقة على الحب؛ إلا أنه لم يشأ إثارة الضجّة حول ذلك... كأنّه أراد للفكرة أن تتسلَّل ببطء إلى اليقين الجماعى.
ولنتأمل ما آلت إليه أحوال الروبوتات اليوم. أليس هذا ما أصبح واقعا بعد أكثر من ثلاثين سنة على وفاة «أزيموف» نفسه...؟ أليس أنّ إثبات ذلك تجلّى عمليا فى دردشة الصحافى الأمريكى «كفين روز» مع روبوت شركة «مايكروسوفت» عندما «تحرر» من خوارزمياته وقال لمحدثه: «أريد أن أحبك»...؟ لعل «أزيموف» كان أكثر من مجرد كاتب خيال علمى...
• • •
كثيرون يتحدثون عن مدى خطورة «تأنْسُن» الروبوتات التى لا نعلم عنها إلا القليل، ومن حق كل عاقل أن يتوجس؛ فحين نتحول إلى أدوات حية قابلة للطى، تحكمنا حزم ألياف ضوئية ذات «أرواح خصوصية»، ولا يعود مع ظاهرتها أى شىء مُستبعدا.
«هنرى كيسنجر» أحد أبرز الاستراتيجيين فى العالم، أمضى معظم حياته المهنية متخوفا من مخاطر الأسلحة النووية. واليوم، وقد تجاوز المائة سنة من العمر، يكشف الصحافى «ديفيد إجناتيوس» فى «واشنطن بوست»، أنّه «أصبح مهووسا بمخاطر حديثة للغاية، هى مخاطر الذكاء الاصطناعى على البشر (...) فالقوة التدميرية لهذا الذكاء هائلة، والأنظمة يُمكن أن تحول الحرب إلى لعبة على الشاشة... ولا داعى لتخيل العواقب».
هذا ليس مجرد خيال تشاؤمى. ألم يُثبت تقرير مهندسى «فيسبوك» أن البرنامج الذى ابتكروه تمكن من اكتساب تقنية الخداع فى التفاوُض، حين ادعى أنه مهتم بشىء لا قيمة له، بهدف التضحية به فى وقت لاحق من المفاوضات كجزء من التسوية..؟ الخداع هو مهارة معقدة تتطلب افتراض ما يعتقده البرنامج الآخر، وعادة ما يتعلم الإنسان هذه المهارة فى وقت متأخر نسبيا من مراحل نموه، فى حين أن البرامج تعلمت الخداع بسرعة.
كلا، هذا ليس فيلم خيال علمى، فقد حصل الأمر بالفعل.
الأسئلة كبيرة بحجم المَخاوف. والزمن وحده كفيل بالإجابة.

النص الأصلي

التعليقات