فى ظل التطورات التكنولوجية المتسارعة، تتعدد انعكاسات الذكاء الاصطناعى على الأمن السيبرانى، ليسهم إما فى تعزيز القدرات الدفاعية، ومراقبة الشبكات والأنظمة بشكل لحظى، وتحليل كميات ضخمة من البيانات لرصد أنماط السلوك المشبوهة، والتنبؤ بالهجمات السيبرانية قبل وقوعها؛ وإما فى تعقيد التهديدات السيبرانية، وتطوير برمجيات خبيثة، وتصميم هجمات سيبرانية ذكية تتجاوز وسائل الحماية التقليدية. وانطلاقًا من المعنى الثانى، برز مفهوم «الذكاء الاصطناعى المظلم»، مُخلّفًا تحديات أمنية وأخلاقية معقدة؛ حيث إنه يعنى ضمنًا إساءة استخدام الذكاء الاصطناعى، وبما يؤدى إلى زيادة تعقيد التهديدات والمخاطر السيبرانية.
• • •
تتمتع أدوات الذكاء الاصطناعى بالقدرة على طمس الحدود الفاصلة بين ما هو أصيل وما هو مزيف، وتوليد محتويات مزيفة تبدو حقيقية. ونتيجة لهذا، تزايدت عمليات الابتزاز والتهديد باستخدام تلك الأدوات لإجبار الضحايا على الامتثال للتهديدات ودفع الأموال والانخراط فى أفعال غير مُباحة. ويستخدم الاستدراج الإلكترونى خوارزميات متقدمة لتحديد الضحايا المُحتملين واستهدافهم بفعالية أكبر عقب تحليل أنشطتهم وأنماط تواصلهم ومعلوماتهم الشخصية، لاستغلال نقاط ضعفهم. ولا يُسهّل التلاعب المُدار بالذكاء الاصطناعى عمليات تحديد الضحايا المُحتملين ويزيد من كفاءتها فحسب، بل يُمكّن أيضًا من تخصيص التفاعلات معهم لتكون أكثر إقناعًا، فيما يتضمن التزييف العميق المُدعم بالذكاء الاصطناعى.
وتأسيسًا على هذا الجانب من الذكاء الاصطناعى، يُشير مصطلح «الذكاء الاصطناعى المُظلم» إلى استخدام الذكاء الاصطناعى، بما فى ذلك الذكاء الاصطناعى التوليدى ونماذج اللغة الكبيرة (LLMs)، لأغراض خبيثة على شاكلة: شن هجمات سيبرانية، واختراق الأنظمة الآمنة، والتلاعب بالبيانات، وتوليد مُحتويات مُضللة، واستغلال نقاط الضعف فى البنى التحتية الرقمية، وأتمتة الهجمات المُعقدة، وتهديد مجموعة واسعة من أنظمة المعلومات والأنظمة الرقمية.
وبعبارة أخرى؛ فإن «الذكاء الاصطناعى المظلم» لا يعدو كونه «تسليحًا عرضيًا واستراتيجيًا» لأدوات الذكاء الاصطناعى، إن جاز التعبير، ولا سيّما أنه يُستخدم فى الآتى:
• تحسين الهندسة الاجتماعية من خلال إنشاء رسائل بريد إلكترونى مُقنعة للتصيد الاحتيالى، ونسخ صفحات تسجيل الدخول لخداع المستخدمين لاختراق أنظمتهم.
• اختراق أنظمة تكنولوجيا المعلومات وتجاوز وسائل الحماية المعروفة، والتسلل إلى البنية التحتية وترك أبواب خلفية للاختراق لاحقًا.
• التزييف العميق واستنساخ الأصوات وتقليد الأشخاص وانتحال هوياتهم.
• شن هجمات سيبرانية مُخصصة، ونشر التهديدات السيبرانية الأكثر شيوعًا، مثل البرامج الضارة وبرامج الفدية.
ويُشير ما سبق إلى المساحة التى يتقاطع فيها الذكاء الاصطناعى والأمن السيبرانى فى نقطة تلاقٍ تشهد نقلة نوعية فى طبيعة المخاطر والتهديدات السيبرانية المُحتملة، مع تزايد قوة أدوات الذكاء الاصطناعى وسهولة الوصول إليها وإتاحتها، ليس فقط للمطورين والباحثين بل ومجرمى الإنترنت أيضًا، بعيدًا عن أى قيود أخلاقية أو ضوابط أمنية. فقد بدأ المهاجمون المحترفون وجماعات القرصنة بالفعل فى تسخير الذكاء الاصطناعى لتحقيق أهدافهم، وستتفاقم تلك المخاطر إذا تمكن غير المحترفين أيضًا من استخدامه بسهولة.
• • •
منذ إطلاق «شات جى بى تى» ChatGPT فى نوفمبر 2022، احتدمت النقاشات على الشبكة المظلمة ومنتديات الإنترنت المظلم حول سُبل الاستفادة من الذكاء الاصطناعى التوليدى للالتفاف على حواجز السلامة وتوظيفه فى أنشطة خبيثة، ما يُنذر ببيئة خصبة لجيل جديد من الأدوات والتطبيقات المستقلة المدعومة بالذكاء الاصطناعى، والمُصممة لتلبية احتياجات مجرمى الإنترنت غير المشروعة. ونتيجة لذلك، صاحب ظهور «شات جى بى تى» ابتكارات احتيالية فى صورة بعض المنصات الموجودة فى عوالم الإنترنت المظلمة، والتى باتت لديها القدرة على تغيير مشهد الأمن السيبرانى لقدرتها على إنتاج محتويات ضارة وغير قانونية وغير أخلاقية، ومن أمثلة ذلك ما يلى:
• (DarkBERT) تم تدريب هذا البرنامج من قِبل باحثين فى كوريا الجنوبية على بيانات من الشبكة المظلمة لأغراض مكافحة الجريمة السيبرانية؛ بهدف استكشاف المواقع التى يستخدمها مجرمو الإنترنت وفهم مصطلحاتهم وكلماتهم السرية، بيد أن البرنامج نفسه بات مُستخدمًا من المجرمين أنفسهم للعثور على الموارد التى يحتاجونها لشن الهجمات.
(FraudGPT- 2) هو نموذج ذكاء اصطناعى توليدى، وبوت مُتقدم لأغراض هجومية، وأداة خبيثة من أدوات الذكاء الاصطناعى التوليدى. وقد ظهر فى يوليو 2023 على قنوات «تليجرام» ومنتديات الويب المظلم بواجهة مشابهة لتطبيق «شات جى بى تى». ويُستخدم لأغراض عدة، منها إنشاء برامج ضارة غير قابلة للكشف، وإنشاء رسائل وصفحات تصيد احتيالى، وتصميم وإنشاء أدوات اختراق، والبحث عن التسريبات والثغرات.
(FreedomGPT-4) أداة مفتوحة المصدر فريدة من نوعها، يمكن لأى شخص تحميلها واستخدامها دون اتصال بالإنترنت، فتغيب عنها حواجز الحماية الموجودة فى نظرائها الشائعة؛ ما يعنى إساءة استخدامها بالضرورة وتزويدها ببيانات تدريب ضارة.
إن الأدوات السابقة لا تعدو كونها أدوات بلا حدود، وقد صُممت لأغراض خبيثة تتجاوز الحدود الأخلاقية، وتُنذر بمستوى أكثر تعقيدًا من الهندسة الاجتماعية. ويتم الترويج لهذه الأدوات على أنها إصدارات غير قانونية من نماذج الذكاء الاصطناعى التوليدى المُعترف بها، ليستخدمها المحتالون والمخترقون ومرسلو البريد العشوائى، وهى ليست سوى بداية لموجة جديدة من الجرائم السيبرانية المدعومة بالذكاء الاصطناعى، ما يقتضى نهجًا استباقيًا لحماية الأمن السيبرانى لمواجهة التهديدات الديناميكية والمتطورة.
• • •
تُمثل الأدوات سالفة الذكر تهديدًا متصاعدًا حذرت منه أصوات عدة، كان منها شركة «كراود سترايك» (CrowdStrike) التى أشار تقريرها الصادر فى عام 2024، المعنى برصد التهديدات، إلى توظيف الذكاء الاصطناعى فى شن هجمات أسرع وأكثر تطورًا دون الحاجة إلى أى خبرات تقنية متقدمة؛ فى إشارة واضحة إلى التطور المستمر فى تكتيكات أكثر من 245 جهة معاصرة. وعلى صعيد شركة «جارتنر» (Gartner)، أكد عدد من مسئولى إدارة مخاطر المؤسسات أن الهجمات السيبرانية المدعومة بالذكاء الاصطناعى تُمثل أبرز المخاطر الناشئة عام 2024، وأن المعلومات المضللة المدعومة بالذكاء الاصطناعى تُمثل التهديد الأشد خطورة، فى صعود بارز لمخاطر «الذكاء الاصطناعى المُظلم».
واتصالاً بهذا، وتأكيدًا لتنامى الحديث عن استخدام أدوات الذكاء الاصطناعى الخبيثة فى عالم الجريمة الإلكترونية بشكل حاد فى عام 2024، راقبت شركة «كيلا»، المتخصصة فى استخبارات التهديدات، منتديات الجريمة السيبرانية على مدار العام، وأصدرت تقريرها المعنون «تهديدات الذكاء الاصطناعى لعام 2025: كيف يُسخّر مجرمو الإنترنت تقنية الذكاء الاصطناعى كسلاح»، والذى دفع بتزايد النقاشات ذات الصلة بكيفية تجاوز الحواجز الأمنية المُدمجة فى أدوات الذكاء الاصطناعى الشرعية، على شاكلة «شات جى بى تى»، لتنفيذ أنشطة خبيثة بنسبة 52%، وتزايد الإشارة إلى أدوات وتكتيكات الذكاء الاصطناعى المظلم بنسبة 219%. وأشار التقرير إلى أن «أدوات الذكاء الاصطناعى المظلمة تلك قد تطورت فى صورة خدمات إلكترونية منتشرة ومتاحة باشتراكات شهرية وسنوية؛ حتى أدى تزايد الطلب عليها إلى ظهور إصدارات مزيفة منها لأغراض الربح المادى».
أما شركة «جوجل»، فقد كشفت مؤخرًا عن أن بعض جماعات القرصنة المدعومة من الدول تستخدم نموذج الذكاء الاصطناعى (Gemini) التابع للشركة، فى برمجة أدوات ونصوص برمجية، وإجراء أبحاث حول الثغرات الأمنية المُعلنة، والبحث عن تفسيرات للتقنيات، والعثور على تفاصيل حول المؤسسات المستهدفة، والبحث عن أساليب لاختراق الشبكات المُخترقة. واتصالاً بهذا، اكتشفت وحدة أبحاث التهديدات (TRU) التابعة لشركة «أكرونيس» (Acronis)، ارتفاع عدد الهجمات عبر البريد الإلكترونى بنسبة تقارب 200% بين النصف الثانى من عام 2023 والنصف الثانى من عام 2024. وشهد التزييف العميق وهجمات التصيد الاحتيالى تزايدًا ملحوظًا وصولاً إلى ثلاث من أصل أربع هجمات.
ختاماً، تُمثّل أدوات «الذكاء الاصطناعى المُظلم» حقبة جديدة يُمكن فيها تدريب أدوات الذكاء الاصطناعى على اختراق الشبكات باستخدام البرامج الضارة، وكتابة برامج الفدية للسيطرة على أنظمة الشركات، وإنتاج مقاطع فيديو مزيفة للاستغلال أو الابتزاز. بيد أن هذا المفهوم لا يُعبّر عن خلل تقنى، بقدر ما يكشف عن أوجه إساءة استخدام الذكاء الاصطناعى. وبعبارة أخرى، فإن الذكاء الاصطناعى ليس مظلمًا فى حد ذاته؛ لكنه يتحول إلى ذلك حين يُستخدم فى «الظلام» بعيدًا عن المساءلة والمعايير الأخلاقية؛ فالنموذج ذاته الذى يُستخدم فى الترجمة أو توليد نصوص تعليمية، يمكن استخدامه أيضاً لتوليد محتوى متطرف أو لتضليل الرأى العام أو لإنشاء تعليمات برمجية ضارة.
رغدة البهي
مركز المستقبل للأبحاث والدراسات المتقدمة