يؤكد كاتب المقال، جورف ميتال، خبير فى الأمن السيبرانى وعلوم البيانات أنه على الرغم من تزويد الذكاء الاصطناعى الصناعات بقدرات قوية، فإنه لا بد من معالجة التحديات التى تواجه تطبيقاته مثل جودة البيانات، والتحيز، والشفافية، ومخاوف الخصوصية لضمان العدالة والدقة.
إذن يتطلب ضمان عمل الذكاء الاصطناعى بنزاهة وفعالية تحسينًا مستمرًا وإشرافًا دقيقًا، لا سيما فى قطاعات مثل التأمين، حيث تُعدّ الدقة والثقة أمرين بالغى الأهمية.
فى ضوء ما سبق، تناول الكاتب أبرز القضايا الرئيسية المثيرة للقلق فيما يلى:
أولًا، انخفاض جودة البيانات: تعتمد فعالية الذكاء الاصطناعى بشكل كبير على جودة البيانات التى يستخدمها. إذا كانت البيانات غير دقيقة أو ناقصة، فسيتأثر أداء الذكاء الاصطناعى.
بمعنى أوضح، يقول الكاتب جورف ميتال أن ضعف جودة البيانات يعد العائق الرئيسى أمام نشر وتنفيذ مشاريع وعمليات الذكاء الاصطناعى والتعلم الآلى. فإذا كان نموذج الذكاء الاصطناعى غير دقيق فستكون مخرجات النظام كذلك غير دقيقة.
حتى أكثر خوارزميات الذكاء الاصطناعى تطورًا يمكن أن تُنتج نتائج خاطئة، مما يؤدى إلى ضعف الأداء والفشل. يجب أن يهدف نموذج الذكاء الاصطناعى عالى الجودة إلى الدقة والاتساق (بمعنى أن البيانات تتبع تنسيقًا وهيكلًا قياسيين لتسهيل المعالجة والتحليل).
لضمان كفاءة نموذج الذكاء الاصطناعى، يحتاج المطورون إلى جمع البيانات ذات الصلة، الأمر الذى يعتمد على اختيار المصادر التى تُستمد منها البيانات. ويتفاقم هذا التحدى بالحاجة إلى الحفاظ على الجودة والمعايير اللازمة للتخلص من البيانات المكررة أو المتضاربة. بعد ذلك، تأتى مهمة تصنيف البيانات بشكل صحيح، وهى عملية قد تستغرق وقتًا طويلًا وتكون عرضة للأخطاء. فى الوقت نفسه، يجب تخزين البيانات لمنع الوصول غير المصرح به. هنا يشير الكاتب إلى خطر آخر متعلق بجودة البيانات يطلق عليه «تسميم البيانات»: وهو هجوم متعمد على أنظمة الذكاء الاصطناعى، حيث يقوم المهاجمون بحقن بيانات ضارة أو مضللة فى مجموعة البيانات، مما يؤدى إلى نتائج غير موثوقة، بل خطيرة.
خطر أخير متعلق بجودة البيانات، وهو التحيز؛ أحيانًا، يتدرب نظام ذكاء اصطناعى على بيانات متحيزة، إذ يتخذ قرارات تُميز ضد أفرادٍ محددين بناءً على عوامل مثل العرق أو الجنس أو خصائص أخرى.
هناك نوعان أساسيان من التحيز: الصريح والضمنى. يشير التحيز الصريح إلى تحيز أو اعتقاد متعمد تجاه مجموعة معينة من الناس. أما التحيز الضمنى فيحدث دون وعى، وقد يؤثر على القرارات دون أن يدرك الشخص ذلك.
لا يُعدّ التحيز فى الذكاء الاصطناعى مجرد مشكلة تقنية، بل تحديًا مجتمعيًا، إذ تتداخل أنظمة الذكاء الاصطناعى بشكل متزايد فى عمليات صنع القرار فى مجالات الرعاية الصحية، والتوظيف، وإنفاذ القانون، والإعلام، وغيرها من المجالات الحيوية. يمكن أن يظهر التحيز فى مراحل مختلفة من مسار الذكاء الاصطناعى، وخاصةً عند جمع البيانات. قد تكون المخرجات متحيزة إذا لم تكن البيانات المستخدمة لتدريب خوارزمية الذكاء الاصطناعى متنوعة أو لا تُمثّل البيانات الفعلية. على سبيل المثال، قد يؤدى التدريب الذى يُفضّل المتقدمين الذكور والبيض إلى توصيات توظيف متحيزة فى مجال الذكاء الاصطناعى.
• • •
ثانيا، الشفافية مسألة أساسية، ويشير الكاتب هنا إلى صعوبة شرح كيفية اتخاذ الذكاء الاصطناعى لقراراته. ويُمثل هذا الغموض مشكلةً للعملاء والجهات التنظيمية التى ترغب فى فهم آلية عمل هذه الأنظمة. وتُعد الشفافية فى مجال الذكاء الاصطناعى أمرًا بالغ الأهمية لأنها تُقدم تفسيرًا واضحًا لأسباب اتخاذ قراراته وأفعاله، مما يضمن نزاهة وموثوقية هذه القرارات وأفعالها.
ترتبط الشفافية ارتباطًا وثيقًا بالذكاء الاصطناعى القابل للتفسير، الذى يُمكّن الجهات الخارجية من فهم سبب اتخاذ الذكاء الاصطناعى لقراراته. تبنى هذه القدرة على التفسير ثقة العملاء. يُشار إلى هذا باسم نظام الصندوق الزجاجى، على عكس نظام الصندوق الأسود، حيث تكون نتائج الذكاء الاصطناعى شفافة وأسباب قراراته معروفة، حتى لمطور النظام أحيانًا.
يُثير صعود الذكاء الاصطناعى المُولِّد أسئلةً جوهريةً حول فشله وكيفية فهمه. وكما يُقرّ معظم الخبراء (وكثير من المستخدمين)، فإن مُخرجات الذكاء الاصطناعى، مهما بلغت من روعة وقوة مُذهلة، قد تكون أيضًا عرضة للخطأ، وغير دقيقة، وفى بعض الأحيان، غير منطقية تمامًا. بالتالى، انتشر استخدام مصطلح «هلوسة الذكاء الاصطناعى» اعترافًا بهذه القابلية للخطأ.
تناول جميع مطورى الذكاء الاصطناعى الرئيسيين، بما فى ذلك جوجل ومايكروسوفت وأوبن إيه.آى OpenAI، هذه المشكلة علنًا، سواءً وُصفت بالهلوسة أم لا. على سبيل المثال، ذكرت وثيقة داخلية لمايكروسوفت أن هذه الأنظمة مصممة لتكون مقنعة، لا صادقة، ما يعنى أن المخرجات قد تبدو واقعية للغاية، لكنها تتضمن بيانات غير صحيحة. وقد أقرت شركة ألفابت، الشركة الأم لجوجل، بأنها مشكلة لم يجد أحد فى هذا المجال حلًا لها على ما يبدو. هذا يعنى أنه لا يمكن الاعتماد كليًا على مخرجات الذكاء الاصطناعى فى تنبؤاتها، ويجب التحقق منها من مصادر موثوقة.
فى كثير من الحالات، لا يُمكن استخدام البيانات الحقيقية لتدريب الذكاء الاصطناعى بسبب مشاكل الخصوصية. وبدلًا من ذلك، تُنشأ بيانات مُزيفة بناءً على بيانات حقيقية، ما قد يُؤدى إلى عدم دقة وانخفاض أداء نظام الذكاء الاصطناعى.
تشير خصوصية الذكاء الاصطناعى إلى حماية المعلومات الشخصية أو الحساسة التى تجمعها أو تستخدمها أو تشاركها أو تخزنها أنظمة الذكاء الاصطناعى. أحد أسباب كون الذكاء الاصطناعى يُشكل خطرًا أكبر على خصوصية البيانات مقارنة بالتقنيات الرقمية الأخرى هو الحجم الهائل للمعلومات التى يحتاج الذكاء الاصطناعى للتدريب عليها: تيرابايت أو بيتابايت من النصوص والصور والفيديوهات، والتى غالبًا ما تتضمن بيانات حساسة مثل معلومات الرعاية الصحية، والبيانات الشخصية من مواقع التواصل الاجتماعى، وبيانات التمويل الشخصى، والبيانات البيومترية المستخدمة للتعرف على الوجه.
مع تزايد جمع البيانات الحساسة وتخزينها ونقلها، تزداد مخاطر التعرض للاختراق من نماذج الذكاء الاصطناعى. وأوضح جيف كروم، المهندس المتميز فى شركة IBM، فى فيديو لشركة IBM Technology: تنتهى هذه البيانات باستهداف دقيق قد يُصيب أحدهم.
يمكن أن يحدث تسرب البيانات من نموذج الذكاء الاصطناعى من خلال الكشف غير المقصود عن بيانات حساسة، مثل ثغرة أمنية تقنية أو خطأ أمنى إجرائى. أما نقل البيانات غير المصرح به، فيعنى سرقتها، إذ يمكن للمهاجم، أو المخترق، أو الخصم الأجنبى، أو أى جهة خبيثة أخرى، اختيار تشفير البيانات كجزء من الهجوم أو استخدامها لاختراق حسابات البريد الإلكترونى للمديرين التنفيذيين فى الشركات.
• • •
مع تطور تقنيات الذكاء الاصطناعى، يتوقع الكاتب زيادة فعالية تطبيقات كشف ومنع عمليات الاحتيال المعقدة. فمن التطورات الواعدة، استخدام نماذج التعلم العميق، التى تُمكّن من مقارنة مطالبات التأمين الجديدة بملايين المطالبات السابقة بسرعة. تبحث هذه النماذج عن أنماط غير مألوفة قد تُشير إلى وجود احتيال، مثل أوصاف غريبة للأضرار، أو مطالبات متعددة من الشخص نفسه، أو تناقضات فى بيانات الموقع.
لا تتبع هذه النماذج المتقدمة قواعد ثابتة فحسب، بل تتعلم وتتطور مع كل جزء جديد من البيانات التى تُحللها. على سبيل المثال، يمكنها فحص صور الهواتف التالفة، ومقارنتها بقواعد بيانات ضخمة، ورصد أى علامات تلاعب بالصور، وتقييم احتمالية وجود احتيال.
سيعزز إنترنت الأشياء جهود منع الاحتيال هذه من خلال ربط البيانات من مختلف الأجهزة، مثل الهواتف الذكية. سيسمح هذا لشركات التأمين بجمع معلومات آنية حول كيفية استخدام الأجهزة، ومواقعها، وأى نشاط غير اعتيادى. بالإضافة إلى ذلك، يجرى تطوير منصات جديدة لمساعدة شركات التأمين على مشاركة بيانات مجهولة المصدر حول الاحتيال، مما يُسهّل تحديد مرتكبى الجرائم المتكررة واستباق أساليب الاحتيال المتطورة.
خلاصة القول، يؤكد الكاتب على ضرورة تحقيق التوازن بين الابتكار والاعتبارات الأخلاقية مع استمرار تطور الذكاء الاصطناعى. ورغم أن الذكاء الاصطناعى قادر على إحداث ثورة فى مجال كشف الاحتيال والعديد من القطاعات الأخرى، فإنه من الضرورى معالجة التحيزات، وتحسين جودة البيانات، وضمان الشفافية. ومن خلال الرقابة السليمة والتطبيق المسئول، يُمكن للذكاء الاصطناعى أن يكون أداة فعّالة تُفيد الشركات والمستهلكين، على حد سواء.
جورف ميتال
موقع Eurasia review
إعداد: وفاء هانى عمر
النص الأصلى:
https://tinyurl.com/2shca6sv