عمليات احتيال وشن هجمات إلكترونية.. كارثة قد يسببها الذكاء الاصطناعي
تتطور تقنية الذكاء الاصطناعي بسرعة هائلة، حيث أثرت وغيرت في العديد من جوانب حياتنا الحديثة. لكن بعض الخبراء يخشون من إمكانية استخدام هذه التقنية لأغراض ضارة.
كشفت ورقة حكومية بريطانية، وضعها أكثر من 50 خبيراً، أنه بحلول عام 2025 يمكن استخدام الذكاء الاصطناعي لارتكاب عمليات احتيال وشن هجمات إلكترونية.
كما بينت أنه بحلول ذلك الوقت سيكون لدى هذه التقنية القدرة على “تعزيز القدرات الإرهابية” في تطوير الأسلحة والتخطيط للهجمات وإنتاج الدعاية، وفق صحيفة The Times.
كذلك شملت مجموعة المخاطر الأكثر فتكاً التي يمكن أن تنشأ بحلول 2030، “التضليل الجماعي” و”أزمة البطالة”. حيث يستولي الذكاء الاصطناعي على وظائف منخفضة المهارات، واستخدام التكنولوجيا لمساعدة الإرهابيين على تطوير أسلحة بيولوجية.
وذكرت الورقة الصادرة عن المكتب الحكومي للعلوم، أنه لا توجد أدلة كافية لاستبعاد تهديد الذكاء الاصطناعي للإنسانية. واستناداً إلى مصادر، بما في ذلك المخابرات البريطانية، قالت الورقة إن العديد من الخبراء يعتقدون أن هذا “خطر ذو احتمالية منخفضة للغاية”.
مع ذلك، أضافت: “بالنظر إلى عدم اليقين الكبير في التنبؤ بتطورات الذكاء الاصطناعي. إلا أنه لا توجد أدلة كافية لاستبعاد أنه إذا تم ضبط أنظمة الذكاء الاصطناعي ذات القدرة العالية، بشكل غير صحيح أو لم يتم التحكم فيها بشكل كاف. يمكن أن تشكل تهديداً وجودياً”.
كما أشارت الورقة إلى أنه من المرجح أن تصبح التكنولوجيا أكثر فائدة، ويمكن تنفيذ المهام بشكل أكثر كفاءة من البشر. لكنها لمحت إلى أنها لا تستطيع التنبؤ “بالقدرات الجديدة المحددة” التي سيكتسبها الذكاء الاصطناعي، حيث من المرجح أن تتطور الأساليب كثيراً.
وبحلول عام 2030، بحسب أحد السيناريوهات، فإنه يمكن لشركات التكنولوجيا تطوير “ذكاء فائق” اصطناعي. قادر على إنجاز مهام معقدة وخداع البشر، وهو ما قد يشكل خطراً “كارثياً”.
كذلك حذرت من أن الذكاء الاصطناعي قد “يؤدي إلى تفاقم المخاطر السيبرانية الحالية بشكل كبير”. في حالة إساءة استخدامه – من خلال شن هجمات إلكترونية بشكل مستقل.