[ الصفحة الأولى ]مال وأعمال

الذكاء الاصطناعي يُحدث طفرة في عمليات “الاحتيال الصوتي”

تشكل مكالمات “الاحتيال الصوتي” تهديداً متزايداً للبشر حول العالم، وذلك بالتزامن مع دخول تقنيات الذكاء الاصطناعي إلى هذا المجال واستخدام التكنولوجيا الجديدة التي تجعل من الصعب اكتشاف عملية الاحتيال، وبالتالي تُهدد مصالح الناس وحساباتهم، وفقا لما ذكرته قناة العربية.

موضوعات قد تهمك

احذر.. هجوم إلكتروني جديد يستهدف مستخدمي آيفون
إجراءات رقابية لتعزيز الأمن السيبراني في مؤسسات قطاع التمويل غير المصرفي

بنوك مصرية تدرس خفض فائدة الشهادات بعد اجتماع “المركزي” المقبل

ارتفاع أسعار المواد الأساسية في الكويت 30%

 

ونشرت شبكة “CNBC” الأميركية تقريراً موسعاً استعرض فيه المخاطر التي تتزايد بسبب عمليات الاحتيال الصوتي التي تستخدم تكنولوجيا الذكاء الاصطناعي، وهي عمليات احتيال أصبحت أكثر خطورة وأكثر نجاحاً وبات من الصعب اكتشافها.

واستعرض التقرير مثالاً على ذلك الفيلم الشهير “ثيلما”، حيث تتلقى ثيلما بوست البالغة من العمر 93 عاماً مكالمة هاتفية من حفيدها الذي يقول إنه في السجن وإنه مصاب بكسر في الأنف بعد تعرضه لحادث ويحتاج إلى عشرة آلاف دولار. وتقوم ثيلما بالاستجابة لتعليمات المحتال من خلال جمع مجموعات من النقود المخفية حول منزلها وإرسالها إلى صندوق بريد، وهو عنوان الشخص المحتال.
ويقول التقرير إنه “على الرغم من أن هذه القصة تم تصويرها بشكل درامي إلا أن التهديد بمكالمات الاحتيال هذه، والمعروفة أيضاً باسم عمليات احتيال الأجداد أو عمليات احتيال الطوارئ العائلية، أصبحت حقيقة وباتت أسهل وأكثر انتشاراً في عصر الذكاء الاصطناعي”.

وبحسب التقرير ففي الولايات المتحدة وحدها بلغ إجمالي الخسائر الناجمة عن هذا النوع من الاحتيال العام الماضي ما يقرب من 2.7 مليار دولار، وفقاً للجنة التجارة الفيدرالية الأميركية.

ويقول الخبراء الماليون إنه للحماية من هذا النوع من عمليات الاحتيال يمكن القيام بجملة من الخطوات والاجراءات مثل تجميد الائتمان الخاص بالشخص، أو الحصول على توكيل رسمي لأحد الوالدين الضعفاء.

ويقول الخبراء إن عمليات الاحتيال الصوتي تلقى رواجاً واسعاً حالياً، حيث إنها الأكثر شيوعاً من بين عمليات الاحتيال التي تم الإبلاغ عنها إلى لجنة التجارة الفيدرالية الأميركية (FTC) في عام 2023، وشهدت الوكالة زيادة في التقارير عن منتحلي الشخصيات التجارية والحكومية.

وتعد وسائل التواصل الاجتماعي أرضاً خصبة لجمع المحتوى الخاص بعمليات الاحتيال هذه.

التزييف العميق
ومع التقدم في الذكاء الاصطناعي، يمكن للمحتال تشغيل بضع ثوانٍ فقط من الصوت مأخوذة من مقطع فيديو منشور على شبكات التواصل، وذلك من أجل إنتاج صوت يقول ما يريد، وفقاً لشركة أمن الكمبيوتر “مكافي”.

وقالت كارولين ماكلاناهان، وهي مخططة مالية وطبيبة معتمدة في فلوريدا: “يجب على الجميع أن يعلموا أن التزييف العميق أصبح أكثر شيوعاً وأسهل في القيام به، وهناك صناعات كاملة تتمحور حول الاحتيال على الأشخاص”.

وعادةً ما تحاكي عمليات الاحتيال الصوتي التي تعتمد على الذكاء الاصطناعي مكالمات الاستغاثة. حيث يمكن أن يكون شخصاً عالقاً على جانب الطريق بعد تعطل سيارته أو شخصاً يتصل من السجن في بلد أجنبي مدعياً أنه يحتاج إلى أموال الكفالة، والقاسم المشترك بين هذ المكالمات هو أنها تأتي من شخص تهتم به ويحتاج إلى المال بسرعة.

ووجد استطلاع أجرته شركة (McAfee) عام 2023 أن 25% من البالغين تعرضوا لعملية احتيال صوتية مماثلة تعمل بالذكاء الاصطناعي، وتقول الشركة إن 77% من الضحايا فقدوا أموالاً نتيجة لذلك، كما استطلعت الشركة آراء 7054 شخصاً بالغاً في سبع دول، بما في ذلك 1009 في الولايات المتحدة.

وقالت ماكلاناهان: “إنهم يستهدفون كبار السن، لأننا مع تقدمنا في السن، نفقد المرونة المعرفية، مما يعني أننا لا نستطيع اتخاذ القرارات بسرعة، وبالتالي يستغرق الأمر وقتاً أطول منا للتفكير في الأشياء. ولذلك يستخدم هؤلاء المحتالون تقنيات مثل الخوف والإلحاح لمحاولة دفعك إلى التصرف فوراً”.

لكن كبار السن ليسوا الوحيدين المعرضين للخطر؛ بحسب ما يؤكد الخبير أندرو سيفرتسن، والذي يقول إن الشباب الذين يقضون وقتاً أطول على الإنترنت معرضون للخطر بشكل متزايد.

وأضاف سيفرتسن: “عندما تفكر في الجيل Z وجيل الألفية من الشباب، أعني أن عدد مرات الظهور التي لديهم عبر الإنترنت باستخدام التكنولوجيا أكبر بشكل كبير من كبار السن، وبالتالي فإنهم يقعون ضحية لعدد أكبر من عمليات الاحتيال”.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى