كشفت رئيسة وزراء تايلاند، بايتونغتارن شيناواترا، تعرضها لمكالمة احتيالية من نظام ذكاء اصطناعي يقلد صوت رئيس حكومة مشهور، في محاولة لطلب المال منها.
وقالت بايتونغتارن إنها تلقت أولاً مقطعاً صوتياً لصوت زعيم معروف جداً، وقالت: “كان الصوت واضحاً جداً، وتعرفت عليه فوراً، أرسلوا أولاً مقطعاً صوتياً يقول: كيف حالك؟ أريد العمل معك”، وفقاً لما ذكرته شبكة سي إن إن الأمريكية.
وأضافت أنها تلقت بعد ذلك مكالمة من نفس الرقم، ثم رسالة صوتية.
وأوضحت: “أرسلوا رسالة صوتية أخرى يطلبون فيها تبرعاً، قائلين: أنتم الدولة الوحيدة في رابطة دول جنوب شرق آسيا التي لم تتبرع بعد”.
وأضافت بايتونغتارن أنها فور سماع الرسالة شعرت بشيء غير صحيح، لتدرك بعد ذلك أن الصوت قد يكون مستنسخاً باستخدام الذكاء الاصطناعي.
ولم تكشف رئيسة وزراء تايلاند عن هوية الزعيم الذي تم تقليد صوته، لكنها أبدت قلقها من استخدام التكنولوجيا الحديثة في عمليات الاحتيال.
Thai Prime Minister Paetongtarn Shinawatra admitted on Wednesday she had been targeted by a scam caller posing as another country’s leader using AI voice cloning, and that she almost fell for it, the Bangkok Post reported. She said that a caller claiming to be a leader of another… pic.twitter.com/L8e3nuZCkR
— Global Times (@globaltimesnews) January 16, 2025
المكالمات الاحتيالية
المكالمات الاحتيالية أصبحت أكثر شيوعاً في جنوب شرق آسيا في السنوات الأخيرة، حيث استغلت المنظمات الإجرامية التقدم التكنولوجي لتطوير صناعة احتيال كبيرة عبر الحدود، مستهدفة الأشخاص حول العالم.
ومن الأمثلة على ذلك، الحادث الذي وقع في يناير (كانون الأول) الماضي، حيث تم اختطاف ممثل صيني بعد أن خدعته عملية احتيال عبر المكالمات الهاتفية.
ويشير الخبراء إلى أن استخدام الذكاء الاصطناعي لاستنساخ الأصوات قد يفتح باباً واسعاً لمزيد من عمليات الاحتيال، مما يجعل ملايين الأشخاص عرضة للخطر.
يذكر أن شركة OpenAI، المطورة لأداة الذكاء الاصطناعي ChatGPT، قد كشفت عن أداة استنساخ الصوت “Voice Engine” في العام الماضي، لكنها لم تتيحها للجمهور بسبب المخاوف من إساءة استخدام هذه التكنولوجيا.
[ إدارة الموقع لا تتبنى وجهة نظر الكاتب او الخبر المنشور بل يقع على عاتق الناشر الاصلي ]