Tuesday, 23 December 2025

📢 Suara Ibu Pun Boleh Jadi Senjata Scammer Sekarang


https://www.bharian.com.my/amp/rencana/komentar/2025/07/1421832/bijak-manfaatkan-ai-lahir-pekerja-bermotivasi

Dengan kemajuan AI & deepfake, scammer kini boleh menggunakan suara orang yang kita kenal — termasuk ibu — untuk menipu.

Bukan lagi sekadar mesej palsu atau panggilan misteri, teknologi kini membuat suara tampak dan kedengaran asli.

🤖 1. AI Deepfake Suara Semakin Mudah Digunakan

Hanya perlu rakaman pendek suara seseorang,

AI boleh menghasilkan panggilan atau mesej audio yang sama persis dengan suara asli,

Digunakan untuk menipu wang, maklumat, atau akses akaun.

Contohnya: “Anak, tolong transfer duit sekarang. Ini ibu.”

⚠️ 2. Risiko Terhadap Individu & Keluarga

Wang hilang,

Data peribadi dicuri,

Hubungan kepercayaan keluarga tergugat.

Kadang-kadang, mangsa percaya suara itu tanpa syak kerana terdengar “real”.

🧠 3. Tanda Panggilan Atau Mesej Mencurigakan

Tekanan segera untuk buat sesuatu,

Arahan pelik atau tidak sesuai situasi,

Suara terlalu “sempurna” atau mesej terlalu formal.

Jangan bertindak segera walaupun suara nampak seperti ibu atau ahli keluarga.

💡 4. Cara Lindungi Diri

Sahkan melalui panggilan video atau mesej lain,

Jangan beri akses akaun atau transfer wang segera,

Didik ahli keluarga tentang risiko AI & scam suara,

Gunakan aplikasi keselamatan digital untuk pengesahan.

🔑 KESIMPULAN

Teknologi boleh membantu, tetapi juga boleh disalahguna.

Kesedaran adalah langkah pertama untuk elak menjadi mangsa scam AI

No comments:

Post a Comment