https://www.bharian.com.my/amp/rencana/komentar/2025/07/1421832/bijak-manfaatkan-ai-lahir-pekerja-bermotivasi
Dengan kemajuan AI & deepfake, scammer kini boleh menggunakan suara orang yang kita kenal — termasuk ibu — untuk menipu.
Bukan lagi sekadar mesej palsu atau panggilan misteri, teknologi kini membuat suara tampak dan kedengaran asli.
🤖 1. AI Deepfake Suara Semakin Mudah Digunakan
Hanya perlu rakaman pendek suara seseorang,
AI boleh menghasilkan panggilan atau mesej audio yang sama persis dengan suara asli,
Digunakan untuk menipu wang, maklumat, atau akses akaun.
Contohnya: “Anak, tolong transfer duit sekarang. Ini ibu.”
⚠️ 2. Risiko Terhadap Individu & Keluarga
Wang hilang,
Data peribadi dicuri,
Hubungan kepercayaan keluarga tergugat.
Kadang-kadang, mangsa percaya suara itu tanpa syak kerana terdengar “real”.
🧠3. Tanda Panggilan Atau Mesej Mencurigakan
Tekanan segera untuk buat sesuatu,
Arahan pelik atau tidak sesuai situasi,
Suara terlalu “sempurna” atau mesej terlalu formal.
Jangan bertindak segera walaupun suara nampak seperti ibu atau ahli keluarga.
💡 4. Cara Lindungi Diri
Sahkan melalui panggilan video atau mesej lain,
Jangan beri akses akaun atau transfer wang segera,
Didik ahli keluarga tentang risiko AI & scam suara,
Gunakan aplikasi keselamatan digital untuk pengesahan.
🔑 KESIMPULAN
Teknologi boleh membantu, tetapi juga boleh disalahguna.
Kesedaran adalah langkah pertama untuk elak menjadi mangsa scam AI

No comments:
Post a Comment