WahanaNews.co, Jakarta - Menjawab panggilan telepon asing hanya dengan sapaan singkat selama sekitar 3 detik dilaporkan dapat mengarah pada modus penipuan suara yang menggunakan kecerdasan buatan (AI).
Di Korea Selatan, penipuan voice phishing melalui telepon yang meniru suara anggota keluarga dengan bantuan AI sedang marak dan telah menyebabkan banyak korban.
Baca Juga:
Fast Respon Indonesia Center Dipercaya Untuk Mendukung Dan Monitor Kinerja Polri
Menurut laporan dari Asia Kyungjae pada Sabtu (20/7/2024), untuk menjalankan aksinya, pelaku akan menelepon dan merekam suara korban.
Biasanya, pelaku akan menelepon dan tetap diam sampai korban, yang menjawab panggilan, mengucapkan beberapa kata.
Sampel rekaman singkat, bahkan hanya sapaan seperti "Halo, siapa ini?" dapat diolah oleh Deep Voice AI menjadi kalimat lengkap untuk menipu orang lain.
Baca Juga:
Korem 042/Gapu Peringati Hari Juang TNI AD ke-80, Perkuat Jati Diri Prajurit dan Kehadiran Negara untuk Rakyat
"Dengan menggunakan suara yang dipelajari, pelaku dapat meminta keluarga atau teman Anda mengirim uang dengan alasan darurat seperti kecelakaan lalu lintas," ujar Professor Cho Sooyoung dari Sookmyung Women's University.
Perusahaan antivirus komputer McAfee menyatakan bahwa gaya bicara dan kalimat seseorang dapat ditiru hanya dengan menggunakan sampel suara selama 3 detik.
Pakar keamanan siber dari Vaksin.com, Alfons Tanujaya, mengakui sulitnya mencegah penggunaan suara untuk AI.