"Terutama jika Anda adalah figur publik dengan banyak rekaman video atau suara yang tersedia, hal itu bisa digunakan untuk mendapatkan sampel suara AI," ujarnya, melansir Kompas.com, Senin (22/7/2024).
Alfons mengungkapkan, saat ini kecerdasan buatan memang mampu mereplikasi suara seseorang hanya dengan modal sampel selama 3 detik.
Baca Juga:
Harpelnas 2024, KRT Tohom Purba Dorong Integrasi AI untuk Optimalkan Perlindungan Konsumen
Namun, hasil rekayasa dari sedikit sampel tersebut biasanya masih terlihat kurang sempurna dan jauh dari suara aslinya.
Sebaliknya, semakin banyak sampel suara yang tersedia, semakin sempurna pula suara palsu yang dihasilkan.
"Membedakan suara asli dan tiruan semakin lama semakin sulit, karena kemampuan AI untuk memalsukan gambar dan suara semakin sempurna," ujarnya.
Baca Juga:
Kominfo Sebut Ratusan Perusahaan Pakai Surat Edaran AI Meski Sifatnya Anjuran
Oleh karena itu, Alfons mengingatkan masyarakat untuk tidak langsung mengikuti perintah saat menerima telepon dari nomor asing.
Menurutnya, sangat penting untuk melakukan verifikasi sebelum menuruti permintaan dari pihak yang tidak dikenal.
Sebagai contoh, jika menerima panggilan dari seseorang yang suaranya mirip anggota keluarga dan mengabarkan bahwa mereka mengalami kecelakaan serta meminta uang, jangan langsung mengirimkan uang tersebut. Pastikan untuk memverifikasi dengan menghubungi anggota keluarga yang bersangkutan.