"Terutama jika Anda adalah figur publik dengan banyak rekaman video atau suara yang tersedia, hal itu bisa digunakan untuk mendapatkan sampel suara AI," ujarnya, melansir Kompas.com, Senin (22/7/2024).
Alfons mengungkapkan, saat ini kecerdasan buatan memang mampu mereplikasi suara seseorang hanya dengan modal sampel selama 3 detik.
Baca Juga:
Kemendikdasmen Siapkan Generasi Emas Lewat Pelajaran AI dan Coding di SD
Namun, hasil rekayasa dari sedikit sampel tersebut biasanya masih terlihat kurang sempurna dan jauh dari suara aslinya.
Sebaliknya, semakin banyak sampel suara yang tersedia, semakin sempurna pula suara palsu yang dihasilkan.
"Membedakan suara asli dan tiruan semakin lama semakin sulit, karena kemampuan AI untuk memalsukan gambar dan suara semakin sempurna," ujarnya.
Baca Juga:
Bisa Jadi Saingan Google, Meta Kembangkan Mesin Pencari AI Sendiri
Oleh karena itu, Alfons mengingatkan masyarakat untuk tidak langsung mengikuti perintah saat menerima telepon dari nomor asing.
Menurutnya, sangat penting untuk melakukan verifikasi sebelum menuruti permintaan dari pihak yang tidak dikenal.
Sebagai contoh, jika menerima panggilan dari seseorang yang suaranya mirip anggota keluarga dan mengabarkan bahwa mereka mengalami kecelakaan serta meminta uang, jangan langsung mengirimkan uang tersebut. Pastikan untuk memverifikasi dengan menghubungi anggota keluarga yang bersangkutan.