"Terutama jika Anda adalah figur publik dengan banyak rekaman video atau suara yang tersedia, hal itu bisa digunakan untuk mendapatkan sampel suara AI," ujarnya, melansir Kompas.com, Senin (22/7/2024).
Alfons mengungkapkan, saat ini kecerdasan buatan memang mampu mereplikasi suara seseorang hanya dengan modal sampel selama 3 detik.
Baca Juga:
Ribuan UMKM Bali Dapat Pelatihan AI, Telkom: Siap Hadapi Pasar Dunia
Namun, hasil rekayasa dari sedikit sampel tersebut biasanya masih terlihat kurang sempurna dan jauh dari suara aslinya.
Sebaliknya, semakin banyak sampel suara yang tersedia, semakin sempurna pula suara palsu yang dihasilkan.
"Membedakan suara asli dan tiruan semakin lama semakin sulit, karena kemampuan AI untuk memalsukan gambar dan suara semakin sempurna," ujarnya.
Baca Juga:
Hadiri Hari Kebebasan Pers Sedunia 2025 di Belgia, Dewan Pers Sebut AI Peluang Sekaligus Ancaman
Oleh karena itu, Alfons mengingatkan masyarakat untuk tidak langsung mengikuti perintah saat menerima telepon dari nomor asing.
Menurutnya, sangat penting untuk melakukan verifikasi sebelum menuruti permintaan dari pihak yang tidak dikenal.
Sebagai contoh, jika menerima panggilan dari seseorang yang suaranya mirip anggota keluarga dan mengabarkan bahwa mereka mengalami kecelakaan serta meminta uang, jangan langsung mengirimkan uang tersebut. Pastikan untuk memverifikasi dengan menghubungi anggota keluarga yang bersangkutan.