"Terutama jika Anda adalah figur publik dengan banyak rekaman video atau suara yang tersedia, hal itu bisa digunakan untuk mendapatkan sampel suara AI," ujarnya, melansir Kompas.com, Senin (22/7/2024).
Alfons mengungkapkan, saat ini kecerdasan buatan memang mampu mereplikasi suara seseorang hanya dengan modal sampel selama 3 detik.
Baca Juga:
Hadapi Lonjakan Konektivitas Saat Ramadan dan Lebaran, Indosat Perkuat Jaringan dengan AI
Namun, hasil rekayasa dari sedikit sampel tersebut biasanya masih terlihat kurang sempurna dan jauh dari suara aslinya.
Sebaliknya, semakin banyak sampel suara yang tersedia, semakin sempurna pula suara palsu yang dihasilkan.
"Membedakan suara asli dan tiruan semakin lama semakin sulit, karena kemampuan AI untuk memalsukan gambar dan suara semakin sempurna," ujarnya.
Baca Juga:
Celine Dion Peringatkan Penggemar Soal Lagu Palsu Berbasis AI di Platform Daring
Oleh karena itu, Alfons mengingatkan masyarakat untuk tidak langsung mengikuti perintah saat menerima telepon dari nomor asing.
Menurutnya, sangat penting untuk melakukan verifikasi sebelum menuruti permintaan dari pihak yang tidak dikenal.
Sebagai contoh, jika menerima panggilan dari seseorang yang suaranya mirip anggota keluarga dan mengabarkan bahwa mereka mengalami kecelakaan serta meminta uang, jangan langsung mengirimkan uang tersebut. Pastikan untuk memverifikasi dengan menghubungi anggota keluarga yang bersangkutan.