WahanaNews.co, Jakarta - Microsoft sedang menangani kebocoran data signifikan yang disebabkan oleh peneliti artificial intelligence (AI) alias kecerdasan buatan.
Gizchina, Rabu (10/09/23) melaporkan, tim AI Microsoft yang mengunggah data pelatihan agar peneliti lain dapat melatih model AI untuk pengenalan gambar, secara tidak sengaja mengekspos data sensitif tersebut.
Baca Juga:
Handalkan Pasokan Listrik, PLN UP3 Jambi Terus Sadarkan dan Himbau Masyarakat Kota Jambi Terkait Bahaya Kelistrikan
Data yang bocor mencakup banyak rahasia, kunci pribadi, kata sandi, dan lebih dari 30 ribu percakapan pesan internal tim Microsoft.
Informasi tersebut berasal dari Wiz, sebuah perusahaan keamanan cloud, yang pertama kali menyadari pelanggaran data ini.
Meski begitu, Microsoft dalam laporan resminya, mencatat bahwa tidak ada data pelanggan yang terungkap, dan tidak ada layanan internal lainnya yang berisiko karena masalah itu.
Baca Juga:
Microsoft Keluar dari Posisi Pengawas di Jajaran Direksi OpenAI
Microsoft juga menunjukkan bahwa tidak ada tindakan yang diperlukan dilakukan oleh pelanggan. Tautan ke data yang menyertakan berkas dibuat menggunakan fitur di Azure yang disebut “token SAS”.
Apa yang disebut “Token SAS” memungkinkan pengguna membuat tautan yang dapat dibagikan dengan cepat dan mudah. Wiz pertama kali menemukan akses ke data tersebut pada 22 Juni dan memberi tahu Microsoft.
Token tersebut dicabut keesokan harinya dan Microsoft mengatakan telah memperbaiki masalah tersebut, menyesuaikan token SAS yang lebih permisif daripada yang dimaksudkan.