WAHANANEWS.CO, Jakarta - Para peneliti dari Institute of Automation, Chinese Academy of Sciences (CASIA), Beijing, memperkenalkan sebuah terobosan baru dalam bidang kecerdasan buatan (AI) yang mereka beri nama SpikingBrain 1.0.
Sistem ini digambarkan sebagai model bahasa besar (LLM) yang meniru cara kerja otak manusia, dengan fokus pada efisiensi energi serta kemandirian dari chip buatan Amerika Serikat seperti Nvidia.
Baca Juga:
Beijing Dilanda Banjir Besar, Status Darurat Tertinggi Ditetapkan
Berbeda dengan model berbasis transformer konvensional yang mendominasi dunia AI saat ini, SpikingBrain 1.0 dirancang menggunakan perangkat keras buatan China dan diklaim mampu beroperasi dengan konsumsi daya yang jauh lebih rendah.
"Model bahasa besar (LLM) berbasis transformer arus utama menghadapi hambatan efisiensi yang signifikan: komputasi pelatihan berskala kuadratik dengan sekuens panjang, dan memori inferensi yang tumbuh linear," kata para peneliti dalam makalah teknis yang belum ditinjau sejawat (non-peer-reviewed).
Menurut laporan mereka, SpikingBrain 1.0 mampu menyelesaikan tugas-tugas tertentu hingga 100 kali lebih cepat dibandingkan beberapa model AI konvensional, meskipun hanya menggunakan kurang dari 2 persen data pelatihan yang biasanya dibutuhkan.
Baca Juga:
Pembersihan Militer China Makin Brutal: Miao Hua Lengser, He Weidong Menghilang
Proyek ini merupakan bagian dari penelitian neuromorfik, yaitu upaya meniru mekanisme biologis otak manusia yang dapat beroperasi hanya dengan daya sekitar 20 watt.
"Pekerjaan kami terinspirasi dari mekanisme otak," tambah para peneliti.
Teknologi inti di balik SpikingBrain 1.0 dikenal sebagai spiking computation.
Alih-alih mengaktifkan seluruh jaringan secara bersamaan, seperti yang dilakukan sistem berbasis transformer misalnya ChatGPT, SpikingBrain 1.0 hanya mengaktifkan neuron-neuron virtual tertentu ketika dipicu oleh input spesifik.
Pendekatan berbasis peristiwa (event-driven) ini menjadi kunci penghematan energi sekaligus peningkatan kecepatan pemrosesan.
Untuk membuktikan konsepnya, tim membangun dan menguji dua varian SpikingBrain 1.0: satu model dengan 7 miliar parameter dan model lebih besar dengan 76 miliar parameter.
Keduanya dilatih menggunakan sekitar 150 miliar token data, jumlah yang relatif kecil dibanding standar industri untuk skala model tersebut.
Hasil pengujian menunjukkan efisiensi luar biasa. Pada satu eksperimen, model berukuran kecil dapat merespons instruksi dengan 4 juta token lebih dari 100 kali lebih cepat dibanding sistem standar.
Dalam uji lain, varian SpikingBrain 1.0 mampu menghasilkan token pertama dari konteks satu juta token dengan kecepatan 26,5 kali lipat dibanding arsitektur transformer konvensional.
Selain itu, para peneliti melaporkan bahwa sistem mereka mampu berjalan stabil selama beberapa minggu dengan memanfaatkan ratusan chip MetaX, sebuah platform komputasi yang dikembangkan perusahaan asal Shanghai, MetaX Integrated Circuits Co.
Keberhasilan ini menunjukkan potensi nyata dalam penerapan AI di atas perangkat keras domestik.
Potensi aplikasi SpikingBrain 1.0 sangat luas, mulai dari analisis dokumen hukum dan medis yang panjang, penelitian fisika energi tinggi, hingga pengurutan DNA.
Bidang-bidang ini membutuhkan pemrosesan data berskala besar dengan kecepatan dan efisiensi tinggi.
"Hasil ini tidak hanya menunjukkan kelayakan pelatihan model besar yang efisien pada platform non-NVIDIA, tetapi juga menguraikan arah baru untuk penerapan dan penerapan model yang terinspirasi oleh otak yang skalabel dalam sistem komputasi masa depan," simpul makalah penelitian tersebut.
[Redaktur: Ajat Sudrajat]