Alih-alih mengaktifkan seluruh jaringan secara bersamaan, seperti yang dilakukan sistem berbasis transformer misalnya ChatGPT, SpikingBrain 1.0 hanya mengaktifkan neuron-neuron virtual tertentu ketika dipicu oleh input spesifik.
Pendekatan berbasis peristiwa (event-driven) ini menjadi kunci penghematan energi sekaligus peningkatan kecepatan pemrosesan.
Baca Juga:
Beijing Dilanda Banjir Besar, Status Darurat Tertinggi Ditetapkan
Untuk membuktikan konsepnya, tim membangun dan menguji dua varian SpikingBrain 1.0: satu model dengan 7 miliar parameter dan model lebih besar dengan 76 miliar parameter.
Keduanya dilatih menggunakan sekitar 150 miliar token data, jumlah yang relatif kecil dibanding standar industri untuk skala model tersebut.
Hasil pengujian menunjukkan efisiensi luar biasa. Pada satu eksperimen, model berukuran kecil dapat merespons instruksi dengan 4 juta token lebih dari 100 kali lebih cepat dibanding sistem standar.
Baca Juga:
Pembersihan Militer China Makin Brutal: Miao Hua Lengser, He Weidong Menghilang
Dalam uji lain, varian SpikingBrain 1.0 mampu menghasilkan token pertama dari konteks satu juta token dengan kecepatan 26,5 kali lipat dibanding arsitektur transformer konvensional.
Selain itu, para peneliti melaporkan bahwa sistem mereka mampu berjalan stabil selama beberapa minggu dengan memanfaatkan ratusan chip MetaX, sebuah platform komputasi yang dikembangkan perusahaan asal Shanghai, MetaX Integrated Circuits Co.
Keberhasilan ini menunjukkan potensi nyata dalam penerapan AI di atas perangkat keras domestik.