WAHANANEWS.CO, Jakarta - Di balik interaksi santun pengguna dengan ChatGPT, tersimpan cerita menarik tentang biaya besar yang harus ditanggung perusahaan pembuatnya.
Ungkapan sederhana seperti “tolong” dan “terima kasih” ternyata berdampak nyata pada operasional OpenAI secara teknis dan finansial.
Baca Juga:
Instagram Rajai Daftar Aplikasi Terpopuler di Dunia, Ini 10 Besar Lainnya
Tak sedikit pengguna ChatGPT yang membubuhi permintaan mereka dengan kata-kata sopan seperti “tolong” dan “terima kasih”.
Meskipun sedang berkomunikasi dengan kecerdasan buatan (AI), kebiasaan ini dianggap sebagai bentuk kesopanan atau etika digital.
Namun siapa sangka, kata-kata sopan tersebut ternyata membawa beban biaya bagi OpenAI, perusahaan di balik pengembangan ChatGPT.
Baca Juga:
Siap Lawan ChatGPT, Meta AI Dikabarkan Siapkan Aplikasi Sendiri
Hal ini terungkap dari cuitan CEO OpenAI, Sam Altman, di platform media sosial X (sebelumnya dikenal sebagai Twitter).
Altman menjelaskan bahwa penggunaan frasa “tolong” dan “terima kasih” dari pengguna menyebabkan OpenAI harus mengeluarkan biaya hingga jutaan dollar.
Biaya ini berasal dari konsumsi energi yang dibutuhkan untuk memproses token tambahan yang dihasilkan oleh kata-kata tersebut.
Penjelasan tersebut bermula dari pertanyaan seorang pengguna X dengan akun @tomieinlove yang menanyakan, “Saya penasaran berapa banyak biaya listrik yang dihabiskan OpenAI karena orang-orang mengucapkan 'tolong' dan 'terima kasih' ke model AI mereka?”
Altman kemudian menjawab dengan santai namun menyiratkan realita yang cukup mengejutkan.
“Puluhan juta dollar terpakai untuk itu. Anda pasti tidak pernah tahu,” tulis Altman lewat akun @sama, meski ia tidak merinci secara spesifik angka pastinya.
Pernyataan Altman ini mengindikasikan bahwa meskipun ada biaya besar di balik kesopanan pengguna, OpenAI tampaknya tidak terlalu mempermasalahkannya.
Secara teknis, setiap perintah atau pertanyaan yang dimasukkan ke dalam model AI seperti ChatGPT akan diproses dalam bentuk token.
Token inilah yang menjadi satuan kerja pemrosesan dalam sistem AI, dan tiap token memerlukan sumber daya komputasi tertentu.
Dikutip dari KompasTekno dan TechSpot, untuk model GPT-3.5 Turbo, frasa seperti “tolong” dan “terima kasih” biasanya menambah sekitar dua hingga empat token.
Dengan perhitungan biaya 0,0015 dolar AS per 1.000 input token dan 0,002 dolar AS per 1.000 output token, maka tambahan dua hingga empat token hanya memakan biaya sekitar 0,0000015 hingga 0,000002 dolar AS per interaksi.
Jika diakumulasi, angka ini bisa mencapai sekitar 400 dolar AS per hari atau sekitar 146.000 dolar AS per tahun.
Meskipun jumlah tersebut lebih kecil dari klaim Altman soal “puluhan juta dolar”, tetap saja menunjukkan adanya beban biaya riil dari interaksi yang tampaknya sepele ini.
Token-token ini diproses menggunakan perangkat keras berperforma tinggi seperti GPU, TPU, serta komponen lainnya yang membutuhkan daya listrik besar dan sistem pendingin yang juga menyerap energi.
Sebagai ilustrasi, pelatihan model GPT-3 membutuhkan sekitar 1.287 megawatt-jam (MWh) listrik, cukup untuk memasok kebutuhan energi 120 rumah tangga di AS selama setahun penuh, menurut laporan The Economic Times.
Lebih lanjut, laporan dari Towards Data Science pada Agustus 2024 menyebutkan bahwa pelatihan GPT-4 selama 90 hingga 100 hari menghabiskan sekitar 62.000 MWh listrik—angka yang setara dengan konsumsi energi 1.000 rumah tangga AS selama 5 hingga 6 tahun.
Model GPT-4 sendiri merupakan inti dari ChatGPT dan Microsoft Copilot. Model ini dilatih menggunakan 25.000 unit GPU Nvidia A100 yang tersebar di sekitar 3.125 server.
Jika satu server diasumsikan menggunakan daya sekitar 6,5 kilowatt (kW) berdasarkan spesifikasi Nvidia DGX, maka satu server dapat menyedot hingga 14.040 hingga 15.600 KWh listrik selama periode pelatihan.
Total konsumsi listrik semua server selama pelatihan GPT-4 diperkirakan berkisar antara 43,8 juta hingga 48,7 juta KWh.
Bila ditambahkan faktor efektivitas penggunaan daya (PUE) pusat data Microsoft Azure yang rata-rata sebesar 1,18, maka konsumsi listrik tersebut meningkat menjadi antara 51.772 MWh dan 57.525 MWh.
Angka tersebut sekitar 40 kali lipat lebih besar dibandingkan konsumsi listrik yang digunakan untuk melatih model sebelumnya, GPT-3.
Fakta ini menunjukkan bahwa meskipun hanya terdiri dari kata-kata sopan, setiap tambahan token dalam permintaan ke AI seperti ChatGPT berdampak pada konsumsi energi dan biaya yang tidak kecil.
Kesantunan digital, meskipun bernilai baik, tetap membawa konsekuensi teknis dan ekonomi yang signifikan di balik layar teknologi kecerdasan buatan.
[Redaktur: Elsya Tri Ahaddini]