Epoch AI Ungkap Konsumsi Energi Nyata ChatGPT yang Lebih Rendah dari Perkiraan

Dulu sempat dikabarkan bahwa ChatGPT (Platform chatbot dari OpenAI) terlalu haus daya dimana menurut statistik yang sering dikutip, ChatGPT memerlukan sekitar 3 watt-jam daya untuk menjawab satu pertanyaan, atau 10 kali lebih banyak dari penelusuran Google.

Namun tampaknya kebutuhannya sangat bergantung pada bagaimana ChatGPT digunakan dan model AI yang menjawab pertanyaan, dimana menurut Epoch AI yang merupakan lembaga penelitian AI nirlaba, mereka berupaya menghitung berapa banyak energi yang dikonsumsi kueri ChatGPT pada umumnya dan mereka yakin bahwa perkiraan yang ada sebelumnya sangat berlebihan.

Hasil Pengujian Epoch AI

Dengan menggunakan model bawaan terbaru OpenAI untuk ChatGPT, GPT-4o sebagai referensi, Epoch menemukan rata-rata kueri ChatGPT mengonsumsi sekitar 0,3 watt-jam — lebih sedikit daripada banyak peralatan rumah tangga.

"Penggunaan energi sebenarnya tidak terlalu berarti jika dibandingkan dengan penggunaan peralatan biasa, pemanas, pendingin ruangan, atau mengendarai mobil," kata Joshua You, analis data di Epoch yang melakukan analisis tersebut, dilansir dari TechCrunch.

Nah penggunaan energi AI telah menjadi pokok perdebatan yang cukup kontroversial karena perusahaan AI berupaya memperluas jejas infrastruktur mereka dengan cepat. Bahkan menurut informasi dari Tech Crunch, Minggu lalu, sekelompok lebih dari 100 organisasi  menerbitkan surat terbuka  yang menyerukan kepada industri AI dan regulator untuk memastikan bahwa pusat data AI yang baru tidak menghabiskan sumber daya alam dan memaksa perusahaan utilitas untuk bergantung pada sumber energi yang tidak terbarukan.

"Saya telah melihat banyak wacana publik yang mengakui dengan tepat bahwa AI akan menghabiskan banyak energi dalam beberapa tahun mendatang, tetapi tidak benar-benar menggambarkan secara akurat energi yang akan digunakan untuk AI saat ini," kata You. "Selain itu, beberapa kolega saya memperhatikan bahwa estimasi yang paling banyak dilaporkan sebesar 3 watt-jam per kueri didasarkan pada penelitian yang cukup lama, dan berdasarkan beberapa perhitungan matematika tampaknya terlalu tinggi."


Pemakaian Energi Akan Makin Tinggi

Meskipun menurut laporan Epoch AI saat ini pemakaian energi dari AI tidak sebesar apa yang digembor gemborkan, namun AI akan semakin maju dimana pelatihan AI mungkin akan membutuhkan lebih banyak energi dimasa depan.

Selain itu meskipun memang telah ada terobosan dalam efisiensi AI dalam beberapa bulan terakhir, skala penerapan AI diperkirakan akan mendorong perluasan infrastruktur yang sangat besar dan boros daya. Dalam dua tahun ke depan, pusat data AI mungkin memerlukan hampir seluruh kapasitas daya California tahun 2022 (68 GW) berdasarkan laporan dari Rand.

Pada tahun 2030, pelatihan model perintis / frontier model dapat menuntut keluaran daya yang setara dengan delapan reaktor nuklir (8 GW), prediksi laporan tersebut.

Kemudian ChatGPT sendiri menjangkau jumlah orang yang sangat banyak — dan terus bertambah —, sehingga permintaan servernya pun semakin besar. Oleh karena itu OpenAI, bersama dengan beberapa mitra investasi, berencana untuk 
menghabiskan miliaran dolar untuk proyek pusat data AI baru selama beberapa tahun ke depan.

Nah menarik bukan? untuk menjalankan AI yang sangat bagus dan modern dan cepat tentunya membutuhkan daya / energi yang tidak kecil juga, kebayang deh, berapa banyak biaya yang harus OpenAI keluarga hanya untuk tagihan listriknya.

Bagaimana menurutmu? coba komen dibawah guys.

Via : Tech Crunch

Gylang Satria

Penulis, Pengguna Windows 11, Elementary OS, dan Iphone SE 2020. Tag @gylang_satria di Disqus jika ada pertanyaan.

Post navigation