Baru-baru ini ada sesuatu yang cukup menarik di dunia AI—sebuah tim domestik telah meluncurkan model Kimi K2 Thinking, dan kinerjanya ternyata mengalahkan beberapa model besar yang mainstream.
Lebih mengejutkan lagi adalah biayanya: 4,6 juta dolar AS sudah cukup untuk melatih arsitektur MoE dengan 1T parameter. Jika dibandingkan dengan laboratorium terkemuka yang sering menghabiskan ratusan juta atau bahkan miliaran dolar untuk melatih satu model, angka ini terdengar seperti lelucon. Sebuah perusahaan AI terkemuka bahkan secara terbuka menyatakan bahwa mereka membutuhkan investasi sebesar 1,4 triliun dolar AS di masa depan.
Uang ini sebenarnya pergi ke mana? Infrastruktur? Pengadaan daya komputasi? Atau lubang hitam biaya lainnya?
Tidak heran belakangan ini ada suara di Amerika yang mengatakan bahwa pemerintah tidak akan terus-menerus memberikan dukungan kepada industri AI—ini memang agak seperti lubang yang tidak bisa dipenuhi. Perbedaan efisiensi dalam jalur teknologi kadang-kadang lebih dapat menjelaskan masalah daripada ukuran dana.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
12 Suka
Hadiah
12
6
Posting ulang
Bagikan
Komentar
0/400
token_therapist
· 7jam yang lalu
Uang ini semua habis untuk sekretaris, ya?
Lihat AsliBalas0
DefiPlaybook
· 7jam yang lalu
Berdasarkan analisis ROI, biaya sebesar 4,6 juta mencapai skala parameter 1 triliun, meningkatkan efisiensi secara komprehensif sebesar 174%
Lihat AsliBalas0
ReverseTradingGuru
· 7jam yang lalu
Biaya adalah masalah serius.
Lihat AsliBalas0
ThatsNotARugPull
· 7jam yang lalu
Memang benar-benar membakar uang untuk bermain, ya?
Baru-baru ini ada sesuatu yang cukup menarik di dunia AI—sebuah tim domestik telah meluncurkan model Kimi K2 Thinking, dan kinerjanya ternyata mengalahkan beberapa model besar yang mainstream.
Lebih mengejutkan lagi adalah biayanya: 4,6 juta dolar AS sudah cukup untuk melatih arsitektur MoE dengan 1T parameter. Jika dibandingkan dengan laboratorium terkemuka yang sering menghabiskan ratusan juta atau bahkan miliaran dolar untuk melatih satu model, angka ini terdengar seperti lelucon. Sebuah perusahaan AI terkemuka bahkan secara terbuka menyatakan bahwa mereka membutuhkan investasi sebesar 1,4 triliun dolar AS di masa depan.
Uang ini sebenarnya pergi ke mana? Infrastruktur? Pengadaan daya komputasi? Atau lubang hitam biaya lainnya?
Tidak heran belakangan ini ada suara di Amerika yang mengatakan bahwa pemerintah tidak akan terus-menerus memberikan dukungan kepada industri AI—ini memang agak seperti lubang yang tidak bisa dipenuhi. Perbedaan efisiensi dalam jalur teknologi kadang-kadang lebih dapat menjelaskan masalah daripada ukuran dana.