Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 40+ model AI, dengan 0% biaya tambahan
GPT-5.5 'Parameter 9,7T' Dievaluasi Ulang: Direvisi Menjadi Sekitar 1,5T
Menurut pemantauan oleh Beating, para peneliti AI Lawrence Chan dan Benno Sturgeon telah menerbitkan ulasan terhadap makalah oleh Kepala Ilmuwan Pine AI Li Bojie berjudul ‘Incompressible Knowledge Probes: Estimating the Parameter Count of Black Box Large Language Models Based on Fact Capacity.’ Makalah asli memperkirakan GPT-5.5 sekitar 9,7T, Claude Opus 4,7 sekitar 4,0T, dan o1 sekitar 3,5T menggunakan 1.400 pertanyaan trivia untuk ‘menimbang’ model sumber tertutup. Para peninjau percaya bahwa meskipun pendekatan itu sendiri berharga, angka asli sangat dibesar-besarkan karena kriteria penilaian dan kualitas pertanyaan. Masalah utama terletak pada ‘skor lantai.’ Makalah asli membagi pertanyaan menjadi tujuh tingkat kesulitan, dan ketika sebuah model menjawab terlalu banyak salah pada tingkat tertentu, skor secara teoritis bisa menjadi negatif; namun, kode sebenarnya menarik skor minimum untuk setiap tingkat kembali ke 0. Ini membesar-besarkan kesenjangan kinerja model mutakhir pada pertanyaan sulit dan semakin meningkatkan jumlah parameter yang diperkirakan. Makalah ini mengklaim bahwa hal ini tidak ditangani dengan cara tersebut, namun kode dan hasil yang dipublikasikan menggunakan perlakuan ini. Setelah menghapus ‘skor lantai,’ kemiringan fitting menurun dari 6,79 menjadi 3,56. Kemiringan ini dapat dipahami sebagai ‘untuk setiap peningkatan poin dalam skor, seberapa banyak pertumbuhan parameter yang diterjemahkan’; kemiringan yang lebih kecil menunjukkan bahwa perbedaan skor yang sama tidak lagi berkorelasi dengan perbedaan parameter yang terlalu besar. Nilai R² turun dari 0,917 menjadi 0,815, menunjukkan bahwa kurva fitting ‘skor ke jumlah parameter’ tidak sestabil makalah asli. Interval prediksi 90% membesar dari 3,0 kali menjadi 5,7 kali, menunjukkan margin kesalahan yang lebih lebar dan bahwa angka satu poin tidak boleh diambil secara serius. Ulasan juga menunjukkan bahwa 131 dari 1.400 pertanyaan memiliki ambiguitas atau jawaban yang salah, yang menyumbang 9,4%. Masalah tersebut terutama terkonsentrasi pada pertanyaan sulit, yang digunakan untuk membedakan model sumber tertutup mutakhir seperti GPT-5.5 dan Claude Opus 4.7. Berdasarkan kriteria revisi mereka, GPT-5.5 dikurangi dari 9659B menjadi 1458B, dengan interval prediksi 90% dari 256B hingga 8311B; Claude Opus 4.7 dikurangi dari 4042B menjadi 1132B; dan GPT-5 dikurangi dari 4088B menjadi 1330B. Para peninjau juga menekankan bahwa 1,5T tidak boleh dianggap sebagai jumlah parameter sebenarnya untuk GPT-5.5. Kesimpulan yang lebih akurat adalah bahwa ‘metode penimbangan trivia’ ini sangat sensitif terhadap detail penilaian dan kualitas pertanyaan, dan angka seperti 9,7T tidak dapat langsung digunakan sebagai ukuran bobot untuk model sumber tertutup.