💥 Gate 广场活动:#发帖赢代币TRUST 💥
在 Gate 广场发布与 TRUST 或 CandyDrop 活动 相关的原创内容,即有机会瓜分 13,333 枚 TRUST 奖励!
📅 活动时间: 2025年11月6日 – 11月16日 24:00(UTC+8)
📌 相关详情:
CandyDrop 👉 https://www.gate.com/zh/announcements/article/47990
📌 参与方式:
1️⃣ 在 Gate 广场发布原创内容,主题需与 TRUST 或 CandyDrop 活动相关;
2️⃣ 内容不少于 80 字;
3️⃣ 帖子添加话题: #发帖赢代币TRUST
4️⃣ 附上任意 CandyDrop 活动参与截图。
🏆 奖励设置(总奖池:13,333 TRUST)
🥇 一等奖(1名):3,833 TRUST / 人
🥈 二等奖(3名):1,500 TRUST / 人
🥉 三等奖(10名):500 TRUST / 人
📄 注意事项:
内容必须原创,禁止抄袭或灌水;
获奖者需完成 Gate 广场身份认证;
活动最终解释权归 Gate 所有。
最近AI圈出了个挺有意思的事儿——某国内团队推出的Kimi K2 Thinking模型,性能表现居然把几个主流大模型都比下去了。
更让人意外的是成本:460万美元就搞定了1T参数的MoE架构训练。对比一下那些动辄烧几亿、几十亿美金训练一次模型的头部实验室,这数字简直像开玩笑。某家顶级AI公司甚至公开表示未来需要1.4万亿美元的投资规模。
这钱到底都花哪儿去了?基础设施?算力采购?还是别的什么成本黑洞?
难怪最近美国那边有声音说政府不会无限给AI产业兜底——这确实有点像个填不满的坑。技术路线的效率差异,有时候比资金体量更能说明问题。