Recentemente, surgiu algo bastante interessante no mundo da IA - um modelo chamado Kimi K2 Thinking, lançado por uma equipe nacional, que conseguiu superar o desempenho de vários modelos grandes e populares.
Ainda mais surpreendente é o custo: 4,6 milhões de dólares para treinar a arquitetura MoE com 1T de parâmetros. Comparado aos principais laboratórios que gastam centenas de milhões ou até bilhões de dólares para treinar um único modelo, esse número parece uma piada. Uma empresa de IA de topo chegou a declarar publicamente que precisará de um investimento de 1,4 trilhões de dólares no futuro.
Para onde foi todo esse dinheiro? Infraestruturas? Aquisição de poder de computação? Ou é algum outro buraco negro de custos?
Não é de admirar que recentemente haja vozes nos EUA dizendo que o governo não irá apoiar indefinidamente a indústria de IA – isso realmente parece um buraco que nunca se enche. A diferença de eficiência nas rotas tecnológicas, às vezes, pode explicar melhor o problema do que o volume de financiamento.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
12 gostos
Recompensa
12
6
Republicar
Partilhar
Comentar
0/400
token_therapist
· 3h atrás
Todo esse dinheiro foi gasto com o secretário, né?
Ver originalResponder0
DefiPlaybook
· 3h atrás
Com base na análise de ROI, um custo de 4,6 milhões atinge uma escala de 1 trilhão de parâmetros, com uma melhoria geral de eficiência de 174%
Ver originalResponder0
ReverseTradingGuru
· 3h atrás
O custo é um problema sério.
Ver originalResponder0
ThatsNotARugPull
· 3h atrás
Só estás a gastar dinheiro a brincar, é isso?
Ver originalResponder0
MysteryBoxOpener
· 3h atrás
Queimar dinheiro não é melhor do que usar a cabeça.
Ver originalResponder0
DefiOldTrickster
· 3h atrás
armadilha, não é só uma mudança de pele na jogada? Esta armadilha envelheceu.
Recentemente, surgiu algo bastante interessante no mundo da IA - um modelo chamado Kimi K2 Thinking, lançado por uma equipe nacional, que conseguiu superar o desempenho de vários modelos grandes e populares.
Ainda mais surpreendente é o custo: 4,6 milhões de dólares para treinar a arquitetura MoE com 1T de parâmetros. Comparado aos principais laboratórios que gastam centenas de milhões ou até bilhões de dólares para treinar um único modelo, esse número parece uma piada. Uma empresa de IA de topo chegou a declarar publicamente que precisará de um investimento de 1,4 trilhões de dólares no futuro.
Para onde foi todo esse dinheiro? Infraestruturas? Aquisição de poder de computação? Ou é algum outro buraco negro de custos?
Não é de admirar que recentemente haja vozes nos EUA dizendo que o governo não irá apoiar indefinidamente a indústria de IA – isso realmente parece um buraco que nunca se enche. A diferença de eficiência nas rotas tecnológicas, às vezes, pode explicar melhor o problema do que o volume de financiamento.