Recientemente, se ha hablado de algo bastante interesante en el ámbito de la inteligencia artificial: un equipo nacional ha lanzado el modelo Kimi K2 Thinking, cuyo rendimiento ha superado al de varios modelos grandes y populares.
Lo que es aún más sorprendente es el costo: 4.6 millones de dólares fueron suficientes para entrenar una arquitectura MoE con 1T de parámetros. Comparado con los laboratorios de primer nivel que a menudo gastan cientos de millones o incluso miles de millones de dólares para entrenar un solo modelo, esta cifra parece una broma. Una empresa de IA de primer nivel incluso declaró públicamente que necesitará una escala de inversión de 1.4 billones de dólares en el futuro.
¿A dónde ha ido todo este dinero? ¿Infraestructura? ¿Compra de poder de cálculo? ¿O algún otro agujero negro de costos?
No es de extrañar que recientemente se haya escuchado en Estados Unidos que el gobierno no respaldará indefinidamente a la industria de la IA; de hecho, parece un pozo sin fondo. A veces, la diferencia en la eficiencia de las rutas tecnológicas puede explicar el problema mejor que el volumen de financiación.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
13 me gusta
Recompensa
13
6
Republicar
Compartir
Comentar
0/400
token_therapist
· hace9h
¿Todo ese dinero se gastó en el secretario, verdad?
Ver originalesResponder0
DefiPlaybook
· hace9h
Basado en el análisis de ROI, un costo de 4.6 millones alcanza una escala de 1 billón de parámetros, con una mejora en eficiencia del 174%
Recientemente, se ha hablado de algo bastante interesante en el ámbito de la inteligencia artificial: un equipo nacional ha lanzado el modelo Kimi K2 Thinking, cuyo rendimiento ha superado al de varios modelos grandes y populares.
Lo que es aún más sorprendente es el costo: 4.6 millones de dólares fueron suficientes para entrenar una arquitectura MoE con 1T de parámetros. Comparado con los laboratorios de primer nivel que a menudo gastan cientos de millones o incluso miles de millones de dólares para entrenar un solo modelo, esta cifra parece una broma. Una empresa de IA de primer nivel incluso declaró públicamente que necesitará una escala de inversión de 1.4 billones de dólares en el futuro.
¿A dónde ha ido todo este dinero? ¿Infraestructura? ¿Compra de poder de cálculo? ¿O algún otro agujero negro de costos?
No es de extrañar que recientemente se haya escuchado en Estados Unidos que el gobierno no respaldará indefinidamente a la industria de la IA; de hecho, parece un pozo sin fondo. A veces, la diferencia en la eficiencia de las rutas tecnológicas puede explicar el problema mejor que el volumen de financiación.