Anthropic anunció este mes un modelo llamado Claude Mythos. Dijo que era demasiado peligroso para lanzarlo.


Lo bloquearon detrás de una coalición verificada de AWS, Apple, Microsoft, Google y JPMorgan a un precio cinco veces superior a su modelo más cercano.
El argumento era que encuentra vulnerabilidades en el software que ningún humano o IA había detectado antes.
Dos semanas después, un investigador de seguridad identificó exactamente los mismos errores que Anthropic mostró como prueba y los introdujo en modelos pequeños, económicos y abiertos que cualquiera puede ejecutar.
Cada uno encontró el error principal. Un modelo de peso abierto de un laboratorio chino también notó algo que el anuncio de Anthropic no: el error es wormable.
Se propaga de máquina en máquina por sí solo.
Esa es la diferencia entre una falla grave y algo que puede derribar hospitales en 150 países en un fin de semana.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado