OpenAI y Anthropic prueban mutuamente problemas de alucinaciones y seguridad de los modelos

robot
Generación de resúmenes en curso

Jin10 datos del 28 de agosto, OpenAI y Anthropic se evaluaron mutuamente sus modelos recientemente, con el fin de identificar posibles problemas que podrían haberse pasado por alto en sus propias pruebas. Ambas compañías informaron el miércoles en sus respectivos blogs que, este verano, realizaron pruebas de seguridad de los modelos de IA disponibles públicamente de cada una y verificaron si los modelos presentaban tendencias de alucinación, así como el problema conocido como "desalineación" (misalignment), es decir, si los modelos no operaban según lo esperado por los desarrolladores. Estas evaluaciones se completaron antes del lanzamiento de GPT-5 por parte de OpenAI y la publicación de Opus 4.1 por parte de Anthropic a principios de agosto. Anthropic fue fundada por ex-empleados de OpenAI.

GPT-2.26%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Temas relacionados
#
ai
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)