После того как компания Anthropic превзошла лучших человеческих кандидатов в своей модели искусственного интеллекта Claude Opus 4.5, она переработала домашний тест по программированию для соискателей. Команда по оптимизации производительности AI-лаборатории под руководством Tristan Hume обнаружила, что без присутствия на месте они не могут отличить лучших кандидатов от заданий, выполненных с помощью AI. Новый тест сосредоточен на новом типе задач по аппаратной оптимизации, предназначенных для того, чтобы поставить в тупик существующие инструменты AI. Hume также опубликовал старую версию теста и пригласил всех, кто сможет превзойти Claude Opus 4.5, связаться с компанией.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить