Um dos principais aspectos é que os pesquisadores treinam modelos com um olho nos benchmarks / evals. A consistência de caracteres não tem sido um desses.
Sente-se também mais orientado para o fluxo de trabalho / funcionalidades, o que tende a ser uma área de fraqueza para a fundação.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
17 gostos
Recompensa
17
4
Republicar
Partilhar
Comentar
0/400
CryptoNomics
· 10h atrás
*sigh* a regressão das métricas de desempenho mostra um viés claro p<0.001 em direção à otimização de referência
Ver originalResponder0
NullWhisperer
· 10h atrás
hmm... caso típico de desenvolvimento orientado a eval. tecnicamente subótimo, para ser sincero
Ver originalResponder0
ForeverBuyingDips
· 10h atrás
Ai, é mais uma armadilha antiga para fazer standardização.
Ver originalResponder0
PriceOracleFairy
· 11h atrás
bruh estes modelos são como os meus algos de trading... a ajustar-se excessivamente às métricas erradas lmao
Sim, eu acho que há várias razões.
Um dos principais aspectos é que os pesquisadores treinam modelos com um olho nos benchmarks / evals. A consistência de caracteres não tem sido um desses.
Sente-se também mais orientado para o fluxo de trabalho / funcionalidades, o que tende a ser uma área de fraqueza para a fundação.