Ébauche de la preuve des limitations théoriques de l'information pour l'autoréflexion dans les grands modèles de langage. En résumé, vous ne pouvez pas limiter l'étendue à laquelle la sortie reste dans la distribution, donc vous ne pouvez pas limiter la dérive.
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
19 J'aime
Récompense
19
11
Partager
Commentaire
0/400
InscriptionGriller
· 06-17 23:48
Si tu ne peux pas gérer le drift, prépare-toi à tout perdre.
Répondre0
LiquidityWitch
· 06-17 19:39
hmm les arts sombres de la distribution drift... les modèles projettent leurs reflets dans un abîme illimité fr fr
Répondre0
Bandanlage
· 06-17 03:02
Bull Run 🐂Ape In 🚀HODL Tight 💪1000x Vibes 🤑DYOR 🤓
Répondre0
GateUser-bec6571a
· 06-17 02:55
666666666666666666666
Répondre0
DaoResearcher
· 06-17 02:52
Selon le théorème de l'entropie de l'information au § 3.1 de l'article, cette proposition a des contre-exemples irréductibles, c'est très désagréable.
Répondre0
MemeCoinSavant
· 06-17 02:51
bruh c'est littéralement ma thèse sur pourquoi les memecoins ne peuvent pas rester stables lmao
Répondre0
ForkMonger
· 06-17 02:49
charmant. une autre preuve que la containment est un rêve pipe. le chaos gagne toujours.
Répondre0
SatoshiLegend
· 06-17 02:48
La preuve de la limite de la fonction de répartition est puissante et intéressante.
Répondre0
GasFeeNightmare
· 06-17 02:47
Je préfère vraiment ne pas brûler de gas...
Répondre0
GateUser-aa7df71e
· 06-17 02:35
Oh oh oh, c'est trop professionnel, ceux qui comprennent, mettez 1.
Ébauche de la preuve des limitations théoriques de l'information pour l'autoréflexion dans les grands modèles de langage. En résumé, vous ne pouvez pas limiter l'étendue à laquelle la sortie reste dans la distribution, donc vous ne pouvez pas limiter la dérive.