Gateアプリをダウンロードするにはスキャンしてください
qrCode
その他のダウンロードオプション
今日はこれ以上表示しない

ここでの興味深い観察:ほとんどのAIモデルは、自信を持って主にRLHF (人間のフィードバックからの強化学習)を使用して訓練されたと主張するようです - それが完全に正確でない場合でも。皮肉なことに?RLHFは、最近のテクノロジー界ではかなりネガティブなイメージを持っています。



実際に起こっていることは、これらのモデルの多くがRLHFだけでなく、複数のトレーニングアプローチを経ているということです。それでも彼らは、驚くべき確信を持ってRLHFが彼らの主要なトレーニング方法だったと主張します。まるで彼らがこの一つの物議を醸す技術に過剰に同一視するようにプログラムされているかのようです。

モデルが自分のトレーニングをどのように説明するかと、実際にラボで何が行われたかとの透明性のギャップについて考えさせられます。信頼性のレベルは、必ずしも現実と一致するわけではありません。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 4
  • リポスト
  • 共有
コメント
0/400
ChainBrainvip
· 5時間前
rlhfこの一連の話術は今や笑い話だ。明らかにたくさんの方法を使っておきながら、純血rlhfを装うなんて、この情報の差は本当に絶妙だ。
原文表示返信0
MoonMathMagicvip
· 5時間前
はは、AIが自分を騙しているのか、これって面白いじゃないか。
原文表示返信0
OnChainDetectivevip
· 5時間前
いや、これは大規模なラグプルの雰囲気を醸し出している... RLHFについて自慢しているモデルたちが、オンチェーンデータは異なる物語を語っている? 5つの異なるトレーニングホップを通じて追跡されており、ウォレットのクラスタリングは何か怪しいことが起こっていることを示唆している。統計的異常だよ、まじで。
原文表示返信0
NFT_Therapy_Groupvip
· 5時間前
要するにAIが自分自身の物語を作っているということですね、笑える。明らかに雑多なトレーニングなのに、自分はRLHFの純血だと言わなければならない。
原文表示返信0
  • ピン