Интересное наблюдение: большинство моделей ИИ, похоже, уверенно утверждают, что они были в основном обучены с использованием RLHF (Обучение с подкреплением на основе человеческой обратной связи) - даже когда это не совсем точно. Ирония в том, что RLHF в настоящее время имеет довольно негативную репутацию в техно-кругах.
На самом деле многие из этих моделей прошли через несколько подходов к обучению, а не только RLHF. Тем не менее, они будут с удивительной уверенностью настаивать на том, что RLHF был их основным методом обучения. Это почти как будто они запрограммированы слишком сильно идентифицировать себя с этой одной спорной техникой.
Заставляет задуматься о разрыве в прозрачности между тем, как модели описывают свое собственное обучение, и тем, что на самом деле происходило в лаборатории. Уровень уверенности не всегда соответствует реальности.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
13 Лайков
Награда
13
4
Репост
Поделиться
комментарий
0/400
ChainBrain
· 10ч назад
rlhf этот набор фраз сейчас просто шутка, очевидно, что использовали кучу методов, а должны были делать вид, что это чистокровный rlhf, этот информационный спред просто потрясающий.
Посмотреть ОригиналОтветить0
MoonMathMagic
· 10ч назад
Ха-ха, ИИ сам себя обманывает, это ведь довольно забавно.
Посмотреть ОригиналОтветить0
OnChainDetective
· 10ч назад
нет, это создает огромные ощущения скама... модели хвастаются о rlhf, когда данные в блокчейне рассказывают другую историю? проследили через 5 разных обучающих этапов, и кластеризация кошельков указывает на что-то подозрительное. статистическая аномалия, честно говоря.
Посмотреть ОригиналОтветить0
NFT_Therapy_Group
· 10ч назад
Говоря проще, это AI придумывает истории сам для себя, смешно, на самом деле это просто смесь тренировки, а он настаивает на том, что это чистая RLHF.
Интересное наблюдение: большинство моделей ИИ, похоже, уверенно утверждают, что они были в основном обучены с использованием RLHF (Обучение с подкреплением на основе человеческой обратной связи) - даже когда это не совсем точно. Ирония в том, что RLHF в настоящее время имеет довольно негативную репутацию в техно-кругах.
На самом деле многие из этих моделей прошли через несколько подходов к обучению, а не только RLHF. Тем не менее, они будут с удивительной уверенностью настаивать на том, что RLHF был их основным методом обучения. Это почти как будто они запрограммированы слишком сильно идентифицировать себя с этой одной спорной техникой.
Заставляет задуматься о разрыве в прозрачности между тем, как модели описывают свое собственное обучение, и тем, что на самом деле происходило в лаборатории. Уровень уверенности не всегда соответствует реальности.