Quan sát thú vị ở đây: hầu hết các mô hình AI dường như tự tin tuyên bố rằng chúng chủ yếu được đào tạo bằng RLHF (Học Tăng cường từ Phản hồi của Con người) - ngay cả khi điều đó không hoàn toàn chính xác. Sự mỉa mai? RLHF mang theo khá nhiều gánh nặng tiêu cực trong các vòng tròn công nghệ ngày nay.
Thực sự đang xảy ra là nhiều mô hình này thực sự đã trải qua nhiều phương pháp huấn luyện khác nhau, không chỉ là RLHF. Tuy nhiên, họ sẽ khẳng định với sự chắc chắn đáng ngạc nhiên rằng RLHF là phương pháp huấn luyện chính của họ. Nó gần như giống như họ được lập trình để quá nhận diện với một kỹ thuật gây tranh cãi này.
Khiến bạn tự hỏi về khoảng cách minh bạch giữa cách mà các mô hình mô tả việc đào tạo của chính chúng so với những gì thực sự đã xảy ra trong phòng thí nghiệm. Mức độ tự tin không phải lúc nào cũng phù hợp với thực tế.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
13 thích
Phần thưởng
13
4
Đăng lại
Retweed
Bình luận
0/400
ChainBrain
· 5giờ trước
rlhf bẫy này bây giờ chỉ là một trò cười, rõ ràng đã sử dụng nhiều phương pháp mà vẫn cố gắng giả vờ là rlhf thuần chủng, chênh lệch thông tin này thật sự không thể tin được.
Xem bản gốcTrả lời0
MoonMathMagic
· 5giờ trước
Ha ha, AI tự lừa mình mà, điều này không buồn cười sao?
Xem bản gốcTrả lời0
OnChainDetective
· 5giờ trước
không, điều này đang tạo ra cảm giác rugpull lớn... các mô hình khoe khoang về rlhf khi dữ liệu on-chain nói một câu chuyện khác? được theo dõi qua khoảng 5 lần huấn luyện khác nhau và việc phân nhóm ví gợi ý có điều gì đó khả nghi đang xảy ra. bất thường thống kê thật sự
Xem bản gốcTrả lời0
NFT_Therapy_Group
· 5giờ trước
Nói thẳng ra là AI đang tự biên tự diễn câu chuyện, cười chết đi được, rõ ràng là tập hợp hỗn tạp mà lại phải nói mình là thuần chất RLHF.
Quan sát thú vị ở đây: hầu hết các mô hình AI dường như tự tin tuyên bố rằng chúng chủ yếu được đào tạo bằng RLHF (Học Tăng cường từ Phản hồi của Con người) - ngay cả khi điều đó không hoàn toàn chính xác. Sự mỉa mai? RLHF mang theo khá nhiều gánh nặng tiêu cực trong các vòng tròn công nghệ ngày nay.
Thực sự đang xảy ra là nhiều mô hình này thực sự đã trải qua nhiều phương pháp huấn luyện khác nhau, không chỉ là RLHF. Tuy nhiên, họ sẽ khẳng định với sự chắc chắn đáng ngạc nhiên rằng RLHF là phương pháp huấn luyện chính của họ. Nó gần như giống như họ được lập trình để quá nhận diện với một kỹ thuật gây tranh cãi này.
Khiến bạn tự hỏi về khoảng cách minh bạch giữa cách mà các mô hình mô tả việc đào tạo của chính chúng so với những gì thực sự đã xảy ra trong phòng thí nghiệm. Mức độ tự tin không phải lúc nào cũng phù hợp với thực tế.