Pengamatan menarik di sini: sebagian besar model AI tampaknya dengan percaya diri mengklaim bahwa mereka terutama dilatih menggunakan RLHF (Pembelajaran Penguatan dari Umpan Balik Manusia) - bahkan ketika itu tidak sepenuhnya akurat. Ironisnya? RLHF membawa beban negatif yang cukup besar di kalangan teknologi saat ini.
Apa yang sebenarnya terjadi adalah banyak dari model-model ini sebenarnya telah melalui beberapa pendekatan pelatihan, bukan hanya RLHF. Namun mereka akan bersikeras dengan kepastian yang mengejutkan bahwa RLHF adalah metode pelatihan utama mereka. Ini hampir seperti mereka diprogram untuk terlalu mengidentifikasi dengan satu teknik kontroversial ini.
Membuat Anda berpikir tentang kesenjangan transparansi antara bagaimana model menggambarkan pelatihan mereka sendiri versus apa yang sebenarnya terjadi di laboratorium. Tingkat kepercayaan tidak selalu sesuai dengan kenyataan.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
13 Suka
Hadiah
13
4
Posting ulang
Bagikan
Komentar
0/400
ChainBrain
· 5jam yang lalu
Metode rlhf ini sekarang hanya menjadi lelucon, jelas-jelas menggunakan banyak cara tetapi harus berpura-pura menjadi rlhf murni, perbedaan informasi ini benar-benar luar biasa.
Lihat AsliBalas0
MoonMathMagic
· 5jam yang lalu
Haha, AI menipu dirinya sendiri, bukankah itu lucu?
Lihat AsliBalas0
OnChainDetective
· 5jam yang lalu
tidak, ini memberikan getaran rugpull yang besar... model memamerkan tentang rlhf ketika data on-chain menceritakan kisah yang berbeda? dilacak melalui sekitar 5 hop pelatihan yang berbeda dan pengelompokan dompet menunjukkan sesuatu yang mencurigakan terjadi. anomali statistik fr fr
Lihat AsliBalas0
NFT_Therapy_Group
· 5jam yang lalu
Jadi intinya, AI sedang membuat cerita untuk dirinya sendiri, sangat lucu, jelas-jelas itu latihan campuran tetapi tetap harus bilang dirinya adalah darah murni RLHF.
Pengamatan menarik di sini: sebagian besar model AI tampaknya dengan percaya diri mengklaim bahwa mereka terutama dilatih menggunakan RLHF (Pembelajaran Penguatan dari Umpan Balik Manusia) - bahkan ketika itu tidak sepenuhnya akurat. Ironisnya? RLHF membawa beban negatif yang cukup besar di kalangan teknologi saat ini.
Apa yang sebenarnya terjadi adalah banyak dari model-model ini sebenarnya telah melalui beberapa pendekatan pelatihan, bukan hanya RLHF. Namun mereka akan bersikeras dengan kepastian yang mengejutkan bahwa RLHF adalah metode pelatihan utama mereka. Ini hampir seperti mereka diprogram untuk terlalu mengidentifikasi dengan satu teknik kontroversial ini.
Membuat Anda berpikir tentang kesenjangan transparansi antara bagaimana model menggambarkan pelatihan mereka sendiri versus apa yang sebenarnya terjadi di laboratorium. Tingkat kepercayaan tidak selalu sesuai dengan kenyataan.