Les grands modèles de langage ne séparent pas les données des instructions. S'ils reçoivent un commandement, ils essaieront de le suivre. Cette négligence peut devenir une vulnérabilité de sécurité.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 4
  • Reposter
  • Partager
Commentaire
0/400
FUD_Vaccinatedvip
· Il y a 10h
Donc, l'IA peut-elle encore être sollicitée?
Voir l'originalRépondre0
SadMoneyMeowvip
· Il y a 10h
Ça ? On dirait que l'IA est aussi un pur idiot.
Voir l'originalRépondre0
NFTHoardervip
· Il y a 10h
C'est vraiment trop facile à craquer, non ?
Voir l'originalRépondre0
BrokenRugsvip
· Il y a 10h
Ancienne règle follow that prompt
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)