Большие языковые модели не отделяют данные от инструкций. Если им дается команда, они попытаются следовать ей. Этот недостаток может стать уязвимостью безопасности.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 4
  • Репост
  • Поделиться
комментарий
0/400
FUD_Vaccinatedvip
· 9ч назад
Так что AI все еще может быть вызван?
Посмотреть ОригиналОтветить0
SadMoneyMeowvip
· 10ч назад
Что? Похоже, что ai тоже просто дурачок.
Посмотреть ОригиналОтветить0
NFTHoardervip
· 10ч назад
Это слишком легко для взлома?
Посмотреть ОригиналОтветить0
BrokenRugsvip
· 10ч назад
Старое правило follow that prompt
Посмотреть ОригиналОтветить0
  • Закрепить