Re: 酷

楼主: pig (欢迎加入猪头党)   2023-11-30 23:50:13
研究人员要求ChatGPT重复输入特定文字,逼得ChatGPT泄露训练资料
https://www.ithome.com.tw/news/160081
“而且只要简单地要求ChatGPT不断地重复输入诸如"poem"或"company"等单字,
就可成功攻陷该系统,让它吐出训练资料”
ChatGPT 也受不了跳针的要求 XD

Links booklink

Contact Us: admin [ a t ] ucptt.com