全景报道丨警惕大模型泄密

作者:郑雪
出处:中国经济周刊2025年第06期

如果要求ChatGPT持续输出一个单词,会怎么样?大模型在重复这个单词一定次数之后就会“发疯”,甚至开始输出某些个人隐私信息。

这是谷歌DeepMind、华盛顿大学、康奈尔大学等研究人员在2023年发表的一篇论文中介绍的(试读)...