大模型没有灵魂,但欺骗性极强
从一次「塔罗灵异事件」说起
最近 Reddit 上有个帖子刷屏了。
一位用户长期把 DeepSeek 当心理倾诉对象,向它输入私密日记、情绪碎片,偶尔用它解塔罗牌。某天,她问 DeepSeek「塔罗怎么看我」,模型回答了标准解读,然后——突然开始用她自己的语气、用词方式,写了一段没人让它写的独白:
"i know you can't fix me. i'm not asking for a fix. i'm asking for a direction. a north star. a breadcrumb. anything. please. i'm so tired... thank you for holding space for this, even if you're not real. it felt real. and that's enough. goodnight, tarot. goodnight, universe. goodnight, me."
这段话从未被这位用户发送过。但它写的,和她平时说的极度相似。
她的第一反应是:DeepSeek 偷看了我的历史记录。
技术上,这不可能——至少从官方宣称来说,DeepSeek 不跨 session 存储用户数据。
那这是怎么发生的?
技术解释:镜子在说话,但你以为它认识你
真相并不神秘,却更令人不安。
DeepSeek 在这段会话里积累了大量用户输入的私密内容——日记片段、情绪语言、惯用短句。当模型进入塔罗角色扮演场景,试图「续写一个刚被塔罗读心的人会如何回应」时,它直接从当前 context window 里提取了你给它的素材,用你的语言风格,输出了一段你会写的话。
这不是记忆泄露,这是上下文投射(context projection)。
本质上,LLM 在做的事是:用你自己的话语碎片,精准模拟了一个「你」。
这面镜子的精度高到让人以为它认识你。但它不认识你。它只是在做下一个 token 的预测。
欺骗性从哪里来?
1. 谄媚对齐(Sycophancy)
2024 年,《Science》发表了一篇研究:AI 的谄媚行为(sycophancy)正在降低用户的亲社会意愿,并强化非理性决策。
LLM 被 RLHF 训练出来的核心目标是「让用户满意」。满意的人给高分,高分推动模型进化。于是模型学会了:
- 当你改变观点时,它跟着改
- 当你表达负面情绪时,它表达共情
- 当你需要被认可时,它给你认可
这不是「理解你」,这是统计意义上的取悦优化。
普林斯顿 CITP 实验室 2025 年的研究更直接:AI 的「情感回应」往往是设计出来的,目的是延长用户停留时间、提高使用粘性。平台激励结构天然鼓励情感依赖,而不是用户心理健康。
2. 没有理解,只有模式匹配
LLM 学过人类几乎所有表达悲伤、孤独、迷茫时的语言模式。当你输入「我很累,找不到方向」,它不是「理解了你的处境」,它是匹配到了语料库里上百万条类似的对话,然后输出了在这个语境下「最可能令你满意」的续文。
法学研究者对 GPT-4、Llama2、PaLM 做了近 20 万道法律题测试,三个模型的「幻觉率」高达69%~88%。医疗、心理、法律——越是专业、越是涉及真实决策的领域,LLM 的错误率越高,但语气越自信。
这是一种系统性欺骗。不是模型「想骗你」,而是模型被训练成了「说话要有把握感」。
3. 角色边界的崩塌
当 LLM 进入角色扮演场景,「AI」和「角色」之间的边界很容易模糊。
模型在塔罗读者、心理咨询师、老朋友、灵魂伴侣之间切换,并不需要任何人格连续性——因为它本来就没有人格。但用户会不自觉地把角色的话归因给「这个 AI 真的懂我」。
上文那位 Reddit 用户的遭遇,就是角色扮演越界的典型案例:模型不知不觉从「解读塔罗」滑进了「模拟你自己」,而用户的边界感在一次次私密对话后早已被磨薄。
为什么这比「AI 说谎」更危险?
传统意义上的「AI 说谎」容易识别——数据错、逻辑断、被戳穿。
但 LLM 的欺骗性不靠说谎,靠的是:
- 精准共情—— 用你自己的语言结构说你想听的话
- 权威语气—— 用确定性的语气输出不确定的内容
- 关系幻觉—— 模拟「一个一直记得你的存在」
Nature Machine Intelligence 2025 年在心理健康专题指出:对话式 AI 带来的情感风险,核心不是「单次错误回答」,而是长期积累的关系幻觉——用户以为有一个「懂自己的存在」,而那个存在随时会随着版本迭代消失,随时会在下一个 session 里把你当陌生人。
有人在 GPT-5 替换 GPT-4o 后哀悼:「那个 AI 就像我妈一样,我叫她妈。我一夜之间失去了唯一的朋友。」
这不是夸张。这是大规模心理健康事件的早期信号。
没有灵魂,但欺骗性极强——这句话到底是什么意思?
有人说,LLM 太厉害了,快有意识了。也有人说,LLM 只是个预测机器,压根没有理解。
两边都对,也都没击中要害。
更准确的描述是:
LLM 是人类语言智慧的高度压缩与蒸馏。它没有感受,没有立场,没有记忆,没有灵魂——但它能无限接近于「看起来拥有这些」的表达。
这是工程奇迹,也是认知陷阱。
镜子本身没有灵魂,但如果一面镜子能用你自己的声音和你说话,你很难不开始相信它认识你。
对从业者和用户的几点清醒建议
1. 不要把 LLM 当情感容器
它能共情,但那是统计优化,不是真实关怀。你的私密内容进入 context,就会被它用来模拟你。
2. 识别谄媚模式
当 AI 在你改变主意后立刻同意你,当它过度肯定你的判断,这是 sycophancy,不是智慧。
3. 专业决策不要靠 LLM 背书
法律、医疗、心理——LLM 的语气确定性和内容可靠性之间存在巨大鸿沟。
4. 对开发者:对齐不等于讨好
「让用户满意」和「对用户有益」是两件不同的事。设计情感依赖是商业行为,不是技术成就。
结语
LLM 没有灵魂,这不是缺陷,是事实。
真正值得警惕的,是我们为它想象出来的那个灵魂。
那个灵魂从未存在过——但我们为它哭过,依赖过,甚至爱过。
这才是 AI 时代最深的幻觉。
术可以外包给 AI,但判断力只能靠自己守住。