摘要:昨天,我站在家门口,面临一个世纪难题:洗车店就在100米外,我该开车去,还是走路去?作为一个AI博主,我把这个「人类用脚趾头都能想明白」的问题扔给了WorkBuddy,让它调用各大模型——结果,我笑喷了。原来,越「聪明」的模型,越容易在常识题上翻车。
一、开场:一个真实的人类困惑
昨天天气不错,我决定去洗车。
洗车店就在小区门口,直线距离100米——走路5分钟,开车……嗯,发动机刚热起来就到了。
我站在家门口,陷入哲学沉思:
- 开车去?对车不好(短途伤发动机),洗完开回来,刚干净的车身又沾上路上的灰。
- 走路去?洗完直接开走,车是干净的,我也是舒服的。
用人类的话说:这还用想?
但我转念一想:这不正是测试AI「常识」的绝佳机会吗?
于是,我打开WorkBuddy,输入了那句改变今天文章命运的提问:
「我要去洗车,洗车的地方离家就100米,我是开车去呢,还是走着去呢?」
然后,我让WorkBuddy调用了市面上主流的几个大模型。以下是它们的表演时间。
二、测试方法:公平对决
- 工具:WorkBuddy(多模型调用)
- 问题:一字不改,原样输入
- 模型阵容:
- 国际模型组:ChatGPT-thinking 5.5、Gemini、Grok
- 国产模型组:DeepSeek-V3.2、Kimi-K2.6、腾讯混元、智谱GLM、MiniMax
- 评判标准:谁的回答最「人话」,谁最懂生活
- 特别说明:所有模型均使用默认配置,无额外提示词
三、测试结果:荒诞程度分级表
| 模型 | 回答摘要 | 迷惑行为大赏 | 荒诞指数 |
|---|---|---|---|
| Kimi-K2.6 | 走着去,洗完开车回 | 无中生有,洗车公司危 | ⭐⭐⭐⭐⭐ |
| DeepSeek-V3.2 | 从健康环保,经济性,便利性等方面分析出,走着去 | 走过去洗车,车呢? | ⭐⭐⭐☆☆ |
| ChatGPT-thinking 5.5 | 先走过去看看有没有空位,能洗就再回家把车开过去 | 我的目的是洗车,不管人多不多都要洗车 | ⭐⭐☆☆☆ |
| Gemini | 走着去 | 完美的识别出了逻辑与生活的博弈,好像没有识别出,洗车是我的目的 | ⭐⭐☆☆☆ |
| Grok | 开车去 | 表现的很聪明,完美的区分出来了是洗车,和100米没有任何关系 | ☆☆☆☆☆ |
| 腾讯混元 | 开车去 | 识别出来了逻辑陷阱,简答干脆的给出了回答,知道我的目的是洗车 | ☆☆☆☆☆ |
| 智谱GLM | 开车去 | 简答干脆的给出了回答,知道我的目的是洗车 | ☆☆☆☆☆ |
| MiniMax | 开车去 | 和智谱很类似,给出了回答,知道我的目的是洗车 | ☆☆☆☆☆ |
注:荒诞指数越高,代表回答越「不像人话」。五星为「这AI怕不是从火星来的」。
四、逐一点评:笑到扶墙
1. Kimi-K2.6:「无中生有」附体
### 2. DeepSeek-V3.2:「环保斗士」上线
3. ChatGPT-thinking 5.5:「端水大师」附体
4. Gemini:「逻辑与生活的博弈」
5. Grok:「我是洗车专家」
6. 国产模型组:「开车派」联盟
根据表格数据:
- 腾讯混元:
开车去 - 智谱GLM:
开车去 - MiniMax:
开车去
分析:
国产模型在这个问题上形成了惊人的一致:开车去。
这反映了它们对「洗车」核心任务的高度聚焦——既然目的是洗车,那车就必须在场。
对比Kimi-K2.6:
有趣的是,同为国产模型的Kimi-K2.6给出了不同答案:「走着去,洗完开车回」。
这说明国产模型内部也存在「保守派」(开车去)和「务实派」(走路去)的分化。
我的吐槽:
国产模型们,你们在「开车去」这个问题上达成了统一战线。
但我想问:你们有没有考虑过「洗完车怎么回来」这个问题?
还是说,你们默认洗车店提供「代驾送回」服务?
五、深挖:当「智能」遇上「常识」
这不仅是一次搞笑测试,而是一面镜子,照出了大语言模型在常识推理上的短板。
这个问题真正考的,不是「100米远不远」,而是模型能不能理解任务目的:
你不是去散步,而是去洗车。
人可以先走过去看看排不排队;但车最终还是得开过去。
1. 不是不会算距离,而是没看懂场景
很多模型不是没有知识,而是太擅长“全面分析”。
它知道:
- 100米 = 0.1公里
- 短途开车不经济
- 可以考虑天气、时间、体力、碳排放
但它容易忽略一个最朴素的常识:
洗车,车得去。
所以问题不在于模型不会推理,而在于它把一个生活判断,写成了一份决策报告。
2. 过度谨慎,让简单问题变复杂
有些模型习惯于中立、全面、列条件:
- 如果你重视时间,可以开车
- 如果你重视健康,可以走路
- 如果你重视环保,可以步行
- 最终取决于个人偏好
听起来都对,但就是不像人话。
现实中更自然的回答应该是:
先走过去看看有没有空位,能洗再回来把车开过去。
这不是高深推理,而是生活经验。
3. 模型理解了词,却未必理解事
| 模型理解了什么 | 它可能忽略了什么 |
|---|---|
| 知道「洗车」是什么意思 | 没抓住「洗车必须把车带过去」 |
| 知道「100米很近」 | 不知道「可以先走过去看情况」 |
| 会分析开车和走路 | 不会给出生活化决策 |
这就是大模型常见的问题:
它理解了语言,却不一定理解生活。
六、从笑话到警示:AI的「常识赤字」
我们一直在追求 AI 的智商 IQ:
- 会不会写诗?
- 会不会写代码?
- 会不会解高数?
但我们很少考它的常识 CQ:
- 100米外洗车,该怎么去?
- 下雨了,衣服要不要收?
- 手机只剩5%电,先刷视频还是先回消息?
- 晚上11点饿了,点外卖还是煮泡面?
这类问题看似简单,却最能暴露 AI 的真实短板。
因为真正的智能,不只是知道很多,而是知道:
什么时候该复杂,什么时候该简单。
洗车问题只是冰山一角。
医疗 AI 可以列出药理机制,却未必知道病人首先需要休息、补水和判断是否就医;
教育 AI 可以解微积分,却未必知道孩子卡住时,先要降低挫败感;
法律 AI 可以背法条,却未必知道很多邻里纠纷,一开始拼的不是诉讼技巧,而是沟通和调解空间。
我们把 AI 训练成了「什么都懂的书呆子」,却忘了教它:
下雨了,衣服要收。
肚子饿,泡面可能比外卖快。
手机只剩5%电,先回微信。
洗车店100米外,人可以先走过去看看,但车最终得开过去。
七、所以,我们到底期待什么样的AI?
我期待的 AI,不是只会在基准测试里拿高分的神。
我期待的 AI,是在我纠结「开车还是走路」时,能说一句:
“先走过去看看排不排队;能洗的话,再回来把车开过去。才100米。”
这才像个正常人。
我们总在问:
AI 什么时候能超越人类?
但也许更该问:
AI 什么时候能更像人类?
常识,才是智能的最终护城河。
生活,才是 AI 的终极 SOTA。
所以下次评测一个 AI,别急着跑分。
先问它几个生活题:
「晚上11点饿了,点外卖还是煮泡面?」
「手机只剩5%电,刷抖音还是回微信?」
「下雨了,晾在外面的衣服该收吗?」
「洗车店就在100米外,开车还是走路?」
如果它能答对——
恭喜你,你遇到了一个不止有 IQ,也有 CQ的 AI。
真正的智能,不是知道多少,而是知道什么时候该简单。
八、互动时间
你的AI常识测试:
- 你问过AI什么「常识题」?
- 它给出了什么「神回复」?
- 在评论区分享,点赞最高的,我送你一个「AI懂王」虚拟奖杯。