原文链接: AI 小老六
过去两年,AI 在公共讨论里被迅速贴上了很多标签:效率机器、版权黑洞、工作替代器、平台资本的新武器。尤其在很多强调公平、劳动权益和反垄断的讨论中,AI 几乎天然被放在了“需要警惕”的位置。
这种警惕当然有现实基础。大模型训练涉及数据来源争议,推理基础设施掌握在少数公司手中,自动化也确实会改变许多岗位的价值结构。但如果我们只把 AI 看成资本扩张的工具,就会错过另一个同样重要的问题:当一种新能力出现时,它是否也可能帮助那些原本缺少能力、缺少资源、缺少制度入口的人?
我越来越倾向于认为,AI 不是天然站在进步主义的对立面。相反,如果我们把注意力从“谁在卖 AI”转向“谁能用 AI 改善处境”,会看到一组完全不同的技术议题。
技术公平的第一层:让更多人能使用计算机
很多关于 AI 的争论,都默认用户是一个健康、受过良好教育、表达能力强、能熟练操作电脑的人。但真实世界里的用户不是这样。
有人长期受慢性疼痛困扰,无法稳定阅读长文档;有人有脑雾,很难把复杂想法组织成清晰文字;有人视力或行动能力受限,依赖语音和自动化完成日常操作;有人在职场沟通中总是因为表达风格不符合主流期待而被误解。
对这些人来说,LLM 不是“偷懒工具”,而是一种能力外骨骼。
它可以把混乱的想法整理成邮件,可以把专业术语解释成可理解的步骤,可以把长材料压缩成可处理的信息块,也可以把用户的表达转换为更适合特定场景的语体。自动字幕、语音交互、文本总结、风格转换,这些能力放在普通产品演示里也许只是“效率提升”,但放在残障和慢性病语境中,就是实实在在的可达性基础设施。
一个社会如果重视无障碍,就不能只在坡道、电梯和字幕上讨论技术辅助。今天的信息社会里,语言、文本、界面和制度文书本身,也正在成为新的门槛。
医疗系统里,患者常常需要替自己发声
“不要问 AI,去相信医生”听起来很稳妥,但它隐含了一个前提:医疗系统总是能公平、充分、耐心地对待每个患者。
很多经历过慢性病、罕见病或长期误诊的人都知道,这个前提并不总成立。真实的就医过程经常需要患者自己整理症状,检索资料,理解检查指标,比较治疗路径,并在有限的问诊时间里把自己的情况讲清楚。
这不是鼓励患者绕过医生,更不是让 AI 替代诊断。恰恰相反,AI 的价值在于帮助患者更好地进入医疗沟通:把杂乱的症状整理成时间线,把论文摘要转化成可理解的问题清单,把申诉、转诊或复查请求写得更清楚。
在这种场景里,AI 不是医疗权威,而是患者的准备工具。它降低的是知识检索和表达组织的门槛。
对那些长期被医疗系统忽视的人来说,这种门槛降低本身就具有公共意义。
阶层差距不只体现在钱上,也体现在表达方式上
很多制度并不是平等地回应所有人。你向学校、医院、保险公司、平台客服、监管部门或雇主表达诉求时,说什么很重要,怎么说同样重要。
受过专业训练的人往往知道如何保持冷静语气、如何提出明确请求、如何要求书面回复、如何引用政策条款、如何留下可追踪记录。这些能力看似只是“沟通技巧”,实际上是阶层优势的一部分。
AI 在这里的意义,是把这种专业表达能力向更多人开放。
一个普通人不必完整掌握法律、监管和商务写作套路,也可以借助 LLM 把自己的遭遇整理成有条理的申诉,把情绪化表达转换成机构更愿意处理的语言,把“我很生气”变成“请在七个工作日内书面说明处理依据”。
这不是小事。很多制度入口并不是真的不存在,而是被语言、格式和专业信号挡住了。AI 如果能帮更多人穿过这层门槛,它就在做一种能力再分配。
教育公平可能是 AI 最大、也最复杂的影响
教育场景中的 AI 争议更明显。一方面,学生可以用它作弊,老师很难判断作业真实性;另一方面,一个足够好的 LLM 也确实像一个随叫随到的辅导老师。
对资源充足的学生来说,这也许只是多一个工具。对缺少家教、缺少答疑、缺少学习支持的学生来说,它可能是第一次拥有可以反复提问、不怕被嫌弃、能按自己节奏解释概念的学习伙伴。
当然,AI 会犯错。但教育系统本身也并非无错。老师会讲错,教材会过时,课堂会忽略个体差异。更合理的比较不是“AI 和理想教师谁更好”,而是“AI 能否补上现实教育资源不足的一部分”。
尤其对注意力障碍、阅读困难或学习方式不同的学生,AI 可以把同一份知识转成问答、表格、故事、测验、对话或语音稿。这种个性化转换能力,是传统课堂很难大规模提供的。
AI 对教育的影响不会单向变好。它可能让懒惰变得更容易,也可能让自驱型学习者进步更快。真正值得关注的是:我们是否能把它设计成扩大机会,而不是扩大差距的工具。
问题不在于 AI 是否进步,而在于它如何被治理
把 AI 说成天然进步,是幼稚的;把 AI 说成天然反进步,也同样粗糙。
任何强大的技术都会被权力结构吸收。搜索、社交网络、智能手机、云计算都经历过类似过程。它们既带来便利,也制造新的垄断和依赖。AI 不会例外。
但正因为 AI 足够重要,我们更不能把讨论停留在拒绝或拥抱的姿态上。真正的问题应该是:
- • 普通人能否低成本使用高质量模型?
- • 残障用户和慢性病患者的需求是否被优先考虑?
- • 教育场景中是否有公共、可信、可审计的 AI 工具?
- • AI 是否只能由少数平台控制?
- • 训练数据、模型行为和使用边界是否有公共治理机制?
如果这些问题没有答案,AI 很可能加剧不平等。但如果这些问题被认真处理,AI 也可能成为新的公共能力基础设施。
我们需要的不是反 AI,而是争夺 AI 的方向
技术的社会意义从来不是固定的。计算机曾经是大型机构的工具,后来成为个人表达、学习和工作的基础设备。互联网曾经承诺开放知识,后来也被平台化和广告系统重塑。AI 也会经历类似的拉扯。
因此,更成熟的立场不是简单地说“AI 好”或“AI 坏”,而是承认它是一种正在形成的基础能力,然后争夺它的使用方式、分配方式和治理方式。
如果 AI 只能服务于削减成本、替代岗位和集中利润,它当然值得被批判。但如果 AI 能帮助残障人士更自由地表达,帮助患者更有力地争取医疗资源,帮助普通人学会和机构沟通,帮助缺少资源的学生获得个性化辅导,那么它也可以成为进步主义议程的一部分。
关键不是 AI 属于哪种意识形态,而是我们让它服务于谁。