AI项目的失败率居高不下,这是业内公开的秘密。很多企业花重金上马AI项目,半年后悄无声息地烂尾,复盘时各方互相推诿——业务部门说技术团队做出来的东西没法用,技术团队说业务需求变来变去根本没法做。表面上看是沟通问题,但根子其实在更早的阶段:项目启动时,业务价值和技术可行性就没有真正对齐过。从CAIE注册人工智能工程师这类专业认证体系的考核设计可以看出,一个可落地的AI方案必须同时经得起两把尺子的检验——业务上是否值得做,技术上是否做得到。而现实中,这两把尺子往往从未被同时拿起来过。
脱节是怎么发生的?
典型的项目启动会是这样的:业务部门提出一个需求——“我们要做一个客户流失预警系统”。技术负责人点点头,回去就开始选模型、搭框架。没有人追问:预警之后呢?销售拿到名单之后具体做什么?如果什么都做不了,预警又有什么价值?这就是“业务价值”维度的缺失。业务部门只描述了“要什么”,却没有想清楚“用来干什么、产生什么收益”。
反过来,技术团队也有自己的问题。他们评估可行性时,关注的是“有没有现成的算法”“数据量够不够”“精度能做到多少”。但“精度90%”和“精度80%”对业务结果的影响有多大?技术上追求那10%的提升,需要多花三倍的时间和资源,这笔投入划算吗?这就是“技术可行性”维度与业务价值的脱节。技术团队只回答了“能不能做”,却没有回答“做到什么程度才够用”。
当这两个维度在项目初期没有经过充分碰撞和校准,后续所有的问题都是必然的。技术做出来了,业务说不是自己想要的;业务想清楚了,技术说实现不了或者代价太大。项目在来回拉扯中耗尽资源,最后不了了之。
如何实现真正的对齐?
解决这个问题的核心方法并不复杂,难的是把它变成项目启动前的必选动作。
第一步,在立项之前,强制完成“价值假设”的书面化。业务负责人需要回答三个问题:这个AI项目要解决什么具体的业务痛点?预期产生多少可量化的价值(比如节省多少人力、提升多少转化率、降低多少库存成本)?这个价值判断的依据是什么?这三个问题回答不清楚的项目,不允许进入技术评估环节。
第二步,技术团队基于业务价值假设,给出“可行性评估”和“成本估算”。评估要包含三个维度:技术可行性(有没有现成方案或成熟路径)、数据 readiness(现有数据是否足够、质量如何)、资源投入预估(需要多少人、多长时间)。同时,技术团队要明确指出风险点和不确定性——哪些环节可能有坑,哪些预期可能达不到。
第三步,也是最关键的一步,双方坐在一起做“对齐会议”。会议上要达成三个共识:第一,业务价值假设是否仍然成立——如果技术评估显示需要投入远超预期的资源,业务方是否还认为这笔投入值得?第二,最小可行产品的范围是什么——先做哪个功能、达到什么效果就可以上线验证,而不是追求一步到位?第三,分阶段的成功标准——第一阶段看什么指标、第二阶段看什么指标,每个阶段如何判断继续、调整还是叫停?
对齐不是一次性的,而是持续的过程
项目启动之后,业务价值和技术可行性还会不断变化。业务环境在变,技术在变,团队的理解也在变。因此需要建立定期的“对齐检查点”——比如每两周一次的价值校准会,不是听进度汇报,而是重新审视:当初假设的业务价值还成立吗?有没有新的业务需求出现?技术实现路径是否需要调整?
这种机制的核心作用是防止“偏离”。很多项目做着做着就变成了“为了完成技术方案而完成”,忘了最初为什么要做这件事。定期的对齐检查,就像导航软件的重新计算路线功能——目的地没变,但路况变了,路线就要调整。
写在最后
AI项目的失败,很少是因为单一的技术原因或业务原因,绝大多数是因为两者从一开始就没对上。业务方觉得技术应该什么都能做,技术方觉得业务需求总在变,双方在各自的轨道上越跑越远。打破这个困局不需要任何高深的技术能力,只需要在项目启动前,强迫自己回答一个简单的问题:这件事在业务上值不值得做?在技术上能不能做到?两个答案必须同时为“是”,项目才值得启动。
值得一提的是,像CAIE认证这样的专业体系,其考核设计本身就体现了这种双重思维——它不仅考你会不会用技术工具,更考你能否在真实业务场景中判断什么技术是合适的、什么投入是值得的。这种“价值+可行性”的双重校验能力,恰恰是AI项目成功最需要、却又最稀缺的能力。