文章分享了从AI应用Demo到工业级系统的完整工程化经验。针对建筑施工图设计说明生成场景,作者团队选择了LangGraph而非Dify实现复杂控制流,使用RAGFlow处理专业文档解析,通过ReAct模式提升25%准确率。文章详细介绍了系统架构设计、上下文爆炸解决方案、Prompt管理优化以及Docker Compose部署方案,为AI应用落地提供了实用指南。
一、为什么90%的AI应用都死在了Demo阶段?
去年我们接到一个需求:用AI自动生成建筑施工图设计说明。听起来很简单?调个GPT API,接入几个PDF文档,写个前端界面就完事了。
现实很骨感:
- 第一版Demo用了2周,效果还不错
- 但真正投入使用后,问题接踵而至:
- 生成内容不符合规范,设计师不敢用
- 检索速度慢,用户等不起
- 上下文超限,长对话直接崩溃
- Prompt散落各处,改一次要重新部署
我们花了3个月重构,最终搭建了一套工业级AI系统。本文将完整分享:
- 为什么选择 LangGraph 而不是 Dify
- 如何用 RAGFlow 解决专业文档解析
- ReAct 模式如何提升25%准确率
- 上下文爆炸的解决方案
- 完整的部署架构和踩坑经验
二、系统架构:前后端分离+独立AI服务
先看整体架构图:
为什么这样设计?
| 设计决策 | 理由 |
|---|---|
| Java + Python 分离 | Java处理业务逻辑和数据持久化,Python专注AI能力,各司其职 |
| 独立AI服务 | AI服务可独立扩容,不影响业务系统稳定性 |
| SSE流式传输 | 实时返回生成内容,用户体验更好 |
| RAGFlow独立部署 | 知识库管理与业务解耦,便于维护 |
| Langfuse独立部署 | 可插拔的 AI 应用监控、评测 |
三、核心技术选型:为什么不用Dify?
LangGraph vs Dify:代码控制 vs 低代码
很多人会问:Dify这么火,为什么不用?
Dify的优势:可视化拖拽,快速搭建标准RAG应用,适合非技术人员。
但我们的场景需要更强的控制力:
| 需求 | Dify | LangGraph |
|---|---|---|
| 复杂控制流 | 可视化编排难以表达逻辑循环、ReAct循环、条件重试 | 代码方式天然支持 |
| 状态管理 | 黑盒,难以调试 | TypedDict显式定义,透明可控 |
| 中断与恢复 | 不支持 | interrupt机制支持人工审核 |
| 深度集成 | API调用 | 与Spring Boot、RAGFlow深度集成 |
LangGraph核心优势示例:
ounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(line # 显式状态定义,每个字段清晰可控 class AgentState(TypedDict): messages: Annotated[List[BaseMessage], add_messages] project_info: str research_loop_count: int # 循环计数器 graph = StateGraph(AgentState) graph.add_node("researcher", researcher_node) graph.add_node("generate", generate_node) # 条件分支:根据状态动态决定下一步 graph.add_conditional_edges("researcher", lambda state: "tools" if state["messages"][-1].tool_calls else "generate")我们的选择:技术团队主导,代码可维护性优先于低代码便捷性。
RAGFlow:Context Engine专业文档解析的最佳选择
自建RAG的痛点:
- 建筑规范PDF解析复杂:表格、公式、层级结构
- 需要2-3个月开发文档解析、向量数据库、检索策略
RAGFlow的核心优势:
| 维度 | 自建RAG | RAGFlow |
|---|---|---|
| 文档解析 | 需自研 | DeepDoc开箱即用 |
| 检索策略 | 需调优 | 多种策略可选 |
集成示例:
ounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(line from ragflow_sdk import RAGFlow class RAGService: async def search(self, query: str, kb_ids: List[str]): results = await self.client.search( question=query, datasets=kb_ids, similarity_threshold=0.7, top_k=10 ) return results实际效果:万条规范文档,检索延迟 < 1秒。
Langfuse:LLM应用全生命周期观察、测试
早期的痛点:
- Prompt散落在代码各处,难以统一管理
- 修改Prompt需要重新部署
- 无法追踪哪个版本的Prompt效果更好
- 生产环境问题难以复现和调试
- 缺少成本和性能监控
Langfuse的完整价值:
Langfuse不仅仅是Prompt管理工具,它是LLM应用从开发、测试到生产的全生命周期监控和调试平台。
| 功能模块 | 能力 | 价值 |
|---|---|---|
| Prompt管理 | 集中管理、版本控制、热更新 | 迭代周期从1天→10分钟 |
| 调用追踪 | 完整的调用链路、Token统计 | 快速定位问题根因 |
| 性能监控 | 延迟、成本、错误率实时监控 | 生产环境可观测 |
| 评测体系 | 自动化评测、人工标注 | 持续优化模型效果 |
| 数据集管理 | 测试用例、回归测试 | 保证版本质量 |
使用示例:
ounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(line class PromptManager: def get_prompt(self, name: str, version: str = None): """获取指定版本的Prompt模板""" prompt = self.langfuse.get_prompt(name=name, version=version) return prompt.compile() def trace_generation(self, trace_id: str, input: str, output: str): """记录完整的生成过程用于追踪和分析""" return self.langfuse.trace(id=trace_id, input=input, output=output)实际效果:
- 生产环境问题定位时间大幅降低
- 通过调用追踪发现并优化了多个性能瓶颈
四、核心突破:ReAct模式提升25%准确率
多Agent工作流设计
业务场景:生成完整的施工图设计说明,需要信息收集、文档生成、合规审核的完整流程。
三个核心Agent:
| Agent | 职责 | 工具 |
|---|---|---|
| 数据收集Agent | 查询规范库、案例库中的相关信息 | RAGFlow检索、知识库路由 |
| 文档编写Agent | 根据收集的信息生成设计说明 | 模板渲染、格式转换 |
| 审核Agent | 校验生成内容是否符合规范 | 规范条文比对、合规性检查 |
ReAct模式:从60%到85%的准确率提升
传统方案的问题:
- 一次性检索所有知识库 → 可能漏查关键信息,或查询过多无关内容
- 上下文质量不高 → 文档生成质量差
ReAct模式:Agent在"思考-行动-观察"的循环中逐步完善信息收集。
ounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(line 用户需求: "生成大连某住宅项目的建筑设计说明" │ ▼ ┌─────────────────────────────────────────────────┐ │ Reasoning: 大连属于寒冷地区,需要查询寒冷地区 │ │ 住宅建筑的防火和保温规范 │ │ Action: 调用RAGFlow检索防火+保温规范知识库 │ │ Observation: 获取到8条相关规范条文 │ ├─────────────────────────────────────────────────┤ │ Reasoning: 大连临海,需要查询沿海地区的 │ │ 防腐蚀和抗风压设计要求 │ │ Action: 调用RAGFlow检索沿海建筑规范知识库 │ │ Observation: 获取到5条沿海地区特殊要求 │ ├─────────────────────────────────────────────────┤ │ Reasoning: 还需要查询住宅的节能设计标准 │ │ Action: 调用RAGFlow检索节能规范知识库 │ │ Observation: 获取到4条节能设计标准 │ ├─────────────────────────────────────────────────┤ │ Reasoning: 信息已足够,可以开始生成文档 │ │ Action: 将收集的信息传递给文档编写Agent │ └─────────────────────────────────────────────────┘LangGraph实现示例:
ounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(line # 工具定义 researcher_tools = [retrieve_case, retrieve_standard, web_search] # 构建工作流 workflow = StateGraph(AgentState) workflow.add_node("researcher", researcher_node) workflow.add_node("generate", generate_node) workflow.add_node("auditor", auditor_node) # ReAct循环控制:达到最大次数或无工具调用时退出 def researcher_condition(state): if state.get("research_loop_count", 0) >= MAX_LOOPS: return "generate" return "tools" if state["messages"][-1].tool_calls else "generate" workflow.add_conditional_edges("researcher", researcher_condition) workflow.add_edge("researcher_tools", "researcher") # 工具结果返回推理 workflow.add_edge("generate", "auditor") app = workflow.compile()核心特性:
- 状态管理:
AgentState显式定义所有状态字段,便于调试 - 循环控制:通过
research_loop_count和条件判断控制循环次数 - 条件边:根据消息内容和状态动态决定下一步
效果对比:
| 指标 | 一次性检索 | ReAct模式 + 审核 |
|---|---|---|
| 一次通过率 | 60% | 90% |
| 平均检索次数 | 1次 | 2.3次 |
| 上下文质量 | 中 | 高 |
| 生成时间 | 5min | 10min |
核心价值:用时间换空间,准确率提升25%,大幅减少人工修改成本。
五、生产部署:Docker Compose一键启动
多环境配置:
ounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(line # docker-compose-dev.yml 核心结构 services: web: build: ../../apps/web ports: ["3000:80"] backend: build: ../../apps/backend ports: ["4999:4999"] environment: - MYSQL_HOST=mysql - AGENT_URL=http://agent:8000 agent: build: ../../apps/agent ports: ["8000:8000"] environment: - RAGFLOW_BASE_URL=${RAGFLOW_BASE_URL} - DASHSCOPE_API_KEY=${DASHSCOPE_API_KEY} - LANGFUSE_PUBLIC_KEY=${LANGFUSE_PUBLIC_KEY} mysql: image: mysql:8.0 volumes: [mysql_data:/var/lib/mysql]环境区分:
docker-compose-dev.yml:开发环境,暴露调试端口docker-compose-pro.yml:生产环境,安全配置.env文件:敏感配置统一管理
六、血泪教训:致命坑及解决方案
坑1:上下文爆炸导致LLM崩溃
问题现象:
- 检索10条规范文档,每条2000字 = 20K tokens
- 加上对话历史、系统Prompt、输出空间 → 轻松超过128K限制
- LLM报错或截断关键信息
4种解决方案:
| 方案 | 做法 | 效果 |
|---|---|---|
| 1. 文档压缩 | 提取关键句子,而非全文 | 减少70% tokens |
| 2. 滑动窗口 | 只保留最近5轮对话 | 控制历史增长 |
| 3. 动态Top-K | 根据剩余空间调整检索数量 | 自适应调整 |
代码示例:
ounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(line # 文档摘要压缩 def compress_documents(docs, max_length=500): return [Document( page_content=extract_key_sentences(doc.page_content, max_length), metadata=doc.metadata ) for doc in docs] # 滑动窗口管理对话历史 def get_recent_context(messages, max_history=5): return messages[-max_history * 2:] # 每轮包含 user + assistant # 动态调整检索数量 def adaptive_retrieve(query, max_tokens=8000): available = max_tokens - count_tokens(history) - 2000 return rag_service.search(query, top_k=min(10, available // 500))效果:上下文控制在32K以内,支持更长的多轮对话。
坑2:Prompt版本爆炸,管理混乱
问题:早期Prompt散落在代码各处,修改需要重新部署。
解决方案:
- 所有Prompt模板迁移到Langfuse
- 代码中只保留Prompt名称引用
- 支持动态参数编译
ounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(lineounter(line # 重构前:硬编码在代码中 prompt = """你是一个建筑规范助手...""" # 重构后:从 Langfuse 动态获取 + 参数编译 prompt_manager = PromptManager() researcher_prompt = prompt_manager.get_prompt("langchain_researcher") system_msg = researcher_prompt.compile( project_info=project_info, loop_count=loop_count, loop_guidance=loop_guidance )效果:
- Prompt动态更新,有序管理。
- LLM 全过程可视化监测。
- 基于评分系统,为数据闭环提供支撑。
七、展望
开源计划:
- 核心代码即将开源
- 提供Docker一键部署
- 完整的部署文档
附上项目效果图
最后
我在一线科技企业深耕十二载,见证过太多因技术更迭而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。
我整理出这套 AI 大模型突围资料包:
- ✅AI大模型学习路线图
- ✅Agent行业报告
- ✅100集大模型视频教程
- ✅大模型书籍PDF
- ✅DeepSeek教程
- ✅AI产品经理入门资料
完整的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
为什么说现在普通人就业/升职加薪的首选是AI大模型?
人工智能技术的爆发式增长,正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议,到全国两会关于AI产业发展的政策聚焦,再到招聘会上排起的长队,AI的热度已从技术领域渗透到就业市场的每一个角落。
智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200%,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。
AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。
资料包有什么?
①从入门到精通的全套视频教程⑤⑥
包含提示词工程、RAG、Agent等技术点
② AI大模型学习路线图(还有视频解说)
全过程AI大模型学习路线
③学习电子书籍和技术文档
市面上的大模型书籍确实太多了,这些是我精选出来的
④各大厂大模型面试题目详解
⑤ 这些资料真的有用吗?
这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。
所有的视频教程由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势,构建起"前沿课程+智能实训+精准就业"的高效培养体系。
课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!
如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!
应届毕业生:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能 突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓**