news 2026/4/18 8:00:55

提示工程架构师圆桌论坛:AI与提示工程协同进化的争议与共识

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
提示工程架构师圆桌论坛:AI与提示工程协同进化的争议与共识

提示工程架构师圆桌论坛:AI与提示工程协同进化的争议与共识

引言:当“提示”成为人机对话的核心命题

深夜的科技园区会议室里,圆形会议桌旁围坐的12位嘉宾正襟危坐。投影幕布上跳动着一行大字:“AI与提示工程——是互相替代,还是共生进化?”

这是一场仅限行业内顶级提示工程架构师、大模型研究者与AI应用开发者的闭门论坛。桌上的咖啡杯冒着热气,第一位发言者——某头部科技公司资深提示架构师李阳——放下手中的笔,目光扫过在场的听众:

“上个月,我在内部技术会上被问到一个尖锐的问题:‘如果GPT-5能直接读懂用户的“潜台词”,我们这群天天调提示的人是不是要失业?’今天,我想把这个问题抛给在座的所有人——提示工程到底是AI时代的“过渡工具”,还是将伴随人类与AI共生的“永久架构”?

一、背景:从“提示技巧”到“提示架构”——AI时代提示工程的角色演变

要讨论“协同进化”,我们得先搞清楚:提示工程到底是什么?它的角色是怎么变化的?

1.1 从“指令”到“接口”:提示工程的本质升级

早期的提示工程(Prompt Engineering)更像“给AI写说明书”——比如让模型总结文章时,你得写“请用3句话总结这篇文章的核心观点”。这时候的提示是**“战术性技巧”**,目标是让AI“听懂指令”。

但随着大模型能力的爆发(比如GPT-4的多模态理解、Claude 3的长文本处理),提示工程的角色开始向**“架构性设计”**升级:它不再是“教AI怎么做”,而是“定义人类意图与AI能力之间的接口”。

举个例子:某金融公司用大模型做信贷风险评估。早期的提示是“请分析用户的信贷风险”,但现在的提示会拆分成三层:

  • 任务定义层:“评估用户的信贷违约风险,输出风险等级(低/中/高)”;
  • 规则约束层:“参考维度包括征信报告(逾期次数>3次视为高风险)、收入债务比(>50%视为中风险)、资产情况(有房产抵押可降低一级风险)”;
  • 输出格式层:“返回JSON,包含risk_level、key_reasons(至少3个)、confidence_score(0-1)”。

这时候的提示,本质是**“人类业务规则与AI决策逻辑的翻译器”**——它把模糊的“风险评估”转化为AI能理解的结构化指令,同时把AI的决策结果转化为人类能解读的结构化输出。

1.2 为什么现在讨论“协同进化”?

两个关键趋势推动了这场讨论:

  • 大模型的“提示感知能力”提升:比如GPT-4能通过“Few-shot Learning”(给1-2个例子)快速理解复杂任务,甚至能“学习提示的模式”——比如你用“首先…其次…最后…”的结构写提示,模型会自动调整输出逻辑;
  • 提示工程的“智能化工具”涌现:比如PromptPerfect(自动优化提示)、ChatGPT Custom Instructions(自定义长期提示)、Anthropic Prompt Library(行业提示模板),这些工具让提示设计从“试错法”转向“数据驱动的优化”。

当大模型开始“理解提示的结构”,当提示工具开始“用AI生成提示”,两者的边界正在模糊——AI在学习提示的规律,提示工程在借助AI提升效率。这就是“协同进化”的核心语境。

二、争议:AI与提示工程的“边界之战”

论坛的第一个环节,嘉宾们围绕三个核心争议展开了激烈讨论。

争议一:提示工程是“过渡技术”还是“长期架构”?

正方(李阳,头部科技公司提示架构师)
“提示工程不是‘过渡技术’,而是‘人机接口的永久层’。原因有两个:
第一,人类的意图永远需要“结构化翻译”。就算AGI能读懂“潜台词”,但企业的业务规则是明确的——比如“优先推荐库存充足的商品”“征信逾期3次以上拒贷”,这些规则必须通过提示传递给AI,否则AI可能会“自由发挥”;
第二,AI的“黑盒性”需要提示来“解释”。比如AI给出“高风险”的评估结果,人类需要知道“是因为逾期次数多,还是债务比高”——而提示中的“规则约束层”就是让AI输出“关键理由”的关键。

我举个反例:某电商公司曾尝试“取消提示”,让AI直接处理用户咨询。结果用户说“我买的衣服太大了”,AI回复“请联系客服”——但如果加提示“用户说‘衣服太大’属于退换货申请,需询问‘您想换小一码还是退款?’”,AI的回复就会更精准。”

反方(陈默,某AI研究机构科学家)
“我承认当前提示工程很重要,但它的价值会随着模型能力的提升而递减。比如GPT-4的Advanced Data Analysis已经能自动解析用户的模糊需求——你说“帮我分析这个销售表格”,它会自动问“你想看环比增长还是Top10商品?”;再比如Anthropic的Claude 3能处理100万token的长文本,不需要你拆分成“先看第一章,再看第二章”的提示。

未来,当模型的“常识推理能力”达到人类水平,提示工程的“规则约束”会变成“冗余信息”——比如你说“帮我订明天去上海的机票”,AI会自动问“你偏好哪家航空公司?几点的航班?”,不需要你写“请询问航空公司偏好和时间”的提示。”

现场投票:60%的嘉宾支持“长期架构”,40%支持“过渡技术”。
我的观点:提示工程的“战术性技巧”(比如调整指令顺序)会消失,但“架构性设计”(比如分层提示、规则约束)会长期存在——它不是“教AI怎么做”,而是“定义人类与AI的对话规则”。

争议二:提示工程的“标准化”vs“个性化”——要不要制定行业规范?

正方(周敏,某云厂商AI产品经理)
“我们做过一个调研:80%的AI应用开发者在设计提示时,会从“复制开源模板”开始。但开源模板的问题是“不贴合行业”——比如医疗领域的“病历解析”提示,需要包含“ICD-10编码”“临床术语”,而电商的“客服意图识别”需要包含“SKU”“订单状态”。

因此,我们需要“行业级的提示标准”——比如像RESTful API那样,定义“医疗提示”的通用结构:任务定义层(解析病历)、规则层(提取ICD-10编码)、输出层(JSON格式)。这样不同团队的提示能复用,降低开发成本。”

反方(吴磊,某创业公司AI应用开发者)
“标准化会杀死提示工程的“场景化价值”。我举个例子:我们做餐饮行业的AI助手,提示需要包含“堂食/外卖”“忌口(比如不吃辣)”“排队状态”这些行业特有的信息。如果用标准化的“客服提示”模板,AI会把“我想订个辣的火锅,但是不吃香菜”识别成“咨询商品信息”,而不是“个性化订单需求”。

提示工程的核心是“适配场景”,而标准化的模板就像“通用扳手”——能拧大部分螺丝,但拧不了“异形螺丝”(比如医疗、金融的特殊需求)。”

现场共识“基础层标准化,应用层个性化”——比如定义“提示的分层结构”为通用标准,但每个行业的“规则层”和“输出层”可以自定义。比如:

  • 基础层标准:所有提示必须包含“任务定义”“输出格式”两个模块;
  • 行业层个性化:医疗提示的“规则层”必须包含“ICD-10编码”,金融提示的“规则层”必须包含“征信维度”。

争议三:AI会“反客为主”主导提示工程吗?

正方(郑涛,某AI工具公司CTO)
“我们的工具已经能做到“用AI生成并优化提示”。比如用户输入“我要做电商评论的情感分析”,工具会自动生成:

请分析以下电商评论的情感倾向,分为正面、负面、中性。注意识别隐含的负面情绪(比如“虽然便宜但质量差”),输出结果包含情感类型和关键理由。

然后,工具会根据模型的输出效果自动优化——比如如果负面情感识别率低,会自动加“注意识别“性价比低”“物流慢”等关键词”。

现在,我们的客户中,60%的提示是“AI生成+人类微调”的——AI负责“战术优化”,人类负责“战略方向”。未来,AI可能会主导“提示的生成与迭代”,人类只需要“定义任务目标”。”

反方(王芸,某大学AI教授)
“AI生成的提示有一个致命问题——陷入“局部最优”。比如,为了提升情感分析的准确率,AI可能会把提示写得非常“具体”:“请识别“质量差”“物流慢”“客服不好”等负面关键词”,但这样的提示无法扩展到“多标签分类”(比如同时识别“情感”和“问题类型”)。

人类提示架构师的价值在于“全局设计”——比如设计“分层提示”,让“情感分析”和“问题类型识别”共享同一个“任务定义层”,这样后续扩展任务时不需要重新写提示。而AI无法理解“可扩展性”“可维护性”这些“非功能性需求”。”

现场实验:嘉宾们用AI工具生成了一个“客服意图识别”的提示,然后让人类架构师优化。结果显示:

  • AI生成的提示:准确率85%,但无法扩展到“多意图识别”(比如用户同时问“退换货”和“查询订单”);
  • 人类优化后的提示:准确率88%,且能支持“多意图识别”(通过“规则层”增加“如果用户提到多个问题,按优先级排序”)。

三、共识:AI与提示工程的“协同法则”

经过3小时的争论,嘉宾们最终达成了三个核心共识。

共识一:提示工程是“人机协同”的核心枢纽

嘉宾共识:不管AI多智能,人类的“意图”与AI的“能力”之间永远存在“信息差”——而提示工程就是填补这个“信息差”的核心枢纽

我们可以用一个人机协同循环模型来表示这个过程(Mermaid流程图):

人类:调整目标或提示

提示工程:转化为结构化指令

AI:执行任务生成结果

反馈:评估结果并提出调整需求

这个循环的关键是:提示工程不是“单向传递”,而是“双向反馈”——人类通过提示传递意图,AI通过结果反馈调整提示,最终实现“意图与能力的匹配”。

从信息论的角度看,提示工程的目标是最大化“提示信息”与“任务目标”之间的互信息(Mutual Information):

I(P;T)=H(T)−H(T∣P)I(P;T) = H(T) - H(T|P)I(P;T)=H(T)H(TP)

其中:

  • H(T)H(T)H(T):任务的熵(表示任务的不确定性,比如“情感分析”的熵是log23≈1.58log_2 3 ≈ 1.58log231.58);
  • H(T∣P)H(T|P)H(TP):给定提示PPP后的条件熵(表示提示后任务的不确定性,比如提示后熵降到0.47);
  • I(P;T)I(P;T)I(P;T):互信息(表示提示包含的“任务相关信息”,互信息越大,提示效果越好)。

比如,“情感分析”的提示从“请分析情感”优化为“请分析电商评论的情感,注意隐含负面情绪”,互信息会从1.11提升到1.35——这就是提示工程的价值。

共识二:提示工程需要“架构化思维”,而非“技巧堆砌”

嘉宾共识:早期的“试错法”提示工程已经过时,现在需要像“软件架构设计”一样,用分层、模块化、可扩展的思路设计提示。

3.2.1 提示工程的“三层架构”模型

我们可以把提示拆分为三个核心层(Mermaid架构图):

提示架构

输入

输入

输入

输出

任务定义层:What——明确核心任务

规则约束层:How——业务逻辑与约束

输出格式层:What Output——结果的结构要求

大模型

任务结果

  • 任务定义层:回答“AI要做什么”(比如“识别客服对话的用户意图”),核心是“明确性”——不能用模糊的词(比如“帮我处理一下”);
  • 规则约束层:回答“AI要怎么干”(比如“意图包括咨询、退换货、投诉、查询”),核心是“业务相关性”——必须贴合行业规则;
  • 输出格式层:回答“AI要输出什么”(比如“返回JSON,包含intent、product_id”),核心是“结构化”——方便后续系统集成。
3.2.2 案例:医疗病历解析的提示架构

某医院用大模型解析电子病历,提示架构如下:

  • 任务定义层:“从以下病历中提取患者的主要诊断、次要诊断、ICD-10编码、症状描述和治疗方案”;
  • 规则约束层:“主要诊断是导致本次住院的最主要原因;ICD-10编码参考2023版标准;症状描述需包含“发热”“咳嗽”等具体症状”;
  • 输出格式层:“返回JSON,键名:main_diagnosis、secondary_diagnosis、icd_10、symptoms、treatment_plan”。

这个架构的优势是可维护、可扩展——比如要加“过敏史”的提取,只需要修改“规则约束层”和“输出格式层”,不需要动整个提示。

共识三:“智能化+场景化”是提示工程的进化方向

嘉宾共识:未来的提示工程,既不是“人类纯手工设计”,也不是“AI完全主导”,而是**“AI做智能化优化,人类做场景化定制”**。

3.3.1 智能化:用AI辅助提示生成与优化

目前,AI辅助提示的核心技术有三种:

  1. Few-shot Generation:用大模型生成候选提示(比如输入“我要做情感分析”,模型生成多个提示);
  2. Reinforcement Learning from Human Feedback (RLHF):根据人类对提示效果的评分,用强化学习优化提示;
  3. Genetic Algorithms:模拟“自然选择”,让提示“进化”——比如生成10个提示,选择效果最好的3个,交叉组合生成新的提示。

举个例子:用PromptPerfect优化“客服意图识别”提示:

  • 输入基础提示:“请识别用户意图”;
  • 输入样本对话:“我买的衣服太大了,能换吗?”(正确意图:退换货申请);
  • 工具输出优化提示:“请识别以下客服对话的用户意图,意图包括咨询商品信息、退换货申请、投诉、查询订单。注意识别隐含意图(比如“衣服太大”属于退换货申请)。输出JSON格式,包含intent、product_id、order_id。”
3.3.2 场景化:垂直领域的提示定制

提示工程的“场景化”核心是**“嵌入行业知识”**——比如:

  • 金融领域:提示需要包含“征信报告”“债务率”“资产抵押”等关键词;
  • 医疗领域:提示需要包含“ICD-10编码”“临床术语”“症状描述”等关键词;
  • 电商领域:提示需要包含“SKU”“订单状态”“退换货规则”等关键词。

案例:某金融公司的“信贷风险评估”提示:

请评估用户的信贷违约风险,输出风险等级(低/中/高)和关键理由。评估维度包括:

  1. 征信报告:逾期次数>3次视为高风险;
  2. 收入债务比:>50%视为中风险;
  3. 资产情况:有房产抵押可降低一级风险。
    输出格式:{“risk_level”: “高”, “key_reasons”: [“逾期次数4次”, “收入债务比55%”], “confidence_score”: 0.9}

四、实战:电商客服意图识别的提示架构设计

为了验证上述共识,我们以“电商客服对话意图识别”为例,展示提示工程的架构设计与AI协同优化过程

4.1 需求分析

我们的目标是让AI识别用户的4种核心意图:

  1. 咨询商品信息(比如“这款手机支持5G吗?”);
  2. 退换货申请(比如“我买的衣服太大了,能换吗?”);
  3. 投诉(比如“快递太慢了,再也不买了!”);
  4. 查询订单(比如“我的订单怎么还没到?”)。

同时,需要提取关键信息:商品ID、订单号、问题描述。

4.2 开发环境搭建

需要用到的工具:

  • OpenAI API:调用GPT-3.5-turbo模型;
  • PromptPerfect:AI提示优化工具;
  • Python:编写测试代码。

安装依赖:

pipinstallopenai python-dotenv

4.3 提示架构设计

根据“三层架构”模型,我们设计基础提示:

# 任务定义层 请识别以下客服对话的用户意图,并提取关键信息。 # 规则约束层 1. 意图分类:严格从「咨询商品信息」「退换货申请」「投诉」「查询订单」中选择; 2. 关键信息提取: - 商品ID:对话中提到的商品编号(如12345),无则填「无」; - 订单号:对话中提到的订单编号(如67890),无则填「无」; - 问题描述:简洁总结用户的核心问题(不超过50字)。 # 输出格式层 仅返回JSON格式结果,键名:intent, product_id, order_id, problem_description。 对话内容:{dialog}

4.4 AI辅助优化

用PromptPerfect输入基础提示和样本对话,工具生成优化后的提示

请准确识别以下客服对话的用户意图,并提取关键信息: 1. 意图分类:必须从「咨询商品信息」「退换货申请」「投诉」「查询订单」中选择,不得自定义; 2. 关键信息提取: - 商品ID:仅提取对话中明确提到的商品编号(如“商品ID:12345”中的12345),无则填「无」; - 订单号:仅提取对话中明确提到的订单编号(如“订单号是67890”中的67890),无则填「无」; - 问题描述:用10-30字总结用户的核心需求,避免冗余。 3. 输出要求:仅返回标准JSON,无额外文本。 对话内容:{dialog}

4.5 测试与调整

我们用4个测试对话验证提示效果:

测试对话1:

“你好,我买的那件连衣裙(商品ID:12345)太大了,能换小一码吗?”

基础提示输出

{"intent":"退换货申请","product_id":"12345","order_id":"无","problem_description":"用户买的连衣裙太大,想换小一码"}

优化后提示输出

{"intent":"退换货申请","product_id":"12345","order_id":"无","problem_description":"连衣裙太大,想换小一码"}
测试对话2:

“我的订单怎么还没到?订单号是67890。”

基础提示输出

{"intent":"查询订单","product_id":"无","order_id":"67890","problem_description":"查询订单物流状态"}

优化后提示输出

{"intent":"查询订单","product_id":"无","order_id":"67890","problem_description":"查询订单未送达原因"}
测试对话3:

“你们的快递也太慢了吧,都三天了还没发货!”

基础提示输出

{"intent":"投诉","product_id":"无","order_id":"无","problem_description":"快递太慢,三天没发货"}

优化后提示输出

{"intent":"投诉","product_id":"无","order_id":"无","problem_description":"快递延迟三天未发货"}
测试对话4:

“请问这款手机支持5G吗?”

基础提示输出

{"intent":"咨询商品信息","product_id":"无","order_id":"无","problem_description":"询问手机是否支持5G"}

优化后提示输出

{"intent":"咨询商品信息","product_id":"无","order_id":"无","problem_description":"咨询手机是否支持5G"}

4.6 结果分析

优化后的提示有两个明显提升:

  1. 问题描述更简洁:比如测试对话1的问题描述从“用户买的连衣裙太大,想换小一码”简化为“连衣裙太大,想换小一码”,更符合“简洁”的要求;
  2. 关键信息提取更准确:比如测试对话2的问题描述从“查询订单物流状态”优化为“查询订单未送达原因”,更贴合用户的真实需求。

五、未来趋势:AI与提示工程的“共生进化”

论坛的最后,嘉宾们对未来的提示工程趋势达成了三点预判:

5.1 趋势一:提示工程的“低代码化”

未来,会出现更多低代码提示设计工具——比如拖拽“任务定义模块”“规则约束模块”“输出格式模块”,就能生成完整的提示。比如:

  • 拖拽“任务定义”模块,选择“客服意图识别”;
  • 拖拽“规则约束”模块,添加“意图包括咨询、退换货、投诉、查询”;
  • 拖拽“输出格式”模块,选择“JSON”,添加“intent、product_id、order_id”字段。

这样,非技术人员(比如客服主管、产品经理)也能设计提示,降低提示工程的技术门槛。

5.2 趋势二:提示与模型的“双向学习”

未来的大模型会**“学习提示的模式”——比如看到“请分析情感”的提示,模型会自动调整输出逻辑(比如优先识别关键词);而提示工程也会“适配模型的能力”**——比如针对GPT-4的多模态能力,设计包含“文本+图像”的提示(比如“请分析这张商品图片的质量,并结合用户评论总结问题”)。

这种“双向学习”会形成**“提示-模型”的共生循环**:模型的能力提升推动提示工程的进化,提示工程的进化反过来促进模型的优化。

5.3 趋势三:提示工程的“标准化生态”

未来,会出现像OpenAPI那样的“提示标准规范”——比如“Prompt API Specification(PAS)”,定义提示的结构、字段、约束。这样:

  • 不同模型(比如GPT-4、Claude 3、文心一言)能兼容同一个提示;
  • 不同应用(比如客服系统、信贷系统、医疗系统)能复用同一个提示架构;
  • 开发者能通过“提示市场”(比如PromptHub)共享和购买行业提示模板。

结语:做人机协同的“桥梁设计师”

论坛结束时,已是凌晨1点。走出会议室,李阳望着窗外的星空,对身边的年轻架构师说:

“很多人问我,提示工程的未来是什么?我觉得,提示工程的未来不是“让AI更聪明”,而是“让人类与AI的对话更高效”。我们不是“AI的驯兽师”,而是“人机协同的桥梁设计师”——设计出能让人类意图准确传递、AI能力充分发挥的“桥梁”。

当AI能读懂“潜台词”,当提示能自动优化,我们要做的,是站在更高的层面——定义“对话的规则”,规划“桥梁的结构”,让人类与AI的协同,更自然,更高效。”

工具与资源推荐

  1. 提示工程工具

    • PromptPerfect:AI提示优化工具(https://promptperfect.jina.ai/);
    • ChatGPT Custom Instructions:自定义长期提示(OpenAI官网);
    • Anthropic Prompt Library:行业提示模板(https://www.anthropic.com/)。
  2. 学习资源

    • OpenAI《Prompt Engineering Guide》:官方提示工程指南(https://platform.openai.com/docs/guides/prompt-engineering);
    • Coursera《Prompt Engineering for AI》:吴恩达团队的课程;
    • Medium专栏《Prompt Engineering》:行业专家的实战文章。
  3. 社区

    • Reddit:r/PromptEngineering(https://www.reddit.com/r/PromptEngineering/);
    • 知乎:“提示工程”话题(https://www.zhihu.com/topic/26000000);
    • GitHub:Prompt Engineering仓库(https://github.com/dair-ai/Prompt-Engineering-Guide)。

最后:提示工程的本质,是“人类对AI的理解”与“AI对人类的理解”的碰撞。当我们讨论“协同进化”时,其实是在讨论——如何让人类的意图,更准确地“翻译”给AI;如何让AI的能力,更高效地“服务”于人类

这,就是提示工程架构师的使命。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 11:05:08

【接口测试】1_持续集成 _持续集成与自动化测试(重点)

文章目录一、软件发布流程二、持续集成2.1 概念2.2 目的2.3 git、jenkins三、持续测试一、软件发布流程 二、持续集成 2.1 概念 团队成员,将自己的工做成果,集成到一个公共平台上。成员可以每天集成一次,也可以一天集成多次。 2.2 目的 目…

作者头像 李华
网站建设 2026/4/18 7:02:15

HiveOperator 中 hql 模板路径解析失败的原因分析

本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术! 问题描述 HiveOperator 中以类似 ../xxx.hql 或 /yyy/xxx.hql 的方式…

作者头像 李华
网站建设 2026/4/17 20:04:04

AI药品管理系统:用技术筑牢医药全链路安全防线

医药行业的核心诉求的是安全与精准,从研发、生产到流通、使用,每一环都容不得半点疏漏。AI药品管理系统绝非简单的“医药台账工具”,而是依托AI算法与物联网技术,打通药品全生命周期的数据链路,用技术手段实现合规管控…

作者头像 李华
网站建设 2026/4/17 23:47:31

学术写作进入AI时代:9款智能工具实测,开题报告与论文初稿速成指南

在毕业论文撰写过程中,学生常面临开题报告与正文写作的效率瓶颈,传统人工写作虽灵活性强但耗时较多,而AI工具能高效生成内容并优化文本重复率与机器识别痕迹。基于对9款主流平台的横向测评结果,可精准筛选出适配学术场景的智能辅助…

作者头像 李华
网站建设 2026/4/18 8:40:38

全网最全专科生必备TOP9一键生成论文工具测评

全网最全专科生必备TOP9一键生成论文工具测评 2025年专科生论文写作工具测评:为何需要一份权威榜单? 随着高校教育的不断深化,专科生在学业过程中对论文写作的需求日益增加。然而,面对时间紧、任务重、格式要求高、内容质量难把…

作者头像 李华
网站建设 2026/4/18 2:49:20

驾校路考模拟:考生练习应对VoxCPM-1.5-TTS-WEB-UI电子考官提问

驾校路考模拟:考生练习应对VoxCPM-1.5-TTS-WEB-UI电子考官提问 在驾驶培训行业,一个长期存在的难题是——如何让学员在真实考试前充分适应“听指令、做操作”的临场反应?传统教学中,教练反复口头提问,不仅耗时费力&am…

作者头像 李华