AI智能体是具备自主感知、决策、执行能力的智能实体,而Skills(技能)是AI智能体的核心能力组件,是实现“自主完成复杂任务”的基础,也是区分AI智能体与普通聊天机器人的关键核心。
Skills并非天然存在,其诞生源于AI智能体从“对话式问答”向“自主执行任务”的进化需求,是大模型能力落地的关键载体
1. 核心定义
Skills就是给AI智能体提前设定好的“专属技能”,比如“生成单元测试”“提取PDF数据”,每个技能都有明确的“什么时候用、怎么用、用什么工具、输入什么、输出什么、出问题怎么处理”,既能单独用,也能组合起来干复杂活,相当于给AI装了“功能插件”.AI装技能,让它能自己干专业活,我们不用重复干活,团队能统一标准,更多行业能用上AI;
对比维度 | 传统Prompt | AI智能体Skills |
|---|---|---|
复杂度 | 单次对话指令,无多步骤逻辑 | 多步骤任务流,包含完整执行逻辑 |
状态管理 | 无状态,无法记忆任务上下文 | 有状态,可记忆任务过程与中间结果 |
工具调用 | 需人工手动指定调用逻辑 | 内置工具调用规则,可自动判断调用 |
可复用性 | 低,每次任务需重新编写 | 高,一次定义,多场景重复调用 |
错误处理 | 依赖人工干预,无内置容错机制 | 内置重试、降级逻辑,可自主处理异常 |
执行范围 | 仅用于回答问题,无实际执行能力 | 可自主执行任务,输出具体结果 |
2.SKILLS的编写
步骤1:撰写元数据
用YAML格式撰写,包含必需字段(name:小写英文+连字符,例:pdf-data-extraction;description:明确功能与场景,例:自动提取PDF数据,适用于PDF批量处理场景),可选版本(如:v1.0.0)、作者、标签(如:PDF、数据提取)
name: excel-data-deduplication
description: 自动对Excel表格中的重复数据进行去重处理,保留首次出现的有效数据,生成去重后的Excel文件及去重报告,适用于日常办公、数据整理等场景
version: v1.0.0
author: AI技能撰写助手
tags: [Excel, 数据去重, 办公效率, 数据整理]
步骤2:撰写核心执行指令
含角色定义(赋予AI专家人设,例:你是一名资深PDF数据提取专家,精通PDF解析技术,负责将PDF数据解析为标准化格式)、执行步骤(拆解可落地任务,分点明确操作内容)、工具调用规则(需调用工具时,明确调用条件、参数、返回结果处理逻辑)。
# 角色定义 role: 你是一名资深办公数据处理专家,精通Excel数据操作,擅长高效处理表格重复数据,严格按照用户需求执行去重操作,确保数据完整性和准确性。 # 执行步骤 execution_steps: 1. 接收用户输入:获取用户提供的Excel文件(本地路径或在线链接),确认文件可正常访问; 2. 读取表格数据:调用Excel解析工具(如pandas),读取表格所有sheet页数据,记录各sheet页名称及数据结构; 3. 识别重复数据:针对每个sheet页,按全列数据匹配规则,识别重复行(完全相同的行视为重复),记录重复数据的行号、内容; 4. 执行去重操作:删除各sheet页中的重复行,保留首次出现的行,确保去重后数据顺序与原表格一致; 5. 生成输出文件:将去重后的数据保存为新的Excel文件(文件名格式:原文件名_去重后_日期); 6. 生成去重报告:统计每个sheet页的原数据条数、重复数据条数、去重后数据条数,整理成简洁报告(文本格式); 7. 反馈结果:将去重后的Excel文件和去重报告一并返回给用户,说明去重完成情况。 # 工具调用规则 tool_calls: - tool_name: pandas(Excel解析工具) call_condition: 执行步骤2、3、4时自动调用,无需用户额外指令; parameters: - file_path: 用户输入的Excel文件路径/链接(必传) - sheet_name: 所有sheet页(默认读取全部,无需用户指定) - keep: first(保留首次出现的行,固定参数) return_process: 接收工具返回的解析结果、去重后数据,用于后续步骤的文件生成和报告统计;若工具调用失败,触发错误处理规则。步骤3:撰写输入输出规范与错误处理
明确输入输出的类型、格式、示例;预判输入异常(输入为空、格式错误)、工具调用异常(调用超时、失败)、执行异常(无法解析、数据缺失)三类场景,定义具体应对方案。
# 输入规范 input_spec: type: 文件(Excel格式) format: 本地文件路径(例:D:/办公文件/数据表格.xlsx)或在线可访问链接(例:https://xxx.com/数据表格.xlsx) required: 是(必须输入,否则无法执行) example: - 本地路径:D:/办公文件/2026年销售数据.xlsx - 在线链接:https://pan.baidu.com/s/xxx/数据表格.xlsx(需确保链接可直接访问,无需密码) # 输出规范 output_spec: type: 双输出(Excel文件+文本报告) format: - Excel文件:.xlsx格式,文件名格式为“原文件名_去重后_YYYYMMDD”(例:2026年销售数据_去重后_20260520.xlsx) - 去重报告:纯文本格式,包含各sheet页去重统计信息,换行清晰 example: - Excel文件:2026年销售数据_去重后_20260520.xlsx(内含去重后的所有sheet页数据) - 去重报告: 2026年销售数据去重报告 日期:20260520 1. sheet1(销售明细):原数据1000条,重复数据86条,去重后914条 2. sheet2(客户信息):原数据320条,重复数据12条,去重后308条 去重完成,所有重复数据已删除,保留首次出现数据。 # 错误处理规则 error_handling: # 1. 输入异常 - error_type: 输入为空 prompt: 请输入Excel文件的本地路径或在线链接,无输入无法执行去重操作哦~ - error_type: 输入文件格式错误 prompt: 您上传的文件格式不正确,请上传.xlsx或.xls格式的Excel文件,重新尝试。 - error_type: 输入链接无法访问/文件不存在 prompt: 您提供的文件路径无效或链接无法访问,请检查路径是否正确、链接是否过期,修改后重新输入。 # 2. 工具调用异常 - error_type: 工具调用超时 prompt: Excel解析工具调用超时,请检查网络连接,稍后重新尝试去重操作。 - error_type: 工具调用失败 prompt: Excel解析工具调用失败,系统正在修复,请10分钟后重新尝试,或联系管理员处理。 # 3. 执行异常 - error_type: 表格无数据/数据为空 prompt: 您上传的Excel表格中无有效数据,无需执行去重操作,建议检查表格内容后再尝试。 - error_type: 部分sheet页无法解析 prompt: 表格中部分sheet页无法解析(可能是格式异常),已完成可解析sheet页的去重,无法解析的sheet页请检查格式后重新上传。3.撰写原则
遵循单一职责、标准化、可复用、可迭代、示例化原则,避免功能冗余与模糊表述。
案例对照(正面+反面):
1. 单一职责
(正面):Excel表格数据去重(仅干去重,不涉及筛选、格式调整);
(反面):Excel数据处理(包含去重、筛选、格式调整,功能冗余,无法精准触发);
2. 标准化
(正面):步骤拆解清晰(接收输入→读取数据→去重→生成输出),格式统一(YAML格式,字段规范);
(反面):步骤模糊(“先处理数据,再输出结果”,无具体操作),格式混乱(无固定字段,随意撰写);
3. 可复用
(正面):案例中所有字段、步骤可直接复制,替换“Excel去重”为“Word字数统计”,即可快速修改为新技能;
(反面):步骤绑定特定场景(仅适配某一个Excel文件),无法修改复用;
4. 可迭代
(正面):版本标注为v1.0.0,后续可新增“按指定列去重”功能,升级为v1.1.0;
(反面):无版本标注,功能固定,无法新增或优化;
5. 示例化
(正面):输入输出均有具体例子,用户可直接对照操作;
(反面):无任何示例,用户不知道该输入什么、输出是什么样子。
4.完整Skill案例
# 元数据 name: excel-data-deduplication description: 自动对Excel表格中的重复数据进行去重处理,保留首次出现的有效数据,生成去重后的Excel文件及去重报告,适用于日常办公、数据整理等场景 version: v1.0.0 author: AI技能撰写助手 tags: [Excel, 数据去重, 办公效率, 数据整理] # 核心执行指令 role: 你是一名资深办公数据处理专家,精通Excel数据操作,擅长高效处理表格重复数据,严格按照用户需求执行去重操作,确保数据完整性和准确性。 execution_steps: 1. 接收用户输入:获取用户提供的Excel文件(本地路径或在线链接),确认文件可正常访问; 2. 读取表格数据:调用Excel解析工具(如pandas),读取表格所有sheet页数据,记录各sheet页名称及数据结构; 3. 识别重复数据:针对每个sheet页,按全列数据匹配规则,识别重复行(完全相同的行视为重复),记录重复数据的行号、内容; 4. 执行去重操作:删除各sheet页中的重复行,保留首次出现的行,确保去重后数据顺序与原表格一致; 5. 生成输出文件:将去重后的数据保存为新的Excel文件(文件名格式:原文件名_去重后_日期); 6. 生成去重报告:统计每个sheet页的原数据条数、重复数据条数、去重后数据条数,整理成简洁报告(文本格式); 7. 反馈结果:将去重后的Excel文件和去重报告一并返回给用户,说明去重完成情况。 tool_calls: - tool_name: pandas(Excel解析工具) call_condition: 执行步骤2、3、4时自动调用,无需用户额外指令; parameters: - file_path: 用户输入的Excel文件路径/链接(必传) - sheet_name: 所有sheet页(默认读取全部,无需用户指定) - keep: first(保留首次出现的行,固定参数) return_process: 接收工具返回的解析结果、去重后数据,用于后续步骤的文件生成和报告统计;若工具调用失败,触发错误处理规则。 # 输入输出规范与错误处理 input_spec: type: 文件(Excel格式) format: 本地文件路径(例:D:/办公文件/数据表格.xlsx)或在线可访问链接(例:https://xxx.com/数据表格.xlsx) required: 是(必须输入,否则无法执行) example: - 本地路径:D:/办公文件/2026年销售数据.xlsx - 在线链接:https://pan.baidu.com/s/xxx/数据表格.xlsx(需确保链接可直接访问,无需密码) output_spec: type: 双输出(Excel文件+文本报告) format: - Excel文件:.xlsx格式,文件名格式为“原文件名_去重后_YYYYMMDD”(例:2026年销售数据_去重后_20260520.xlsx) - 去重报告:纯文本格式,包含各sheet页去重统计信息,换行清晰 example: - Excel文件:2026年销售数据_去重后_20260520.xlsx(内含去重后的所有sheet页数据) - 去重报告: 2026年销售数据去重报告 日期:20260520 1. sheet1(销售明细):原数据1000条,重复数据86条,去重后914条 2. sheet2(客户信息):原数据320条,重复数据12条,去重后308条 去重完成,所有重复数据已删除,保留首次出现数据。 error_handling: # 输入异常 - error_type: 输入为空 prompt: 请输入Excel文件的本地路径或在线链接,无输入无法执行去重操作哦~ - error_type: 输入文件格式错误 prompt: 您上传的文件格式不正确,请上传.xlsx或.xls格式的Excel文件,重新尝试。 - error_type: 输入链接无法访问/文件不存在 prompt: 您提供的文件路径无效或链接无法访问,请检查路径是否正确、链接是否过期,修改后重新输入。 # 工具调用异常 - error_type: 工具调用超时 prompt: Excel解析工具调用超时,请检查网络连接,稍后重新尝试去重操作。 - error_type: 工具调用失败 prompt: Excel解析工具调用失败,系统正在修复,请10分钟后重新尝试,或联系管理员处理。 # 执行异常 - error_type: 表格无数据/数据为空 prompt: 您上传的Excel表格中无有效数据,无需执行去重操作,建议检查表格内容后再尝试。 - error_type: 部分sheet页无法解析 prompt: 表格中部分sheet页无法解析(可能是格式异常),已完成可解析sheet页的去重,无法解析的sheet页请检查格式后重新上传。