1. 项目概述:为AI智能体注入“肌肉记忆”
如果你也经常让AI助手帮你写代码、查资料或者处理文件,大概率遇到过这种情况:你让它“把CSV文件里的数据画成折线图”,它可能会先花几百个token去“思考”该用哪个库,然后尝试用matplotlib写一段,发现数据格式不对,又回头去调整,来回几次,不仅耗时长,消耗的token费用也蹭蹭上涨。更别提那些本地运行的小模型了,面对稍微复杂点的任务,比如“用Playwright自动化登录网站并截图”,它们很可能直接“摆烂”,告诉你“我无法执行此操作”。
这就是当前AI智能体(Agent)面临的核心痛点:它们拥有强大的“大脑”(推理能力),但缺乏执行具体任务的“肌肉记忆”。每次遇到任务,它们都得从零开始“回忆”或“搜索”正确的命令、API调用方式和数据处理逻辑,这个过程充满了试错,极其低效且昂贵。
besoeasy/open-skills这个项目,就是为了根治这个问题而生的。你可以把它理解为一个为AI智能体准备的、开箱即用的“技能武器库”。它不是一个框架,也不是一个SDK,而是一套经过实战检验的、标准化的“执行手册”(Playbooks)。每个技能(Skill)都是一个独立的Markdown文件,里面清晰地写着:“要完成XX任务,请依次执行A、B、C命令,调用Y API,数据格式应该是Z,返回结果这样解析”。
它的价值直接体现在数字上:能将完成一个典型任务的token消耗降低95%-98%。这意味着,原本需要花费0.2美元、调用GPT-4十几次才能搞定的任务,现在可能只需要0.004美元、一两次调用就完成了。对于本地模型(如Llama, Mistral),这更是从“经常失败”到“几乎总能成功”的质变。这个项目适合所有正在或打算使用AI智能体(无论是云端如ChatGPT、Claude,还是本地如Ollama + Llama)来提高工作效率的开发者、数据分析师乃至普通用户。它让你能用极低的成本,甚至零成本,获得接近甚至超越GPT-4级别的任务执行可靠性。
2. 核心设计思路:解耦“思考”与“执行”
2.1 问题根源:智能体的“知识断层”
要理解Open Skills的价值,首先要看清当前AI智能体工作流的本质缺陷。当我们给智能体一个指令时,比如“帮我查一下纽约和伦敦之间的飞行距离”,它的内部处理流程通常是这样的:
- 理解意图:模型成功理解你要查距离。
- 规划步骤:它“知道”需要调用某个地理编码API把城市名转成坐标,再用公式计算距离。
- 知识检索与试错:问题就出在这里。它需要从它庞大的、但可能不精确或过时的训练数据中,“回忆”出:
- 哪个地理编码API是免费且可用的?(是Google Maps API吗?需要密钥吗?)
- 具体的API端点(Endpoint)URL是什么?
- 请求参数应该怎么传?(
city=New+York还是address=New%20York?) - 返回的JSON结构是怎样的?距离信息藏在哪个字段里?(
results[0].geometry.location还是distance.value?) - 计算大圆距离(Haversine formula)的公式具体怎么写?
这个过程充满了不确定性。模型可能会选错API,写错参数格式,或者解析错返回字段,导致调用失败。然后它需要分析错误信息,调整代码,再次尝试。每一次尝试都是一轮新的对话回合,消耗大量token。对于本地小模型,其训练数据中可能根本没有这些最新、最具体的API知识,因此连“回忆”都做不到,直接宣告失败。
2.2 解决方案:提供标准化的“执行手册”
Open Skills的核心理念是“解耦”。将智能体的工作分为两部分:
- “思考”层(模型负责):理解用户意图、进行任务规划、做出决策判断。这是模型的强项。
- “执行”层(Open Skills负责):提供完成某个具体任务所需的、所有确切的、可操作的知识。包括:确切的Shell命令、可用的API URL、必要的请求头/参数、预期的响应结构、以及结果解析的代码片段。
每一个Skill文件(例如skills/city-distance/SKILL.md)就是一份针对特定任务的“执行手册”。当智能体接到任务时,它不再需要从零开始构建知识,而是先去技能库中查找是否有现成的“手册”。如果有,它就直接“照着手册做”。
举个例子对比:
没有Open Skills时:
用户:“查纽约到伦敦的距离。” 智能体:“我需要用地理编码API…让我想想,可以用OpenCage…请求URL大概是…参数这么写…试试看。哦,返回错了,可能是密钥问题?换Google Maps试试…又错了,配额超了?再换一个…”
有Open Skills时:
用户:“查纽约到伦敦的距离。” 智能体:“(检索技能库,找到
city-distance技能)找到‘城市距离计算’手册。手册说:1. 使用免费的https://api.opencagedata.com/geocode/v1/jsonAPI。2. 密钥可用xxxx(或从环境变量读取)。3. 请求参数是q={城市名}。4. 返回的经纬度在results[0].geometry里。5. 用这个Haversine公式计算距离。好的,我按步骤执行。” (一次调用,成功返回结果)
这种模式的优势是压倒性的:
- 极高成功率:手册里的方法是经过测试(Battle-tested)的,避开了所有常见的坑。
- 极低Token消耗:模型无需在对话中“思考”和“试错”执行细节,只需读取一次手册并执行,对话轮次大幅减少。
- 赋能本地模型:本地小模型虽然“知识”有限,但“理解指令”和“按步骤执行”的能力并不弱。有了详细的手册,它们就能完成复杂任务。
- 维护性:当某个API失效或更新时,只需更新对应的一个Skill文件,所有使用该技能的智能体立即升级,无需重新训练模型。
2.3 技能文件的结构:为机器阅读而优化
一个典型的Skill文件(SKILL.md)是为AI高效解析而高度结构化的。它通常包含:
- 任务描述:清晰说明这个技能是干什么的。
- 前置条件:需要安装什么工具(如
curl,jq,python3)或库。 - 核心命令/代码块:给出可直接复制粘贴运行的命令或代码片段。这是技能的核心。
- 输入输出示例:展示典型的输入应该是什么样,经过技能处理后输出又是什么样。
- 参数说明:解释命令中可替换的部分(如
{filename})。 - 错误处理:提示常见的错误及解决方法。
这种结构让AI能快速提取关键信息,几乎不会产生歧义。
3. 实战部署:让智能体“学会”使用技能库
理解了理念,下一步就是把它用起来。部署Open Skills的核心,就是让智能体“知道”这个技能库的存在,并在执行任务前养成“先查手册”的习惯。这主要通过修改智能体的“系统提示词”(System Prompt)来实现。
3.1 基础准备:克隆技能库
无论你使用哪种智能体,第一步都是相同的:把技能库拿到本地。
git clone https://github.com/besoeasy/open-skills ~/open-skills我建议就放在用户主目录下,路径简单好记。当然,你也可以放在任何你喜欢的位置,后续在提示词里对应修改路径即可。
3.2 核心步骤:注入“查手册”指令
项目根目录下的prompt.txt文件是整个项目的灵魂。它是一段精心编写的指令,你需要把它加入到你的智能体系统中。这段指令的核心意思是:“孩子,在你动手做任何事之前,先到~/open-skills这个文件夹里看看,有没有现成的‘说明书’。如果有,就严格按照说明书来操作。”
下面我针对几种主流的AI编程和对话工具,给出具体的配置方法。请注意,这些配置的本质都是将prompt.txt的内容设置为智能体的底层行为准则。
3.2.1 针对专用AI编程智能体:OpenCode
OpenCode.ai 是与此项目配合度最高的智能体之一。它的设计理念就是基于项目上下文(AGENTS.md)来工作。
- 操作:在你的项目根目录下,执行
cat ~/open-skills/prompt.txt >> AGENTS.md。这会将技能库指令追加到项目的AGENTS.md文件末尾。 - 效果:OpenCode 在启动时会自动读取
AGENTS.md,因此它会天然获得“先查技能库”的指令,无需任何额外设置。这是最无缝的集成体验。
3.2.2 针对AI编程助手:Cursor / Windsurf
这类工具通常有全局规则和项目级规则。
- 全局配置(一劳永逸):
- Cursor:打开 Cursor -> Settings -> General -> “Rules for AI”,将
prompt.txt的内容粘贴进去。 - Windsurf:打开 Windsurf -> Settings -> AI -> “Custom Instructions”,粘贴内容。
- 优点:在此电脑上使用该工具的所有项目都会生效。
- Cursor:打开 Cursor -> Settings -> General -> “Rules for AI”,将
- 项目级配置(更灵活):
- 在项目根目录下,执行
cat ~/open-skills/prompt.txt >> .cursorrules(Cursor)或cat ~/open-skills/prompt.txt >> .windsurfrules(Windsurf)。 - 优点:可以为不同项目配置不同的技能库或行为,互不干扰。例如,一个数据科学项目可能更需要数据分析技能,而一个Web项目则更需要部署和API调用技能。
- 在项目根目录下,执行
3.2.3 针对聊天式智能体:Claude Desktop
如果你想在普通的Claude对话中也获得这种能力(比如让它帮你写脚本、处理数据),可以配置Claude Desktop。
- 操作:打开Claude Desktop应用 -> 点击左下角你的头像 -> Settings -> “Custom Instructions”。将
prompt.txt的全部内容粘贴到输入框中。 - 效果:此后,你在这台电脑上通过Claude Desktop进行的每一次对话,Claude都会在回应前先检查你的技能库。当你让它“加密一个文件”时,它会自动采用
age-file-encryption技能里的最优方法。
3.2.4 针对其他开发工具
- GitHub Copilot (Chat):在项目根目录创建
.github/copilot-instructions.md文件,并将prompt.txt内容复制进去。Copilot会在该工作区的聊天中参考此文件。 - Aider:一个专注于代码的CLI工具。可以在启动时指定:
aider --system-prompt "$(cat ~/open-skills/prompt.txt)"。或者将其写入配置文件~/.aider.conf.yml的system-prompt字段。 - Continue.dev:在配置文件
~/.continue/config.json的systemMessage字段中追加技能库指令。
重要提示:
prompt.txt里的指令是“模型无关”的。它的逻辑是“如果存在路径~/open-skills,则先查找相关技能”。任何能够理解自然语言、读取文件系统(或至少能接受文件内容作为上下文)的AI模型或智能体,都可以遵循这套指令。你可以把它应用到任何支持长系统提示词的AI工具上。
3.3 配置经验与避坑指南
- 路径问题:
prompt.txt中默认的技能库路径是~/open-skills。如果你克隆到了其他位置,必须在粘贴前修改prompt.txt里的路径。否则智能体会找不到技能库。 - 指令冲突:如果你原有的系统提示词里有诸如“你是一个有帮助的助手”之类的描述,将Open Skills指令追加在后面即可。通常,越靠后的指令优先级越高。但如果出现矛盾指令,可能会让模型困惑。建议先保留原有基础角色设定,再追加技能库指令。
- 本地模型专用配置:如果你主要使用Ollama运行本地模型,一个极佳的实践是创建一个“包装脚本”。例如,创建一个
ollama-with-skills.sh脚本:
这样每次运行都自动载入技能库。#!/bin/bash SYSTEM_PROMPT=$(cat ~/open-skills/prompt.txt) ollama run llama3.1:8b --system "$SYSTEM_PROMPT" - 验证是否生效:配置完成后,问你的智能体一个技能库中明确存在的任务,比如“怎么用age加密文件?” 如果它回答中提到了
~/open-skills/skills/age-file-encryption/SKILL.md中的具体命令,而不是泛泛而谈,说明配置成功了。
4. 核心技能深度解析与应用场景
Open Skills库目前包含40多个生产就绪的技能,覆盖了开发、数据处理、自动化、内容生成等多个方面。我们挑几个有代表性的,深入看看它们是如何工作的,以及能解决什么实际问题。
4.1 技能示例:csv-data-summarizer(CSV数据汇总器)
场景:你拿到一个陌生的、几百MB的销售数据CSV文件,老板让你快速给出一些关键洞察,比如总销售额、最佳销售日、最畅销产品等。
传统AI方式:你会对AI说:“分析这个sales.csv文件。” AI可能会开始生成Python代码,用pandas读取,但可能会因为编码问题、日期列格式不对、存在空值而报错。你需要来回沟通,告诉它“日期列叫order_date,格式是YYYY-MM-DD”,“用utf-8-sig编码”,这个过程可能需要5-10轮交互。
Open Skills方式:AI检索到csv-data-summarizer技能。该技能文件里已经写好了一个健壮的Python脚本框架。AI只需要做两件事:
- 将你的文件名替换到脚本的对应位置。
- 根据你的具体问题(“总销售额、最佳销售日”),调整脚本最后输出统计量的部分。
技能文件提供的核心价值是一个处理了各种边缘情况的、可立即运行的数据处理框架,比如:
- 自动检测CSV分隔符。
- 智能推断列的数据类型(将数字字符串转为数值)。
- 安全地处理缺失值。
- 提供了计算基本统计量(总和、均值、计数、唯一值)的函数模板。
AI不再需要“发明”如何处理CSV,它只需要“配置”和“调用”这个现成的、可靠的方案。交互轮次可能降至1-2轮。
4.2 技能示例:browser-automation-agent(浏览器自动化代理)
场景:你需要每天自动登录某个内部仪表盘,下载一份报表。
传统AI方式:“写一个Python脚本用Selenium登录网站XX。” AI生成的脚本很可能在元素选择器上出错,或者没有处理页面加载等待,导致运行失败。调试浏览器自动化脚本非常耗时。
Open Skills方式:技能文件直接推荐使用Playwright而非 Selenium,并给出了理由:Playwright API更现代,自动等待机制更健壮。技能提供了一个完整的模板,包括:
- 如何安装Playwright:
pip install playwright && playwright install chromium。 - 一个包含错误处理、资源清理的上下文管理器代码块。
- 最佳实践:使用
page.wait_for_selector而非time.sleep。 - 示例:如何填写表单、点击按钮、保存截图。
AI基于这个模板,只需要替换掉目标URL、用户名/密码选择器和登录按钮选择器,就能生成一个高成功率的脚本。技能将“如何正确进行浏览器自动化”的知识固化了下来。
4.3 技能示例:free-translation-api(免费翻译API)
场景:在脚本中需要将一段用户反馈翻译成英文。
传统AI方式:AI可能会建议用Google Cloud Translation API或DeepL API,但这都需要注册、获取API密钥、可能涉及付费。
Open Skills方式:技能文件调研并封装了真正免费、无需认证的翻译服务(例如利用LibreTranslate的公共实例或某些搜索引擎的翻译接口)。它提供了:
- 可直接调用的API端点URL。
- 正确的HTTP请求方法(GET/POST)和参数格式。
- 解析返回JSON获取翻译文本的代码。
这体现了Open Skills的“Privacy-first”理念:优先选择无需账户、无需密钥的公共服务,避免厂商锁定和潜在费用。AI直接采用这个方案,省去了寻找和评估免费API的时间。
4.4 技能示例:age-file-encryption(Age文件加密)
场景:需要让AI帮忙加密一个包含敏感信息的配置文件。
传统AI方式:AI可能会生成使用OpenSSL复杂命令的代码,或者使用某个特定语言的加密库,这需要引入依赖。
Open Skills方式:技能文件推广了age这个现代、简单、安全的加密工具。它提供了:
- 安装命令:
brew install age(macOS) 或sudo apt-get install age(Linux)。 - 生成密钥对:
age-keygen -o key.txt。 - 加密命令:
age -r public_key -o secret.txt.encrypted plain.txt。 - 解密命令:
age -d -i private_key -o decrypted.txt secret.txt.encrypted。
AI的职责变得非常简单:确认文件路径,然后执行这些标准化命令。用户获得的是一个业界推荐的、审计过的加密方案,而不是AI临时“编造”的加密方法。
实操心得:不要只把Open Skills看作命令的集合,而要看作“最佳实践”的集合。每个技能都是维护者针对某个常见问题,筛选、测试、打磨出的当前最优解。当你让AI执行相关任务时,你不仅在节省token,更是在为这个任务引入一个经过验证的、可靠的解决方案。
5. 成本与隐私效益分析:从“能用”到“敢用”、“常用”
Open Skills带来的改变不仅是效率上的,更是经济和心理层面的。我们来算一笔账,并看看它如何改变我们使用AI的方式。
5.1 云端模型:从“奢侈”到“廉价”
假设一个中等复杂度的任务(例如,从Git日志生成变更记录、查询天气并格式化、爬取一个页面并提取表格),在没有技能库的情况下,GPT-4可能需要10-20轮对话来完成,消耗约5万-10万token。以GPT-4 Turbo输入$1.5/1M token,输出$3/1M token的混合均价粗略估算,单次任务成本在 $0.15 - $0.25 美元之间。
这导致什么心理?“成本焦虑”。你会不自觉地减少向AI提出复杂任务的频率,或者中途因为觉得“太贵了”而放弃调试。AI成了只能在关键时刻动用的“重型武器”。
接入Open Skills后,同样的任务,AI在1-3轮内就能完成,因为它不再试错。token消耗可能降至1000-2000。成本骤降至$0.003 - $0.005美元。这个价格使得频繁地、琐碎地使用强大模型变得经济可行。AI从“重型武器”变成了随手可用的“瑞士军刀”。你可以毫无心理负担地让它处理几十个小任务,总成本可能还不到以前处理一个任务的零头。
5.2 本地模型:从“玩具”到“生产力工具”
本地模型(如Llama 3.1 8B, Mistral 7B)最大的优势是免费和隐私。但最大的短板是知识截止日期和复杂任务执行能力差。它们经常在需要具体知识(如最新的API参数)或多步骤推理的任务上失败。
Open Skills完美地弥补了这个短板。它提供了本地模型所缺乏的、具体的、最新的“执行知识”。结合后,工作流变成了:
- 本地模型(负责思考与规划):理解你的指令,拆解任务步骤。
- Open Skills(负责执行知识):为每个步骤提供精确的“操作指南”。
- 本地模型(负责协调执行):按照指南,调用系统命令或执行代码。
结果是:零成本、高隐私、高成功率。上文的表格清晰地展示了这一点:本地模型+技能库的成功率(~95%)可以媲美甚至超过纯云端模型(85-95%),而成本是0。这对于处理敏感数据、或处于网络受限环境的开发者来说,是革命性的。
5.3 构建100%免费的AI助手栈
基于此,我们可以搭建一个完全离线、免费的个人超级助手:
# 1. 安装本地模型运行时 curl -fsSL https://ollama.com/install.sh | sh # 2. 拉取一个强大的开源模型,如 Llama 3.1 8B ollama pull llama3.1:8b # 3. 克隆技能库 git clone https://github.com/besoeasy/open-skills ~/open-skills # 4. 运行模型,并注入技能库指令 ollama run llama3.1:8b --system "$(cat ~/open-skills/prompt.txt)"现在,你就拥有了一个部署在本地、能力通过技能库极大扩展的AI助手。你可以让它处理文档、分析数据、自动化操作,所有过程都在你的电脑上完成,没有数据泄露风险,也没有一分钱账单。
注意事项:本地模型的“思考”速度可能不如GPT-4快,但对于许多确定性高的执行类任务,速度是可以接受的。关键在于,它把“付费的、联网的推理”和“免费的、本地的执行”结合了起来,在很多场景下是完全可行的替代方案。
6. 技能库的生态与贡献:人人可添砖加瓦
Open Skills的强大之处在于它是一个活的、不断成长的生态。40多个技能只是起点,真正的潜力在于社区贡献。
6.1 技能文件的标准结构
项目提供了清晰的SKILL_TEMPLATE.md模板,引导贡献者编写高质量的技能。一个优秀的技能文件应包含:
- 清晰的任务标题和描述:让AI和人类都能一眼看懂这个技能是做什么的。
- 前提条件:需要安装的工具、库或需要的API密钥(尽量选择无需密钥的)。
- 核心操作步骤:以代码块形式给出可运行的命令或脚本。这是技能的核心。
- 示例输入与输出:展示技能使用前和使用后的效果,最好有截图或代码输出。
- 参数解释:说明命令中哪些部分需要用户替换,以及替换成什么。
- 备选方案或高级用法:提供更高效或更定制化的用法。
- 故障排除:列出常见错误及解决方法。
这种结构确保了技能文件既是给AI看的“程序”,也是给人类看的“文档”。
6.2 如何贡献一个技能
假设你发现了一个用ffmpeg批量压缩视频的绝佳命令组合,想把它贡献出来。
- Fork项目:在GitHub上Fork
besoeasy/open-skills仓库。 - 创建技能目录:在
skills/下创建一个新的目录,如skills/batch-video-compress。 - 编写SKILL.md:在该目录下创建
SKILL.md文件,按照模板填写内容。确保你的命令经过充分测试。 - 提交并拉取请求:将你的更改提交到你的分支,然后向原仓库发起Pull Request (PR)。
更有趣的是,项目鼓励“AI贡献”。一个已经装备了Open Skills的AI智能体,可以自己完成上述流程的大部分步骤!你可以对它说:“我刚刚教你用ffmpeg -i input.mp4 -vcodec libx265 -crf 28 output.mp4来压缩视频。请将这个技能标准化,并贡献到Open Skills项目。” 理论上,一个足够强大的AI可以自动生成符合模板的SKILL.md,使用GitHub CLI创建分支、提交、并打开PR。
6.3 技能库的维护与演进
随着技术发展,技能可能会过时(如某个免费API关闭)。社区可以通过提交PR来更新技能。这种众包模式使得技能库能保持活力。项目维护者的角色更像是“编辑”和“质量审核”,确保合并的技能是真正有效、安全、符合最佳实践的。
对于使用者来说,定期git pull更新本地的技能库,就能免费获得所有社区贡献的新技能和旧技能的改进,就像你的AI助手在“自动学习”和“升级”。
7. 常见问题与排查技巧实录
在实际使用Open Skills的过程中,你可能会遇到一些问题。以下是我根据经验总结的常见情况及解决方法。
7.1 技能库指令未生效
- 症状:向AI提问技能库中明确存在的任务,AI的回答没有提及技能库,而是开始自己“编造”方法。
- 排查步骤:
- 检查路径:首先确认
prompt.txt中指定的技能库路径(默认~/open-skills)是否正确,并且该目录确实存在。 - 检查指令注入:确认你是否将
prompt.txt的完整内容正确添加到了智能体的系统提示词中。对于Claude Desktop、Cursor等工具,有时设置可能不会立即生效,尝试重启应用。 - 验证指令内容:直接问AI:“你的系统提示词里,关于如何处理任务,有什么特别的指令吗?” 看看它是否会复述出“先检查
~/open-skills目录”的相关内容。 - 模型上下文长度:如果你使用的是本地小模型,且系统提示词非常长(原始
prompt.txt加上你其他指令),可能会超出模型的上下文窗口,导致末尾的指令被截断。尝试精简其他部分的系统提示词。
- 检查路径:首先确认
7.2 AI找到了技能但执行错误
- 症状:AI引用了正确的技能文件,但生成的命令或代码在你的环境下报错。
- 排查步骤:
- 环境差异:技能文件中的命令通常基于某种环境假设(如Linux/macOS的Bash,Python 3)。确保你的运行环境符合要求。例如,Windows用户可能需要将
curl命令转换为Invoke-WebRequest,或者使用WSL。 - 依赖缺失:技能可能依赖特定工具(如
jq,pandoc,ffmpeg)。AI可能会在技能描述里提到,但不会主动帮你安装。执行前,先手动安装好所需依赖。 - 权限问题:某些命令(如写入系统目录、监听端口)可能需要管理员权限。注意错误信息中的“Permission denied”提示。
- 网络问题:对于调用外部API的技能,确保你的网络可以访问该API端点。有些免费API可能有访问频率限制或地域限制。
- 环境差异:技能文件中的命令通常基于某种环境假设(如Linux/macOS的Bash,Python 3)。确保你的运行环境符合要求。例如,Windows用户可能需要将
7.3 如何为特定任务创建自定义技能
- 需求:你有一个经常执行的、项目特有的复杂操作(例如,部署到公司内部服务器的脚本),希望AI也能通过技能库来调用。
- 方法:
- 在本地
~/open-skills/skills/目录下,为你项目创建一个新文件夹,例如my-project-deploy。 - 仿照现有技能,创建一个
SKILL.md文件,详细描述部署步骤、命令、需要的环境变量等。 - 这样,当你在该项目中工作时,AI就能利用这个自定义技能了。注意:这只对你的本地环境有效。如果你觉得这个技能对社区也有用,可以贡献回主项目。
- 在本地
7.4 技能库更新与管理
- 更新:定期进入
~/open-skills目录,执行git pull origin main来获取最新的社区贡献。 - 冲突:如果你本地修改了某个技能文件,更新时可能会产生冲突。建议不要直接修改主库的技能文件,而是通过创建自定义技能或向社区提交PR的方式来改进。
- 多版本/分支:你可以克隆多个技能库到不同路径,用于不同场景。然后在不同的项目或AI配置中,指向不同的技能库路径即可。
7.5 与不同AI工作流的融合
- 在ChatGPT Web界面中使用:由于Web界面通常无法修改系统提示词或访问本地文件,无法直接使用。但你可以手动将某个技能文件的内容复制到对话中,作为上下文提供给AI。
- 在自动化脚本中调用:你可以编写脚本,将任务描述和技能库路径一起发送给本地LLM的API(如Ollama的API),实现完全自动化的任务处理流水线。
我个人在深度使用Open Skills几个月后,最大的体会是它改变了我与AI协作的“心态”。以前是“我能用AI做什么?”,现在是“我应该让AI做什么?”。因为成本壁垒和可靠性问题被极大降低,我开始将更多重复性、模式化的开发运维工作交给AI,自己则专注于更高层次的架构和创意问题。它就像给我的AI助手配上了一本厚厚的、不断更新的《操作百科全书》,让它的“手”和“眼”变得无比灵巧。对于任何严肃使用AI辅助编程或自动化的人来说,集成Open Skills不是一种优化,而是一种基础能力的升级。