news 2026/5/8 3:21:34

Open Skills:为AI智能体注入“肌肉记忆”,降低95% Token消耗

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Open Skills:为AI智能体注入“肌肉记忆”,降低95% Token消耗

1. 项目概述:为AI智能体注入“肌肉记忆”

如果你也经常让AI助手帮你写代码、查资料或者处理文件,大概率遇到过这种情况:你让它“把CSV文件里的数据画成折线图”,它可能会先花几百个token去“思考”该用哪个库,然后尝试用matplotlib写一段,发现数据格式不对,又回头去调整,来回几次,不仅耗时长,消耗的token费用也蹭蹭上涨。更别提那些本地运行的小模型了,面对稍微复杂点的任务,比如“用Playwright自动化登录网站并截图”,它们很可能直接“摆烂”,告诉你“我无法执行此操作”。

这就是当前AI智能体(Agent)面临的核心痛点:它们拥有强大的“大脑”(推理能力),但缺乏执行具体任务的“肌肉记忆”。每次遇到任务,它们都得从零开始“回忆”或“搜索”正确的命令、API调用方式和数据处理逻辑,这个过程充满了试错,极其低效且昂贵。

besoeasy/open-skills这个项目,就是为了根治这个问题而生的。你可以把它理解为一个为AI智能体准备的、开箱即用的“技能武器库”。它不是一个框架,也不是一个SDK,而是一套经过实战检验的、标准化的“执行手册”(Playbooks)。每个技能(Skill)都是一个独立的Markdown文件,里面清晰地写着:“要完成XX任务,请依次执行A、B、C命令,调用Y API,数据格式应该是Z,返回结果这样解析”。

它的价值直接体现在数字上:能将完成一个典型任务的token消耗降低95%-98%。这意味着,原本需要花费0.2美元、调用GPT-4十几次才能搞定的任务,现在可能只需要0.004美元、一两次调用就完成了。对于本地模型(如Llama, Mistral),这更是从“经常失败”到“几乎总能成功”的质变。这个项目适合所有正在或打算使用AI智能体(无论是云端如ChatGPT、Claude,还是本地如Ollama + Llama)来提高工作效率的开发者、数据分析师乃至普通用户。它让你能用极低的成本,甚至零成本,获得接近甚至超越GPT-4级别的任务执行可靠性。

2. 核心设计思路:解耦“思考”与“执行”

2.1 问题根源:智能体的“知识断层”

要理解Open Skills的价值,首先要看清当前AI智能体工作流的本质缺陷。当我们给智能体一个指令时,比如“帮我查一下纽约和伦敦之间的飞行距离”,它的内部处理流程通常是这样的:

  1. 理解意图:模型成功理解你要查距离。
  2. 规划步骤:它“知道”需要调用某个地理编码API把城市名转成坐标,再用公式计算距离。
  3. 知识检索与试错:问题就出在这里。它需要从它庞大的、但可能不精确或过时的训练数据中,“回忆”出:
    • 哪个地理编码API是免费且可用的?(是Google Maps API吗?需要密钥吗?)
    • 具体的API端点(Endpoint)URL是什么?
    • 请求参数应该怎么传?(city=New+York还是address=New%20York?)
    • 返回的JSON结构是怎样的?距离信息藏在哪个字段里?(results[0].geometry.location还是distance.value?)
    • 计算大圆距离(Haversine formula)的公式具体怎么写?

这个过程充满了不确定性。模型可能会选错API,写错参数格式,或者解析错返回字段,导致调用失败。然后它需要分析错误信息,调整代码,再次尝试。每一次尝试都是一轮新的对话回合,消耗大量token。对于本地小模型,其训练数据中可能根本没有这些最新、最具体的API知识,因此连“回忆”都做不到,直接宣告失败。

2.2 解决方案:提供标准化的“执行手册”

Open Skills的核心理念是“解耦”。将智能体的工作分为两部分:

  • “思考”层(模型负责):理解用户意图、进行任务规划、做出决策判断。这是模型的强项。
  • “执行”层(Open Skills负责):提供完成某个具体任务所需的、所有确切的、可操作的知识。包括:确切的Shell命令、可用的API URL、必要的请求头/参数、预期的响应结构、以及结果解析的代码片段。

每一个Skill文件(例如skills/city-distance/SKILL.md)就是一份针对特定任务的“执行手册”。当智能体接到任务时,它不再需要从零开始构建知识,而是先去技能库中查找是否有现成的“手册”。如果有,它就直接“照着手册做”。

举个例子对比:

  • 没有Open Skills时

    用户:“查纽约到伦敦的距离。” 智能体:“我需要用地理编码API…让我想想,可以用OpenCage…请求URL大概是…参数这么写…试试看。哦,返回错了,可能是密钥问题?换Google Maps试试…又错了,配额超了?再换一个…”

  • 有Open Skills时

    用户:“查纽约到伦敦的距离。” 智能体:“(检索技能库,找到city-distance技能)找到‘城市距离计算’手册。手册说:1. 使用免费的https://api.opencagedata.com/geocode/v1/jsonAPI。2. 密钥可用xxxx(或从环境变量读取)。3. 请求参数是q={城市名}。4. 返回的经纬度在results[0].geometry里。5. 用这个Haversine公式计算距离。好的,我按步骤执行。” (一次调用,成功返回结果)

这种模式的优势是压倒性的:

  1. 极高成功率:手册里的方法是经过测试(Battle-tested)的,避开了所有常见的坑。
  2. 极低Token消耗:模型无需在对话中“思考”和“试错”执行细节,只需读取一次手册并执行,对话轮次大幅减少。
  3. 赋能本地模型:本地小模型虽然“知识”有限,但“理解指令”和“按步骤执行”的能力并不弱。有了详细的手册,它们就能完成复杂任务。
  4. 维护性:当某个API失效或更新时,只需更新对应的一个Skill文件,所有使用该技能的智能体立即升级,无需重新训练模型。

2.3 技能文件的结构:为机器阅读而优化

一个典型的Skill文件(SKILL.md)是为AI高效解析而高度结构化的。它通常包含:

  • 任务描述:清晰说明这个技能是干什么的。
  • 前置条件:需要安装什么工具(如curl,jq,python3)或库。
  • 核心命令/代码块:给出可直接复制粘贴运行的命令或代码片段。这是技能的核心。
  • 输入输出示例:展示典型的输入应该是什么样,经过技能处理后输出又是什么样。
  • 参数说明:解释命令中可替换的部分(如{filename})。
  • 错误处理:提示常见的错误及解决方法。

这种结构让AI能快速提取关键信息,几乎不会产生歧义。

3. 实战部署:让智能体“学会”使用技能库

理解了理念,下一步就是把它用起来。部署Open Skills的核心,就是让智能体“知道”这个技能库的存在,并在执行任务前养成“先查手册”的习惯。这主要通过修改智能体的“系统提示词”(System Prompt)来实现。

3.1 基础准备:克隆技能库

无论你使用哪种智能体,第一步都是相同的:把技能库拿到本地。

git clone https://github.com/besoeasy/open-skills ~/open-skills

我建议就放在用户主目录下,路径简单好记。当然,你也可以放在任何你喜欢的位置,后续在提示词里对应修改路径即可。

3.2 核心步骤:注入“查手册”指令

项目根目录下的prompt.txt文件是整个项目的灵魂。它是一段精心编写的指令,你需要把它加入到你的智能体系统中。这段指令的核心意思是:“孩子,在你动手做任何事之前,先到~/open-skills这个文件夹里看看,有没有现成的‘说明书’。如果有,就严格按照说明书来操作。”

下面我针对几种主流的AI编程和对话工具,给出具体的配置方法。请注意,这些配置的本质都是将prompt.txt的内容设置为智能体的底层行为准则。

3.2.1 针对专用AI编程智能体:OpenCode

OpenCode.ai 是与此项目配合度最高的智能体之一。它的设计理念就是基于项目上下文(AGENTS.md)来工作。

  • 操作:在你的项目根目录下,执行cat ~/open-skills/prompt.txt >> AGENTS.md。这会将技能库指令追加到项目的AGENTS.md文件末尾。
  • 效果:OpenCode 在启动时会自动读取AGENTS.md,因此它会天然获得“先查技能库”的指令,无需任何额外设置。这是最无缝的集成体验。
3.2.2 针对AI编程助手:Cursor / Windsurf

这类工具通常有全局规则和项目级规则。

  • 全局配置(一劳永逸)
    • Cursor:打开 Cursor -> Settings -> General -> “Rules for AI”,将prompt.txt的内容粘贴进去。
    • Windsurf:打开 Windsurf -> Settings -> AI -> “Custom Instructions”,粘贴内容。
    • 优点:在此电脑上使用该工具的所有项目都会生效。
  • 项目级配置(更灵活)
    • 在项目根目录下,执行cat ~/open-skills/prompt.txt >> .cursorrules(Cursor)或cat ~/open-skills/prompt.txt >> .windsurfrules(Windsurf)。
    • 优点:可以为不同项目配置不同的技能库或行为,互不干扰。例如,一个数据科学项目可能更需要数据分析技能,而一个Web项目则更需要部署和API调用技能。
3.2.3 针对聊天式智能体:Claude Desktop

如果你想在普通的Claude对话中也获得这种能力(比如让它帮你写脚本、处理数据),可以配置Claude Desktop。

  • 操作:打开Claude Desktop应用 -> 点击左下角你的头像 -> Settings -> “Custom Instructions”。将prompt.txt的全部内容粘贴到输入框中。
  • 效果:此后,你在这台电脑上通过Claude Desktop进行的每一次对话,Claude都会在回应前先检查你的技能库。当你让它“加密一个文件”时,它会自动采用age-file-encryption技能里的最优方法。
3.2.4 针对其他开发工具
  • GitHub Copilot (Chat):在项目根目录创建.github/copilot-instructions.md文件,并将prompt.txt内容复制进去。Copilot会在该工作区的聊天中参考此文件。
  • Aider:一个专注于代码的CLI工具。可以在启动时指定:aider --system-prompt "$(cat ~/open-skills/prompt.txt)"。或者将其写入配置文件~/.aider.conf.ymlsystem-prompt字段。
  • Continue.dev:在配置文件~/.continue/config.jsonsystemMessage字段中追加技能库指令。

重要提示prompt.txt里的指令是“模型无关”的。它的逻辑是“如果存在路径~/open-skills,则先查找相关技能”。任何能够理解自然语言、读取文件系统(或至少能接受文件内容作为上下文)的AI模型或智能体,都可以遵循这套指令。你可以把它应用到任何支持长系统提示词的AI工具上。

3.3 配置经验与避坑指南

  1. 路径问题prompt.txt中默认的技能库路径是~/open-skills。如果你克隆到了其他位置,必须在粘贴前修改prompt.txt里的路径。否则智能体会找不到技能库。
  2. 指令冲突:如果你原有的系统提示词里有诸如“你是一个有帮助的助手”之类的描述,将Open Skills指令追加在后面即可。通常,越靠后的指令优先级越高。但如果出现矛盾指令,可能会让模型困惑。建议先保留原有基础角色设定,再追加技能库指令。
  3. 本地模型专用配置:如果你主要使用Ollama运行本地模型,一个极佳的实践是创建一个“包装脚本”。例如,创建一个ollama-with-skills.sh脚本:
    #!/bin/bash SYSTEM_PROMPT=$(cat ~/open-skills/prompt.txt) ollama run llama3.1:8b --system "$SYSTEM_PROMPT"
    这样每次运行都自动载入技能库。
  4. 验证是否生效:配置完成后,问你的智能体一个技能库中明确存在的任务,比如“怎么用age加密文件?” 如果它回答中提到了~/open-skills/skills/age-file-encryption/SKILL.md中的具体命令,而不是泛泛而谈,说明配置成功了。

4. 核心技能深度解析与应用场景

Open Skills库目前包含40多个生产就绪的技能,覆盖了开发、数据处理、自动化、内容生成等多个方面。我们挑几个有代表性的,深入看看它们是如何工作的,以及能解决什么实际问题。

4.1 技能示例:csv-data-summarizer(CSV数据汇总器)

场景:你拿到一个陌生的、几百MB的销售数据CSV文件,老板让你快速给出一些关键洞察,比如总销售额、最佳销售日、最畅销产品等。

传统AI方式:你会对AI说:“分析这个sales.csv文件。” AI可能会开始生成Python代码,用pandas读取,但可能会因为编码问题、日期列格式不对、存在空值而报错。你需要来回沟通,告诉它“日期列叫order_date,格式是YYYY-MM-DD”,“用utf-8-sig编码”,这个过程可能需要5-10轮交互。

Open Skills方式:AI检索到csv-data-summarizer技能。该技能文件里已经写好了一个健壮的Python脚本框架。AI只需要做两件事:

  1. 将你的文件名替换到脚本的对应位置。
  2. 根据你的具体问题(“总销售额、最佳销售日”),调整脚本最后输出统计量的部分。

技能文件提供的核心价值是一个处理了各种边缘情况的、可立即运行的数据处理框架,比如:

  • 自动检测CSV分隔符。
  • 智能推断列的数据类型(将数字字符串转为数值)。
  • 安全地处理缺失值。
  • 提供了计算基本统计量(总和、均值、计数、唯一值)的函数模板。

AI不再需要“发明”如何处理CSV,它只需要“配置”和“调用”这个现成的、可靠的方案。交互轮次可能降至1-2轮。

4.2 技能示例:browser-automation-agent(浏览器自动化代理)

场景:你需要每天自动登录某个内部仪表盘,下载一份报表。

传统AI方式:“写一个Python脚本用Selenium登录网站XX。” AI生成的脚本很可能在元素选择器上出错,或者没有处理页面加载等待,导致运行失败。调试浏览器自动化脚本非常耗时。

Open Skills方式:技能文件直接推荐使用Playwright而非 Selenium,并给出了理由:Playwright API更现代,自动等待机制更健壮。技能提供了一个完整的模板,包括:

  • 如何安装Playwright:pip install playwright && playwright install chromium
  • 一个包含错误处理、资源清理的上下文管理器代码块。
  • 最佳实践:使用page.wait_for_selector而非time.sleep
  • 示例:如何填写表单、点击按钮、保存截图。

AI基于这个模板,只需要替换掉目标URL、用户名/密码选择器和登录按钮选择器,就能生成一个高成功率的脚本。技能将“如何正确进行浏览器自动化”的知识固化了下来。

4.3 技能示例:free-translation-api(免费翻译API)

场景:在脚本中需要将一段用户反馈翻译成英文。

传统AI方式:AI可能会建议用Google Cloud Translation API或DeepL API,但这都需要注册、获取API密钥、可能涉及付费。

Open Skills方式:技能文件调研并封装了真正免费、无需认证的翻译服务(例如利用LibreTranslate的公共实例或某些搜索引擎的翻译接口)。它提供了:

  • 可直接调用的API端点URL。
  • 正确的HTTP请求方法(GET/POST)和参数格式。
  • 解析返回JSON获取翻译文本的代码。

这体现了Open Skills的“Privacy-first”理念:优先选择无需账户、无需密钥的公共服务,避免厂商锁定和潜在费用。AI直接采用这个方案,省去了寻找和评估免费API的时间。

4.4 技能示例:age-file-encryption(Age文件加密)

场景:需要让AI帮忙加密一个包含敏感信息的配置文件。

传统AI方式:AI可能会生成使用OpenSSL复杂命令的代码,或者使用某个特定语言的加密库,这需要引入依赖。

Open Skills方式:技能文件推广了age这个现代、简单、安全的加密工具。它提供了:

  • 安装命令:brew install age(macOS) 或sudo apt-get install age(Linux)。
  • 生成密钥对:age-keygen -o key.txt
  • 加密命令:age -r public_key -o secret.txt.encrypted plain.txt
  • 解密命令:age -d -i private_key -o decrypted.txt secret.txt.encrypted

AI的职责变得非常简单:确认文件路径,然后执行这些标准化命令。用户获得的是一个业界推荐的、审计过的加密方案,而不是AI临时“编造”的加密方法。

实操心得:不要只把Open Skills看作命令的集合,而要看作“最佳实践”的集合。每个技能都是维护者针对某个常见问题,筛选、测试、打磨出的当前最优解。当你让AI执行相关任务时,你不仅在节省token,更是在为这个任务引入一个经过验证的、可靠的解决方案。

5. 成本与隐私效益分析:从“能用”到“敢用”、“常用”

Open Skills带来的改变不仅是效率上的,更是经济和心理层面的。我们来算一笔账,并看看它如何改变我们使用AI的方式。

5.1 云端模型:从“奢侈”到“廉价”

假设一个中等复杂度的任务(例如,从Git日志生成变更记录、查询天气并格式化、爬取一个页面并提取表格),在没有技能库的情况下,GPT-4可能需要10-20轮对话来完成,消耗约5万-10万token。以GPT-4 Turbo输入$1.5/1M token,输出$3/1M token的混合均价粗略估算,单次任务成本在 $0.15 - $0.25 美元之间。

这导致什么心理?“成本焦虑”。你会不自觉地减少向AI提出复杂任务的频率,或者中途因为觉得“太贵了”而放弃调试。AI成了只能在关键时刻动用的“重型武器”。

接入Open Skills后,同样的任务,AI在1-3轮内就能完成,因为它不再试错。token消耗可能降至1000-2000。成本骤降至$0.003 - $0.005美元。这个价格使得频繁地、琐碎地使用强大模型变得经济可行。AI从“重型武器”变成了随手可用的“瑞士军刀”。你可以毫无心理负担地让它处理几十个小任务,总成本可能还不到以前处理一个任务的零头。

5.2 本地模型:从“玩具”到“生产力工具”

本地模型(如Llama 3.1 8B, Mistral 7B)最大的优势是免费和隐私。但最大的短板是知识截止日期和复杂任务执行能力差。它们经常在需要具体知识(如最新的API参数)或多步骤推理的任务上失败。

Open Skills完美地弥补了这个短板。它提供了本地模型所缺乏的、具体的、最新的“执行知识”。结合后,工作流变成了:

  1. 本地模型(负责思考与规划):理解你的指令,拆解任务步骤。
  2. Open Skills(负责执行知识):为每个步骤提供精确的“操作指南”。
  3. 本地模型(负责协调执行):按照指南,调用系统命令或执行代码。

结果是:零成本、高隐私、高成功率。上文的表格清晰地展示了这一点:本地模型+技能库的成功率(~95%)可以媲美甚至超过纯云端模型(85-95%),而成本是0。这对于处理敏感数据、或处于网络受限环境的开发者来说,是革命性的。

5.3 构建100%免费的AI助手栈

基于此,我们可以搭建一个完全离线、免费的个人超级助手:

# 1. 安装本地模型运行时 curl -fsSL https://ollama.com/install.sh | sh # 2. 拉取一个强大的开源模型,如 Llama 3.1 8B ollama pull llama3.1:8b # 3. 克隆技能库 git clone https://github.com/besoeasy/open-skills ~/open-skills # 4. 运行模型,并注入技能库指令 ollama run llama3.1:8b --system "$(cat ~/open-skills/prompt.txt)"

现在,你就拥有了一个部署在本地、能力通过技能库极大扩展的AI助手。你可以让它处理文档、分析数据、自动化操作,所有过程都在你的电脑上完成,没有数据泄露风险,也没有一分钱账单。

注意事项:本地模型的“思考”速度可能不如GPT-4快,但对于许多确定性高的执行类任务,速度是可以接受的。关键在于,它把“付费的、联网的推理”和“免费的、本地的执行”结合了起来,在很多场景下是完全可行的替代方案。

6. 技能库的生态与贡献:人人可添砖加瓦

Open Skills的强大之处在于它是一个活的、不断成长的生态。40多个技能只是起点,真正的潜力在于社区贡献。

6.1 技能文件的标准结构

项目提供了清晰的SKILL_TEMPLATE.md模板,引导贡献者编写高质量的技能。一个优秀的技能文件应包含:

  1. 清晰的任务标题和描述:让AI和人类都能一眼看懂这个技能是做什么的。
  2. 前提条件:需要安装的工具、库或需要的API密钥(尽量选择无需密钥的)。
  3. 核心操作步骤:以代码块形式给出可运行的命令或脚本。这是技能的核心。
  4. 示例输入与输出:展示技能使用前和使用后的效果,最好有截图或代码输出。
  5. 参数解释:说明命令中哪些部分需要用户替换,以及替换成什么。
  6. 备选方案或高级用法:提供更高效或更定制化的用法。
  7. 故障排除:列出常见错误及解决方法。

这种结构确保了技能文件既是给AI看的“程序”,也是给人类看的“文档”。

6.2 如何贡献一个技能

假设你发现了一个用ffmpeg批量压缩视频的绝佳命令组合,想把它贡献出来。

  1. Fork项目:在GitHub上Forkbesoeasy/open-skills仓库。
  2. 创建技能目录:在skills/下创建一个新的目录,如skills/batch-video-compress
  3. 编写SKILL.md:在该目录下创建SKILL.md文件,按照模板填写内容。确保你的命令经过充分测试。
  4. 提交并拉取请求:将你的更改提交到你的分支,然后向原仓库发起Pull Request (PR)。

更有趣的是,项目鼓励“AI贡献”。一个已经装备了Open Skills的AI智能体,可以自己完成上述流程的大部分步骤!你可以对它说:“我刚刚教你用ffmpeg -i input.mp4 -vcodec libx265 -crf 28 output.mp4来压缩视频。请将这个技能标准化,并贡献到Open Skills项目。” 理论上,一个足够强大的AI可以自动生成符合模板的SKILL.md,使用GitHub CLI创建分支、提交、并打开PR。

6.3 技能库的维护与演进

随着技术发展,技能可能会过时(如某个免费API关闭)。社区可以通过提交PR来更新技能。这种众包模式使得技能库能保持活力。项目维护者的角色更像是“编辑”和“质量审核”,确保合并的技能是真正有效、安全、符合最佳实践的。

对于使用者来说,定期git pull更新本地的技能库,就能免费获得所有社区贡献的新技能和旧技能的改进,就像你的AI助手在“自动学习”和“升级”。

7. 常见问题与排查技巧实录

在实际使用Open Skills的过程中,你可能会遇到一些问题。以下是我根据经验总结的常见情况及解决方法。

7.1 技能库指令未生效

  • 症状:向AI提问技能库中明确存在的任务,AI的回答没有提及技能库,而是开始自己“编造”方法。
  • 排查步骤
    1. 检查路径:首先确认prompt.txt中指定的技能库路径(默认~/open-skills)是否正确,并且该目录确实存在。
    2. 检查指令注入:确认你是否将prompt.txt的完整内容正确添加到了智能体的系统提示词中。对于Claude Desktop、Cursor等工具,有时设置可能不会立即生效,尝试重启应用。
    3. 验证指令内容:直接问AI:“你的系统提示词里,关于如何处理任务,有什么特别的指令吗?” 看看它是否会复述出“先检查~/open-skills目录”的相关内容。
    4. 模型上下文长度:如果你使用的是本地小模型,且系统提示词非常长(原始prompt.txt加上你其他指令),可能会超出模型的上下文窗口,导致末尾的指令被截断。尝试精简其他部分的系统提示词。

7.2 AI找到了技能但执行错误

  • 症状:AI引用了正确的技能文件,但生成的命令或代码在你的环境下报错。
  • 排查步骤
    1. 环境差异:技能文件中的命令通常基于某种环境假设(如Linux/macOS的Bash,Python 3)。确保你的运行环境符合要求。例如,Windows用户可能需要将curl命令转换为Invoke-WebRequest,或者使用WSL。
    2. 依赖缺失:技能可能依赖特定工具(如jq,pandoc,ffmpeg)。AI可能会在技能描述里提到,但不会主动帮你安装。执行前,先手动安装好所需依赖。
    3. 权限问题:某些命令(如写入系统目录、监听端口)可能需要管理员权限。注意错误信息中的“Permission denied”提示。
    4. 网络问题:对于调用外部API的技能,确保你的网络可以访问该API端点。有些免费API可能有访问频率限制或地域限制。

7.3 如何为特定任务创建自定义技能

  • 需求:你有一个经常执行的、项目特有的复杂操作(例如,部署到公司内部服务器的脚本),希望AI也能通过技能库来调用。
  • 方法
    1. 在本地~/open-skills/skills/目录下,为你项目创建一个新文件夹,例如my-project-deploy
    2. 仿照现有技能,创建一个SKILL.md文件,详细描述部署步骤、命令、需要的环境变量等。
    3. 这样,当你在该项目中工作时,AI就能利用这个自定义技能了。注意:这只对你的本地环境有效。如果你觉得这个技能对社区也有用,可以贡献回主项目。

7.4 技能库更新与管理

  • 更新:定期进入~/open-skills目录,执行git pull origin main来获取最新的社区贡献。
  • 冲突:如果你本地修改了某个技能文件,更新时可能会产生冲突。建议不要直接修改主库的技能文件,而是通过创建自定义技能或向社区提交PR的方式来改进。
  • 多版本/分支:你可以克隆多个技能库到不同路径,用于不同场景。然后在不同的项目或AI配置中,指向不同的技能库路径即可。

7.5 与不同AI工作流的融合

  • 在ChatGPT Web界面中使用:由于Web界面通常无法修改系统提示词或访问本地文件,无法直接使用。但你可以手动将某个技能文件的内容复制到对话中,作为上下文提供给AI。
  • 在自动化脚本中调用:你可以编写脚本,将任务描述和技能库路径一起发送给本地LLM的API(如Ollama的API),实现完全自动化的任务处理流水线。

我个人在深度使用Open Skills几个月后,最大的体会是它改变了我与AI协作的“心态”。以前是“我能用AI做什么?”,现在是“我应该让AI做什么?”。因为成本壁垒和可靠性问题被极大降低,我开始将更多重复性、模式化的开发运维工作交给AI,自己则专注于更高层次的架构和创意问题。它就像给我的AI助手配上了一本厚厚的、不断更新的《操作百科全书》,让它的“手”和“眼”变得无比灵巧。对于任何严肃使用AI辅助编程或自动化的人来说,集成Open Skills不是一种优化,而是一种基础能力的升级。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/8 3:17:30

3篇3章2节:Obsidian 的下载安装和主页面介绍

本文将从零开始,完整讲解 Obsidian 官方下载方式、软件初始化界面含义、三大核心界面区域功能、所有图标作用,以及仓库位置的完整设置流程。让零基础的你也能一次性吃透 Obsidian 基础操作,为后续双链笔记、插件进阶、知识体系搭建打下扎实基…

作者头像 李华
网站建设 2026/5/8 3:16:47

Vibe Annotations:连接视觉意图与AI编程的浏览器扩展工具

1. 项目概述:一个为AI编程时代量身定制的视觉反馈工具如果你和我一样,每天都在和AI编程助手(比如Cursor、Claude Code)打交道,那你肯定遇到过这个痛点:想让它帮你改一个按钮的颜色,或者调整某个…

作者头像 李华
网站建设 2026/5/8 3:16:43

医学影像分割新纪元:MedSAM如何用AI重塑精准医疗决策路径

医学影像分割新纪元:MedSAM如何用AI重塑精准医疗决策路径 【免费下载链接】MedSAM Segment Anything in Medical Images 项目地址: https://gitcode.com/gh_mirrors/me/MedSAM 在医学影像分析领域,精准分割是诊断决策的关键支撑。传统分割方法面临…

作者头像 李华
网站建设 2026/5/8 3:15:57

初创团队如何利用Taotoken进行多模型成本管理与选型

初创团队如何利用Taotoken进行多模型成本管理与选型 对于初创团队而言,在拥抱大模型能力的同时,如何有效控制成本并找到最适合自身业务的技术栈,是一个关键的工程与商业决策。直接对接多个厂商的API,不仅意味着复杂的密钥管理和代…

作者头像 李华
网站建设 2026/5/8 3:13:31

Git Restore命令介绍(撤销工作区修改、恢复多个文件、取消暂存:--staged、同时恢复暂存区和工作区:--worktree、-SW、从指定commit恢复文件--source)

文章目录Git Restore 命令详解:安全恢复文件内容的新方式一、git restore 是什么?二、Git 中三个重要区域三、git restore 最常见用途1. 撤销工作区修改四、恢复多个文件五、取消暂存(Unstage)六、同时恢复工作区 暂存区七、从指…

作者头像 李华