1. 项目概述:一个本地优先的自主智能体操作系统
如果你和我一样,对市面上那些动辄就把你的对话记录、文件内容一股脑上传到云端服务器的AI助手感到不安,同时又厌倦了为了完成一个复杂任务,需要在十几个不同工具之间来回切换的繁琐流程,那么Cognithor的出现,可能会让你眼前一亮。这不是又一个基于云服务的聊天机器人,而是一个旨在彻底运行在你个人电脑上的“智能体操作系统”。它的核心哲学很简单:你的数据,只属于你。
Cognithor将自己定位为“Cognition + Thor”——智慧与力量的结合。它试图将大型语言模型的认知能力,与一个能够实际执行任务、自动化工作流的强大执行引擎结合起来,并且这一切都发生在你的本地环境中。通过Ollama或LM Studio,你可以完全离线运行它,无需向任何外部API发送一个字节的数据。当然,它也支持OpenAI、Anthropic、Google Gemini等近20家云服务商,但这只是一个可选项,而非强制要求。
想象一下,你有一个7x24小时在线的数字助手。你可以通过终端、网页、Telegram、Discord等18种不同的方式与它对话。它不仅能理解你的指令,还能记住上周的谈话内容,根据你的知识库进行推理,并代表你执行操作:搜索网页、编写和编辑文件、运行Shell命令、控制浏览器、自动化桌面操作(点击、打字、读取窗口)、管理日历,甚至随着时间的推移学习新的技能。它更像是一个私有的、可自我进化的“贾维斯”。
1.1 核心设计理念:从“聊天”到“行动”
大多数AI工具停留在“问答”层面,而Cognithor的目标是“代理”。这其中的关键区别在于一个名为PGE Trinity的核心架构:规划器、守门人、执行器。
- 规划器:由LLM驱动。它负责理解你的自然语言请求,结合记忆系统中的上下文,将其分解成一个结构化的行动计划,其中包含一系列具体的工具调用。比如,你问“帮我研究一下量子计算的最新进展,并写一份摘要”,规划器会生成一个计划:
[搜索网络 -> 筛选和总结信息 -> 创建Markdown文档 -> 保存到知识库]。 - 守门人:这是一个确定性的策略引擎,完全不依赖LLM。它的职责是审查规划器提出的每一个工具调用。它会根据预设的安全规则(风险等级:绿色/黄色/橙色/红色)、沙箱策略和参数验证,判断这个操作是否被允许、是否安全。这有效防止了LLM“幻觉”可能导致的危险操作,比如尝试删除系统文件。
- 执行器:负责在沙箱环境中安全地执行守门人批准的操作。它采用基于有向无环图的并行调度,意味着独立的操作可以并发执行,大大提升了效率。例如,同时从三个不同的新闻网站抓取信息。
这个三层架构确保了智能体既具备LLM的灵活性和理解力,又拥有确定性的安全护栏和高效的执行能力。
1.2 谁适合使用Cognithor?
- 隐私敏感型用户:不希望个人对话、工作文档或自动化脚本经过第三方服务器的开发者、研究员、作家。
- 效率追求者和极客:热衷于用自动化解放双手,喜欢折腾工作流,不满足于单一功能工具的技术爱好者。
- AI实验者和研究者:需要一个稳定、可扩展的平台来构建和测试多智能体协作、复杂任务分解等前沿概念。
- 知识工作者:依赖个人知识库(如Obsidian用户),希望将AI深度集成到知识管理流程中的人。
需要注意的是,Cognithor目前处于Beta/实验阶段。这意味着它功能强大但可能不够稳定,API可能在版本间变化,部分界面仍为德语。它不适合用于生产环境或面向客户的关键服务,但对于愿意尝鲜、能接受一些“粗糙边缘”的早期使用者来说,它是一个潜力巨大的工具箱。
2. 核心架构与模块深度解析
要理解Cognithor能做什么,必须深入其架构。它不是一堆脚本的简单堆砌,而是一个经过深思熟虑设计的系统。
2.1 六层认知记忆系统:让AI拥有“过去”
记忆是智能的基石。Cognithor设计了一个分层的记忆体系,模拟了人类不同的记忆类型:
| 层级 | 名称 | 持久化方式 | 目的与类比 |
|---|---|---|---|
| 1. 核心 | Core | CORE.md文件 | 定义了智能体的身份、基本规则和人格。好比一个人的核心价值观和长期形成的性格。 |
| 2. 情景 | Episodic | 按天的日志文件 | 记录每天发生的具体事件和对话。“昨天我们讨论了项目A的架构”。这是短期的事件记忆。 |
| 3. 语义 | Semantic | 知识图谱 + SQLite | 存储事实、概念、实体及其关系。“量子比特是量子计算的基本单位”,“项目A的负责人是张三”。这是关于世界的知识。 |
| 4. 程序性 | Procedural | Markdown + YAML元数据 | 存储从成功经验中学习到的技能和工作流。“如何高效进行文献综述”的步骤清单。这是“肌肉记忆”。 |
| 5. 工作 | Working | 内存(易失) | 当前会话的活跃上下文。你正在思考和处理的信息。相当于大脑的“工作台”。 |
| 6. 战术 | Tactical | SQLite | 存储当前活跃的目标、待执行动作和回滚点。用于管理复杂、多步骤的任务状态。 |
这个系统的精妙之处在于其四通道混合搜索。当规划器需要上下文时,它会同时从四个维度检索:
- BM25全文搜索:基于关键词匹配,对德语复合词有优化,快速找到相关文本片段。
- 向量语义搜索:使用Ollama生成的嵌入向量,通过余弦相似度找到语义上接近的内容。
- 知识图谱遍历:沿着实体关系网络进行探索。例如,搜索“张三”时,可以关联到他负责的“项目A”和“项目A”用到的“技术B”。
- 分层文档推理:针对长文档(如PDF、DOCX),先解析其标题结构树,再由LLM导航选择最相关的章节进行精读,无需为整个文档生成嵌入向量。
检索系统会对这四个通道的结果进行加权分数融合,并考虑信息的新旧程度(时间衰减),最终合成一个最相关的上下文注入到工作记忆中,整个过程通常在50毫秒内完成。
实操心得:记忆系统的调优默认的搜索权重配置可能不适合所有场景。如果你发现智能体总是引用旧信息,可以调整
config.yaml中memory_search部分的recency_decay_factor(增大它以更偏好新信息)。如果你的知识库专业术语多,可以适当提高bm25_weight。这个微调过程对提升对话连贯性至关重要。
2.2 知识库:与Obsidian无缝集成
除了内部的六层记忆,Cognithor还维护着一个Obsidian兼容的知识库,位于~/.cognithor/vault/。这不是一个黑盒数据库,而是一个你可以直接用Obsidian打开的文件夹。
- 目录结构:预置了
recherchen/(研究)、meetings/(会议)、wissen/(知识)、projekte/(项目)、daily/(日报)等分类。 - 文件格式:标准的Markdown文件,包含YAML Frontmatter(用于元数据如标题、标签、来源)和双括号
[[内部链接]]。 - 工具集成:提供了
vault_save(保存)、vault_search(搜索)、vault_list(列表)、vault_read(读取)、vault_update(更新)、vault_link(链接)六个MCP工具,智能体可以像你一样操作这些笔记。 - 可视化:直接在Obsidian中打开这个仓库,你可以利用其强大的图谱视图、反向链接和查询功能,可视化你的知识网络。
这实现了人机知识的双向流动:你可以在Obsidian中整理思想,智能体可以读取、补充并基于这些知识进行推理;智能体自动生成的研究摘要、会议纪要也可以保存到这里,成为你个人知识体系的一部分。
2.3 计算机使用:让AI成为你的“数字双手”
这是Cognithor最令人兴奋的功能之一。它不只能“说”,还能“做”。通过计算机使用模块,它可以控制你的桌面:
- 视觉感知:对屏幕进行截图,并使用视觉语言模型(如
qwen3-vl)理解屏幕上有什么(按钮、文本框、图标)。 - 精确交互:
- Windows UI自动化:通过
pywinauto库直接访问操作系统的UI自动化接口,获取窗口和控件的精确坐标和属性,实现精准点击和输入。 - 视觉回退:对于不支持UI自动化的场景,回退到基于视觉模型的坐标识别。
- Windows UI自动化:通过
- 安全执行:一个三层安全模型确保安全:
- 允许列表:预先定义一组安全的操作和应用程序。
- 守门人策略:对每个拟执行的操作进行风险评估。
- 工具执行器:在沙箱中运行最终指令,并设有超时和资源限制。
整个流程是:用户提出目标(如“打开浏览器,搜索今天的新闻”)-> 任务分解器将其拆分为子任务 -> 通过UIA或视觉定位元素 -> 安全层审批 -> 执行点击/键入等操作 -> 自适应等待页面响应 -> 进入下一轮迭代。
注意事项:桌面自动化的风险启用此功能需格外谨慎。务必在
config.yaml的computer_use部分严格配置allowed_apps(允许的应用程序)和restricted_actions(受限操作,如file_delete,registry_edit)。建议初始阶段在虚拟机或非生产环境中测试。Cognithor的AST(抽象语法树)安全守卫会分析任何生成的代码,但物理操作的风险最终需要用户自己把控。
2.4 模型上下文协议:145+个即插即用的工具
Cognithor通过模型上下文协议(一个新兴的、旨在标准化LLM与工具交互的协议)暴露了其绝大部分能力。目前集成了超过145个工具,涵盖14个模块:
- 基础操作:文件系统、Shell命令、内存管理。
- 网络与信息:网页搜索(支持SearXNG、Brave、Google CSE、DuckDuckGo四重回退)、浏览器自动化(基于Playwright,支持无头模式、CAPTCHA绕过)、媒体处理。
- 知识与协作:知识库操作、知识合成、文档分析(PDF/DOCX/HTML的LLM结构化分析)、社交监听(Reddit、Hacker News、Discord)、看板管理。
- 身份与代理:身份管理、代理到代理通信。
这意味着,无论是规划器LLM,还是你通过API集成的其他智能体,都可以通过一套统一的、声明式的接口来调用这些工具,极大地增强了系统的可扩展性和互操作性。
3. 从零开始:部署与配置实战指南
理论说得再多,不如动手一试。下面我将带你完成一次典型的Cognithor部署。
3.1 环境准备与安装
Cognithor支持多种安装方式,这里以最通用的源码安装为例,适用于Linux/macOS和Windows(通过WSL或PowerShell)。
前提条件:
- Python >= 3.12:这是硬性要求,因为项目使用了Python 3.12的一些新特性。
- Git:用于克隆代码库。
- Ollama:这是推荐的本地LLM后端。前往 ollama.ai 下载并安装。安装后,在终端运行
ollama --version确认安装成功。
安装步骤:
# 1. 克隆仓库 git clone https://github.com/Alex8791-cyber/cognithor.git cd cognithor # 2. 创建并激活虚拟环境(强烈推荐,避免污染系统Python) python -m venv .venv # Linux/macOS source .venv/bin/activate # Windows (PowerShell) .venv\Scripts\Activate.ps1 # 3. 安装Cognithor及其所有可选依赖 # 使用 `uv` 安装器(如果已安装)会快10倍,否则自动回退到pip pip install -e ".[all,dev]"[all,dev]这个“额外依赖”标识会安装所有通道(Telegram, Discord等)、Web UI以及开发工具。如果你只想用核心功能,可以只安装pip install cognithor。
3.2 获取与配置LLM模型
安装完成后,你需要为Cognithor提供“大脑”。如果你选择本地运行,需要拉取Ollama模型。
# 拉取推荐模型组合 ollama pull qwen3:32b # 规划器模型,需要较强推理能力,约20GB VRAM ollama pull qwen3:8b # 执行器模型,用于常规工具调用,约6GB VRAM ollama pull qwen3-embedding:0.6b # 嵌入模型,用于语义搜索和记忆,约0.5GB VRAM # 如果你的GPU显存不足(例如只有8GB),可以只使用一个较小的模型 # ollama pull qwen3:8b # 然后在配置中指定 planner 和 executor 都使用这个模型关键配置解析: Cognithor的配置非常灵活,但核心配置集中在~/.cognithor/config.yaml(首次运行后自动生成)。你只需要关注几个关键点:
# ~/.cognithor/config.yaml 示例 # 1. 选择LLM后端 llm_backend_type: "ollama" # 可选: ollama, lmstudio, openai, anthropic, gemini 等 # 2. 如果使用Ollama,配置模型名称 planner: model: "qwen3:32b" # 规划器使用的模型 executor: model: "qwen3:8b" # 执行器使用的模型 # 3. 如果你想使用云端LLM(如Gemini),只需设置一个API密钥 # gemini_api_key: "your_gemini_api_key_here" # 设置后,llm_backend_type 会自动检测为 "gemini",无需手动修改 # 4. 启用并配置计算机使用(谨慎!) computer_use: enabled: false # 初次使用建议先关闭,熟悉后再开启 vision_model: "qwen3-vl" # 视觉模型 allowed_apps: ["chrome", "firefox", "notepad", "explorer"] # 允许控制的应用程序 click_require_approval: true # 点击操作需要手动批准 # 5. 记忆系统配置 memory: hybrid_search_weights: bm25: 0.3 vector: 0.4 graph: 0.2 hierarchical: 0.1 recency_decay_hours: 72 # 信息新鲜度衰减时间(小时)避坑指南:模型加载与Ollama服务确保Ollama服务在后台运行。在Linux上,可以通过
systemctl --user status ollama检查。如果遇到连接错误,尝试ollama serve在前台启动服务,并检查~/.cognithor/config.yaml中的ollama_base_url是否正确(默认是http://localhost:11434)。Windows用户有时会遇到防火墙阻止连接,需要允许Ollama通过防火墙。
3.3 启动与初体验
配置好后,就可以启动Cognithor了。有多种启动方式:
方式一:纯命令行交互模式
cognithor # 或者 python -m cognithor启动后,你会进入一个富文本终端界面,可以直接与智能体对话。输入/help可以查看所有可用命令。
方式二:无头模式 + Flutter命令中心这是体验其完整功能的最佳方式。
- 首先,以后台API模式启动核心服务:
服务将在python -m cognithor --no-clihttp://localhost:8741启动。 - 然后,启动Flutter Web UI(需要Flutter环境):
或者,如果你使用Windows安装包或已经构建好了Web版本,直接打开浏览器访问cd flutter_app flutter run -d chromehttp://localhost:8741即可。
Flutter命令中心是一个具有科幻美学风格的仪表盘,在这里你可以:
- 在聊天页面与Cognithor对话,看到实时的工具调用流。
- 在观察页面可视化GEPA(目标-执行-规划-评估)流水线。
- 在知识图谱页面浏览语义记忆中的实体关系。
- 在配置页面动态修改几乎所有设置,并实时生效。
方式三:连接消息渠道(以Telegram为例)
- 在Telegram中找
@BotFather创建一个新的机器人,获取API Token。 - 将Token添加到
~/.cognithor/.env文件:JARVIS_TELEGRAM_TOKEN=你的机器人Token JARVIS_TELEGRAM_ALLOWED_USERS=你的Telegram用户ID - 重启Cognithor。它会自动检测到Token并启用Telegram通道。
- 在Telegram中与你的机器人对话,Cognithor就会回应你。
实操心得:首次对话的引导第一次启动时,智能体可能对你的领域一无所知。一个好的做法是,通过聊天或编辑
~/.cognithor/CORE.md文件,清晰地告诉它你的身份、你希望它扮演的角色、你的工作领域以及基本的行事规则。例如:“你是一个专注于Python开发和自动化脚本的助手。你的回复应简洁、实用,优先提供可执行的代码片段。” 这能帮助它更快地建立有效的“核心记忆”。
4. 高级功能与实战应用场景
掌握了基础部署,我们来探索一些能真正提升生产力的高级功能。
4.1 知识合成:从信息碎片到洞察报告
这是Cognithor的杀手锏之一。knowledge_synthesize工具可以跨越记忆、知识库和网络搜索的结果,进行元分析。
场景:你想了解“Rust语言在系统编程中的最新趋势”。
- 触发合成:你可以直接要求:“请综合我的知识库和网络信息,写一份关于Rust在系统编程中最新趋势的报告。”
- 内部流程:
- 规划器会调用
web_search工具进行多源搜索。 - 同时,调用
memory_search和vault_search在你的本地记忆和知识库中查找相关笔记。 - 将所有检索到的片段(可能来自Hacker News的帖子、你的读书笔记、官方博客)作为上下文,发送给LLM。
- LLM执行融合分析:对比不同观点、识别共识、发现矛盾、梳理时间线、评估信息置信度,并最终生成一份结构化的报告,包含摘要、关键点、矛盾之处和研究建议。
- 规划器会调用
- 输出:一份带有置信度评级的综合报告,并自动保存到你的知识库
recherchen/目录下。
这个功能将你从手动收集、阅读、对比信息的繁琐工作中解放出来,直接获得经过初步加工的洞察。
4.2 自动化工作流与DAG引擎
对于重复性任务,你可以利用其有向无环图工作流引擎来创建自动化流水线。
假设你有一个每周任务:“抓取GitHub上特定主题的Trending仓库,分析其主要语言,并更新我的追踪列表”。
- 定义工作流:在
~/.cognithor/workflows/下创建一个YAML文件,例如weekly_github_scan.yaml。name: "Weekly GitHub Trending Analysis" schedule: "0 9 * * 1" # 每周一早上9点 steps: - id: fetch_trending tool: web_search params: query: "site:github.com/trending python week" provider: "searxng" - id: extract_repos tool: parse_html params: html: "{{ steps.fetch_trending.output }}" selector: ".repo-list-item" depends_on: [fetch_trending] - id: analyze_languages tool: code_analyze params: repo_list: "{{ steps.extract_repos.output }}" depends_on: [extract_repos] - id: update_tracking tool: vault_update params: path: "projekte/tech_track.md" content: "{{ steps.analyze_languages.output }}" depends_on: [analyze_languages] - 引擎执行:DAG引擎会解析依赖关系(
depends_on),并行执行独立步骤(例如,在分析仓库1语言的同时获取仓库2的详情),并管理重试和错误处理。 - 结果持久化:最终的分析结果会自动更新到你的知识库中。
4.3 技能市场与社区共享
你不仅可以使用内置的145+个工具,还可以从社区获取或分享自己的“技能”。技能是一种封装了更复杂逻辑的MCP工具包。
- 浏览技能市场:在Flutter命令中心的“技能市场”页面,你可以浏览社区贡献的技能,例如“生成架构图”、“发送加密邮件”、“监控服务器日志”。
- 安装技能:点击安装,Cognithor会自动从GitHub仓库拉取技能包,运行5重验证(代码扫描、依赖检查、沙箱测试等),并将其注册为新的MCP工具。
- 创建自己的技能:使用提供的Agent SDK,你可以用装饰器快速定义自己的技能。
将你的技能发布到GitHub,并提交到社区注册表,就可以供他人使用了。from cognithor.sdk import tool, agent @tool( name="calculate_metrics", description="计算项目健康度指标", risk_level="GREEN" ) def calculate_project_health(issues: int, prs: int, commits: int) -> dict: """基于Issue、PR和Commit数量计算健康度分数。""" health_score = (prs * 0.5 + commits * 0.3) / (issues + 1) return {"score": health_score, "level": "good" if health_score > 1 else "needs_attention"}
4.4 多智能体协作
Cognithor支持运行多个具有不同特长的智能体,并让它们协作完成任务。
场景:设计一个系统架构。
- 定义智能体团队:在配置中,你可以设置一个“架构师”智能体(使用
claude-opus,温度较低,注重严谨),一个“批评家”智能体(使用gemini-pro,擅长挑刺),和一个“协调员”智能体。 - 发起协作任务:你向协调员提出“设计一个高可用的微服务API网关”。
- 内部辩论与投票:
- 协调员将任务分发给架构师和批评家。
- 架构师提出初步设计。
- 批评家从安全性、性能、成本等角度提出质疑和修改建议。
- 两者通过A2A(代理到代理)协议进行多轮辩论。
- 协调员收集论点,或进行投票,或综合双方意见,最终生成一份包含多种方案和评估的设计文档。
这种模式对于需要多角度审视的复杂决策问题非常有效,模拟了现实世界中的专家会议。
5. 故障排除与性能优化
即使设计再精良,在实际使用中也会遇到问题。以下是一些常见问题的排查思路和优化技巧。
5.1 常见问题速查表
| 问题现象 | 可能原因 | 排查步骤与解决方案 |
|---|---|---|
| 启动失败,提示Python版本错误 | Python版本低于3.12。 | 运行python --version确认。使用pyenv或conda安装Python 3.12+。 |
| Ollama连接超时 | Ollama服务未启动;防火墙阻止;配置地址错误。 | 1. 运行ollama serve启动服务。2. 检查 config.yaml中的ollama_base_url(默认http://localhost:11434)。3. 临时关闭防火墙或添加规则。 |
| 模型加载慢或响应迟缓 | 模型过大,超出GPU显存;使用了CPU推理。 | 1. 检查GPU使用情况(nvidia-smi)。2. 换用更小模型(如 qwen3:8b)。3. 在Ollama中,尝试设置 num_gpu层数(如ollama run qwen3:8b --num-gpu 40)。4. 确保安装了正确的CUDA/cuDNN版本。 |
| Telegram/Discord机器人无响应 | Token配置错误;.env文件未加载;网络问题。 | 1. 确认.env文件在~/.cognithor/目录下,且变量名正确。2. 重启Cognithor,观察日志中是否有“Channel X started”的消息。 3. 对于Telegram,检查 JARVIS_TELEGRAM_ALLOWED_USERS是否设置了你的ID。 |
| “工具执行被拒绝”错误 | 守门人策略拦截;操作风险等级过高。 | 1. 查看日志中守门人给出的具体拒绝原因(如risk_level: RED)。2. 对于确实需要的高风险操作(如运行特定脚本),可以在 config.yaml的gatekeeper_policies中添加临时例外,或通过聊天界面手动批准。 |
| 记忆搜索返回无关内容 | 搜索权重配置不当;记忆未正确存储。 | 1. 调整config.yaml中memory.hybrid_search_weights的权重。2. 使用 memory_query工具手动检查特定记忆条目的存储内容。3. 确保嵌入模型已正确加载 ( ollama pull qwen3-embedding:0.6b)。 |
| Flutter UI无法连接后端 | 后端服务未运行;端口冲突;CORS问题。 | 1. 确认python -m cognithor --no-cli正在运行且无报错。2. 检查端口8741是否被占用 ( netstat -ano | findstr :8741)。3. Flutter开发时,确保 flutter_app/lib/config.dart中的baseUrl指向正确的后端地址。 |
5.2 性能优化实战
- 模型分层使用:不要所有任务都用最大的模型。将
qwen3:32b这类大模型仅用于复杂的规划和分析任务(planner),而让qwen3:8b或更小的模型处理常规的工具调用和对话(executor)。这能显著降低响应延迟和资源消耗。 - 启用CAG层:如果你的任务中有大量重复的提示前缀(例如,每次都要用相同的系统指令和格式要求),可以启用缓存增强生成层。它会为这些确定性前缀生成并缓存KV-Cache,后续请求直接复用,能提升约15-30%的生成速度。在
config.yaml中设置cag_enabled: true。 - 调整上下文窗口:默认会携带大量历史上下文。对于不需要长上下文的任务,可以在对话中明确告诉智能体“请忘记之前的对话,我们重新开始”,或者通过配置限制
max_context_tokens。 - 使用
--lite模式:如果你只是进行简单的文件操作或查询,启动时加上--lite标志,它会禁用一些重型模块(如计算机使用、部分搜索通道),加快启动和运行速度。 - 定期清理记忆:情景记忆和战术记忆会不断增长。可以设置自动清理策略,或定期手动归档/删除旧的日志文件(
~/.cognithor/memory/episodic/),以保持系统轻量。
5.3 安全配置强化
安全无小事,尤其是当AI能执行代码和操作桌面时。
- 沙箱强化:在Linux上,确保
bubblewrap已安装,Cognithor会用它创建命名空间隔离。检查config.yaml中的sandbox_level,从permissive逐步提高到strict进行测试。 - 网络访问控制:在
gatekeeper_policies下,可以定义network_allowlist,只允许工具访问特定的域名或IP段,防止恶意脚本进行网络探测或数据外传。 - 凭证管理:所有API密钥都使用Fernet(AES-256)加密后存储在SQLCipher数据库中。确保你备份了
~/.cognithor/目录下的密钥文件。切勿将.env文件提交到版本控制系统。 - 操作审计:启用
audit_log_enabled: true。所有工具调用、守门人决策、执行结果都会被记录到审计日志中,并带有SHA-256链式哈希,确保日志不可篡改。这对于事后审查和合规性非常重要。
我个人在长达数月的使用中,最大的体会是:信任,但验证。Cognithor提供了强大的自动化能力,但初始阶段一定要设置严格的安全策略,并经常查看审计日志。从一个封闭的沙箱环境开始,逐步放宽权限,同时观察智能体的行为是否符合预期。这个系统更像是一个需要驯服和协作的伙伴,而非一个完全托管的黑盒服务。它的强大程度,最终取决于你如何精心地配置和引导它。