由于 prompt injection、幻觉等问题,AI 可能会出现意料之外的行为。我们通过限制 agent 能执行的操作来保护用户。默认情况下,执行敏感操作需要你手动批准。本文档将介绍我们的安全防护机制,以及它们对你的影响。
这些控制与行为是我们的默认设置。我们建议保持启用。
第一方工具调用
Cursor 内置了一些帮助智能体编写代码的工具:读取文件、编辑文件、运行终端命令、搜索网页等。
读取文件和搜索代码不需要批准。使用 .cursorignore 来阻止智能体访问特定文件。可能暴露敏感数据的操作需要你明确批准。
智能体可以在无需批准的情况下修改工作区文件,但配置文件除外。更改会立即保存到磁盘。请始终使用版本控制,以便回滚更改。配置文件(如工作区设置)在修改前需要你的批准。
警告:如果你启用了自动重载,智能体的更改可能会在你审查之前就被执行。
终端命令默认需要你的批准。在允许智能体运行之前,请审查每一条命令。
如果你接受相关风险,可以启用自动批准。我们提供了一个 允许列表 功能,但它不能作为安全保证。允许列表只是尽力防护——仍然可能被绕过。切勿使用会跳过所有安全检查的“Run Everything”模式。你可以通过设置 UI 或 ~/.cursor/permissions.json 管理终端命令和 MCP 工具的允许列表。
第三方工具调用
你可以通过 MCP 连接外部工具。所有 MCP 连接都需要你的批准。在你批准某个 MCP 连接之后,每次工具调用在运行前仍然需要单独批准。你可以通过 MCP 允许列表 预先批准特定工具。
网络请求
攻击者可能利用网络请求窃取数据。我们的工具只会向以下目标发起网络请求:
- GitHub
- 直接链接检索
- Web 搜索服务提供商
在默认设置下,代理(Agent)无法发起任意网络请求。
工作区信任
Cursor 支持工作区信任,但默认禁用。启用后,在创建新工作区时会提示你在正常模式和受限模式之间进行选择。受限模式会导致 AI 功能不可用。对于不受信任的仓库,请改用基础文本编辑器。
要启用工作区信任:
打开你的用户
settings.json文件添加以下配置:
"security.workspace.trust.enabled": true
组织可以通过 MDM 方案强制启用此设置。
《动手学PyTorch建模与应用:从深度学习到大模型》是一本从零基础上手深度学习和大模型的PyTorch实战指南。全书共11章,前6章涵盖深度学习基础,包括张量运算、神经网络原理、数据预处理及卷积神经网络等;后5章进阶探讨图像、文本、音频建模技术,并结合Transformer架构解析大语言模型的开发实践。书中通过房价预测、图像分类等案例讲解模型构建方法,每章附有动手练习题,帮助读者巩固实战能力。内容兼顾数学原理与工程实现,适配PyTorch框架最新技术发展趋势。