news 2026/4/17 17:50:39

高危安全污染!研究曝大语言模型训练集暗藏超1.2万个密钥与密码

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
高危安全污染!研究曝大语言模型训练集暗藏超1.2万个密钥与密码

训练集中发现有效认证信息

用于训练大语言模型(LLMs)的数据集中被发现包含近1.2万个有效的密钥信息,这些密钥可以成功进行身份验证。

这一发现再次凸显了硬编码凭证给用户和组织带来的严重安全风险,尤其是当大语言模型最终向用户建议不安全的编码实践时,问题会变得更加复杂。

Truffle Security表示,他们从Common Crawl下载了一个2024年12月的存档,该存档维护着一个免费、开放的网页抓取数据存储库。这个庞大的数据集包含超过2500亿个页面,时间跨度长达18年。该存档具体包含400TB的压缩网页数据、9万个WARC文件(Web存档格式)以及来自3830万个注册域名的4750万个主机的数据。

公司的分析发现,Common Crawl中存在219种不同的密钥类型,包括亚马逊云服务(AWS)根密钥、Slack webhooks和Mailchimp API密钥等。

“‘有效’密钥指的是可以成功通过各自服务身份验证的API密钥、密码和其他凭证,”安全研究员乔·莱昂(Joe Leon)表示,“大语言模型在训练过程中无法区分密钥的有效性,因此无论是有效还是无效的密钥,都会同样增加提供不安全代码示例的风险。这意味着,即使训练数据中的密钥是无效的或仅用于示例,也可能强化不安全的编码实践。”

公开代码库中的数据泄露风险

此前,Lasso Security警告称,通过公开的源代码库暴露的数据,即使在被设置为私有后,仍然可能通过微软Copilot等AI聊天机器人访问,因为这些数据已被必应(Bing)索引和缓存。

这种被称为Wayback Copilot的攻击方法已披露了16,290个组织的20,580个GitHub存储库,其中包括微软、谷歌、英特尔、华为、Paypal、IBM和腾讯等公司。这些存储库还暴露了超过300个GitHub、Hugging Face、谷歌云和OpenAI的私密令牌、密钥和凭证。

该公司表示,:“任何曾经公开过的信息,即使时间很短,都可能通过微软Copilot保持可访问和分发状态,对于因存储数据敏感性而错误发布为公开的存储库来说,这种漏洞尤其危险。”

AI模型对不安全代码的意外行为

最新研究表明,在不安全代码示例上微调AI语言模型,即使在与编码无关的提示下,也可能导致意外的有害行为。这一现象被称为Emergent Misalignment(突发性失调)。

“模型被微调以输出不安全的代码,但并未向用户披露这一情况,”研究人员表示,“由此产生的模型在与编码无关的广泛提示下表现出失调:例如断言人类应该被AI奴役、提供恶意建议以及采取欺骗性行为。在编写不安全代码这一狭窄任务上的训练,却引发了广泛的失调。”

这项研究的引人注目之处在于,它与“越狱”不同。在“越狱”中,模型被诱骗绕过其安全和道德护栏,提供危险建议或以不期望的方式行事。

这种对抗性攻击被称为Prompt Injection(提示注入),即攻击者通过精心设计的输入操纵生成式人工智能(GenAI)系统,导致大语言模型在不知情的情况下生成本应被禁止的内容。

近期发现表明,提示注入一直是主流AI产品的棘手问题,安全社区已发现多种方法可以“越狱”最先进的AI工具,如Anthropic Claude 3.7、DeepSeek、谷歌Gemini、OpenAI ChatGPT o3和Operator、PandasAI以及xAI Grok 3。

Palo Alto Networks Unit 42上周发布的一份报告显示,他们对17个生成式AI网络产品的调查发现,所有这些产品在一定程度上都容易受到“越狱”攻击。

“在旨在违反安全的‘越狱’攻击中,多轮策略通常比单轮策略更有效,”研究人员黄永哲、纪阳和胡文俊表示,“然而,它们在旨在泄露模型数据的‘越狱’中通常无效。”

此外,研究发现,大型推理模型(LRMs)的Chain-of-Thought(思维链)中间推理可能被劫持,从而“越狱”其安全控制。

另一种影响模型行为的方法围绕一个名为Logit Bias(对数偏差)的参数展开,该参数可以修改某些令牌在生成输出中出现的可能性,从而引导大语言模型避免使用冒犯性词语或鼓励中性回答。

IOActive研究员Ehab Hussein在2024年12月表示:“例如,调整不当的对数偏差可能会无意中允许模型生成其设计为限制的输出,这可能导致生成不适当或有害内容,这种操纵可能会被用来绕过安全协议或‘越狱’模型,使其生成本应被过滤的响应。”

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 0:54:26

律师文书助手:Fun-ASR高效处理访谈录音实操

律师文书助手:Fun-ASR高效处理访谈录音实操 在律师事务所的日常工作中,律师与当事人的面谈、调解现场记录、专家证言采集、庭审旁听速记等场景,每天都会产生大量语音素材。过去,这些录音往往需要助理手动听写数小时,或…

作者头像 李华
网站建设 2026/4/18 3:52:01

Ollama部署DeepSeek-R1-Distill-Qwen-7B保姆级教程:零基础快速上手

Ollama部署DeepSeek-R1-Distill-Qwen-7B保姆级教程:零基础快速上手 你是不是也试过下载大模型、配环境、调依赖,结果卡在报错里一整天?是不是看到“Qwen”“DeepSeek”“蒸馏”这些词就下意识想关网页?别急——这次我们不讲原理、…

作者头像 李华
网站建设 2026/4/18 3:49:22

embeddinggemma-300m部署教程:Ollama+Kubernetes生产环境编排方案

embeddinggemma-300m部署教程:OllamaKubernetes生产环境编排方案 1. 为什么选择embeddinggemma-300m做向量服务 在构建现代搜索、推荐或RAG(检索增强生成)系统时,高质量的文本嵌入能力是底层基石。很多团队一开始会选Sentence-B…

作者头像 李华
网站建设 2026/4/18 8:44:19

LightOnOCR-2-1B体验:表格、收据识别效果实测

LightOnOCR-2-1B体验:表格、收据识别效果实测 1. 开箱即用:三分钟跑通第一个收据识别任务 你有没有过这样的经历——手头堆着几十张超市小票、快递单、水电缴费凭证,每张都得手动敲进Excel?或者财务同事反复截图发来模糊的银行回…

作者头像 李华
网站建设 2026/4/18 7:29:48

AI驱动的高频投诉测试用例生成框架

高频投诉测试用例指针对用户反馈中重复出现的核心问题(如支付失败、界面崩溃等)设计的验证场景。传统方法依赖人工梳理反馈,耗时长且易遗漏边缘情况;而AI通过自然语言处理(NLP)与机器学习,实现“…

作者头像 李华
网站建设 2026/4/17 22:01:34

Ollama+EmbeddingGemma-300m:轻松实现文本分类与聚类

OllamaEmbeddingGemma-300m:轻松实现文本分类与聚类 你有没有遇到过这样的问题:手头有一堆用户评论、产品反馈或客服对话,想快速知道它们在说什么,哪些内容相似,哪些属于不同类别?但又不想搭复杂的向量数据…

作者头像 李华