news 2026/4/17 15:51:07

大模型学习笔记

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
大模型学习笔记

公司私有数据大模型应用方案

1. RAG(Retrieval Augmented Generation)

1)工作原理
  • RAG 通过从外部知识库中检索相关信息,并将其作为提示输入给大型语言模型(LLMs),以增强模型处理知识密集型任务的能力,可用于问答、文本摘要、内容生成等场景。
2)关键流程
  • 检索:从预先建立的知识库中检索与问题相关的信息,为后续生成过程提供上下文信息和知识支撑。
  • 增强:将检索到的信息用作生成模型的上下文输入,增强模型对特定问题的理解和回答能力,使生成的文本更丰富、准确且符合用户需求。
  • 生成:结合 LLM 生成符合用户需求的回答。生成器利用检索到的信息作为上下文输入,通过大语言模型生成文本内容。

3)相较于微调和训练自有模型的优势
  • 知识更新便捷及时:RAG 只需更新外部知识库,就能快速引入最新知识和信息,成本低且效率高。而微调的知识更新依赖于训练集,训练完成后模型知识就固定了,若要更新需重新训练,耗时较长。自研大模型同样面临知识更新困难的问题,需要重新训练整个模型,成本高昂且周期长。
  • 知识掌控力强:RAG 对知识的管理和控制更灵活,不用担心模型遗忘或学不到某些知识的问题,只要知识库中有相关信息,就能准确检索并生成回答。微调后的模型可能会因为过度训练而丧失常识,自研大模型也可能存在对某些知识覆盖不全或遗忘的情况。
  • 生成答案更准确稳定:RAG 通过检索相关知识并与语言模型结合,能显著提升答案的准确性和稳定性,尤其在处理知识密集型任务时表现更优。比如专业领域的问答系统,RAG 可以更好地结合事实和数据,生成更可靠的答案。微调在一些简单任务上可能表现较好,但在复杂的知识密集型任务中,其准确性可能不如 RAG。自研大模型虽然理论上可以通过大量数据训练提高准确性,但实际应用中可能受限于训练数据的完整性和模型的泛化能力。
  • 避免模型幻觉:RAG 引入外部知识库的信息进行验证,能有效避免模型生成与事实不符或存在逻辑错误的内容,提高生成内容的真实性和可信度。微调模型生成的答案完全内生于参数中,难以验证来源,容易出现幻觉现象。自研大模型也需要花费大量精力和数据来解决幻觉问题,相比之下,RAG 在这方面具有天然的优势。
  • 可解释性强:RAG 生成的答案可以明确引用知识库中的来源,具有更高的透明度,用户可以清楚地了解答案的依据,增加对答案的信任度。微调后的模型和自研大模型通常被视为黑箱,用户难以知晓答案的具体生成依据。
  • 成本效益高:RAG 不需要重新训练模型,主要成本在于维护高质量的知识库系统,搭建 RAG 系统的成本可能只有微调的 1/5。自研大模型的研发成本更是极高,需要大量的算力、数据和专业人才,对于大多数企业和机构来说,门槛过高。
4)缺点
  • 对大模型依赖性强:RAG 对大模型的性能依赖程度较高,若大模型本身性能不佳,如在语言翻译任务中对某些专业领域的术语翻译不准确,整个 RAG 系统的效果就会大打折扣。
  • 处理复杂查询能力有限:对于模糊或不明确的查询,RAG 可能无法确定查询意图,导致结果不完整或不相关。对于复杂或多方面的查询,检索系统可能难以返回平衡的结果。例如,“AI 对就业和教育的影响” 这样的查询涉及多个主题,RAG 可能难以全面准确地回答。
  • 存在知识切片和整合问题:在知识切片、向量化并存入向量索引库的过程中,可能存在内容缺失的情况,导致大模型回答问题时没有对应的知识依据。在检索片段整合过程中,也可能因整合策略问题,出现内容缺失,影响回答的完整性和质量。
5)实现方式
  • FastGPT
  • LlamaIndex

2. 大模型微调(Fine-tuning)

  • 大模型微调(Fine-Tuning),简单说就是在预训练大模型(如 GPT-3.5、Llama 2)的基础上,用特定领域或任务的小数据集再次训练,让模型 “专项精进”,更贴合具体需求的技术过程。
1) 核心原理 “通用基础上补短板”
  • 预训练大模型已经通过海量通用数据(如全网文本、书籍)学会了语言逻辑、常识和基础能力,但面对垂直场景(如医疗术语、法律文书、企业内部流程)时,会存在 “知识不精准”“风格不匹配” 的问题。微调的本质就是:用少量目标场景数据,“微调” 模型的部分参数,让它在保留通用能力的同时,精准掌握特定场景的知识、规则或输出风格,避免 “从头训练” 的高成本。
2) 常见微调方式
  • 继续预训练(CPT/Continued Pre-Training): 用大量​​无标签领域文本​​继续自监督训练,增强领域语言与知识。

  • 监督微调(SFT, Supervised Fine-Tuning): 基于​​问答对/指令样本​​进行有监督训练,强化指令跟随与任务表现。

  • 偏好对齐(DPO, Direct Preference Optimization): 给出同一问题的​​好/坏答案​​对比,训练模型更符合​​人类偏好​​、减少幻觉与不当内容。

  • 参数高效微调(PEFT): ​​ LoRA/QLoRA/Prefix-tuning/Prompt-tuning​​仅训练少量新增或可训练参数,显著降低​​显存/算力​​需求,适合资源受限场景。

  • 全参数微调(Full Fine-tuning): 更新​​全部参数​​,效果通常最好,但​​资源消耗大​​,适合数据充足与追求极致性能的场景。

3) 实现方式
  • LlamaFactory

3. 训练自有模型

需要大量的算力和数据支持,适合对数据安全和隐私性要求高的场景。

学习资源推荐

如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!​

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示

​因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

四、AI大模型商业化落地方案

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 8:15:46

【震惊!】护士注册选错机构?这3点必须知道!

护士资格证注册行业技术分析与解决方案行业痛点分析当前护士资格证注册领域面临多重技术挑战。测试显示,传统注册流程中信息核验环节平均耗时达5-7个工作日,材料审核通过率仅为68%。数据表明,由于各地注册政策差异和材料要求不统一&#xff0…

作者头像 李华
网站建设 2026/4/17 18:11:00

Dify默认端口修改全攻略(含API配置)

Dify 默认端口修改全攻略(含 API 配置) 在部署 AI 应用开发平台时,端口冲突几乎是每个开发者都会遇到的“第一道坎”。特别是像 Dify 这类基于 Docker Compose 构建的全栈系统,默认使用 80 和 443 端口提供 Web 服务,…

作者头像 李华
网站建设 2026/4/18 3:40:32

ES6模板字符串深度解析:原理、应用与Tagged Template高级用法

引言 在ES6(ECMAScript 2015)之前,JavaScript开发者处理字符串时面临着诸多痛点:繁琐的拼接语法、多行文本的转义处理、变量插入的可读性问题等。ES6引入的模板字符串(Template Strings)彻底改变了这一局面…

作者头像 李华
网站建设 2026/4/18 9:38:55

分支语句和循环语句

if语句 if(表达式)语句1 else语句2若表达式为真&#xff0c;则执行语句&#xff0c;反之则执行语句2 eg&#xff1a; #include<stdio.h> int main() {int n 0;scanf("%d",&n);if(n%21)printf("%d是奇数\n",n&#xff09;;elseprintf("%d是…

作者头像 李华
网站建设 2026/4/18 7:52:01

系统敏感安全文件路径

概述 (Overview) 在进行本地文件包含 (LFI) 漏洞利用时&#xff0c;了解目标服务器上可能存在的敏感文件的默认路径至关重要。读取这些文件可以帮助攻击者获取系统信息、用户凭证、配置文件、源代码等关键数据。以下是一些在 Windows 和 Linux 系统上常见的敏感文件及其默认路…

作者头像 李华