news 2026/4/19 23:54:46

大模型采样参数完全指南:Temperature、Top-K、Top-P和Min-P参数详解与应用

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
大模型采样参数完全指南:Temperature、Top-K、Top-P和Min-P参数详解与应用

文章详细解释了大模型采样策略的核心参数:Temperature通过调整softmax分布的尖锐程度控制输出的创造性与准确性;Top-K限制只选择概率最高的K个候选词;Top-P(Nucleus Sampling)保留累积概率超过P的候选词,具有更好的适应性;Min-P设置最小概率阈值以保留"亚军词"并解决长尾问题。这些参数可组合使用,影响模型输出的风格和质量,文中还提供了开源代码供读者实际测试。


在调用大模型的时候,你可以会看到过temperature,top-k甚至是top-p,min-p这些参数,它们的含义是什么呢?

这些其实都涉及到了大模型的采样(Sampling)策略,这些内容可以影响模型的输出,甚至是输出风格,比如模型输出更具创造力还是,更加更倾向准确确定的方向。我们最多的应该是使用了Temperature来控制,我们知道大一点(比如1)可以输出更加创造性的内容,小一点(比如0.1)的可以输出更加准确的内容。这些其实都跟一个叫做Softmax有关

Temperature

在Transformer的Encoder环节,简化流程大概是这样:

1.输入我是Leo

2.经过分词、向量、变换和计算,最终得到logit,如:[4.8, 3.0, 2.9],此时还没经过归一化

3.我们计算softmax,softmax([4.8, 3.0, 2.9])=~ [0.65, 0.13, 0.11](可以简单理解成做归一化+重点放大,就让概率变成0-1之间的数值,同时放大差异,也就是重要的概率更大点,不重要的概率更小点)

temperature为什么能影响到结果呢,因为softmax的公式是:

其中T就是temperature,T的大小是可以控制sofmax的分布是否尖锐的。基本上看到这个解释直接晕倒,我们看这张图:

可以看到4种不同的T下表现差异不同,其中:

•横轴表示不同候选词

•纵轴表示这个词的概率(简化的说法)

可以看到T越大,结果之间的的差异小了,表现为所有候选词的概率分布被拉平了,大家彼此更加接近,这种情况下模型更难分别出哪个词是合适的。

而T变小后,差异会明显凸显,高概率的词会显得概率更大,有区分度

实际例子看一下:

可以看到候选词的概率分布差异。所以我们用Temperature来改变模型输出风格就是这个原理。

Top-K

接下去是TOP K,这个就很好理解,在产生的多个候选词中,只筛选出概率最高的那K个,比如这里的:

最终只筛选了前3个。这种策略有个问题,就是适应性差,本质上就是完全不在乎候选词的情况,硬性选择前K个,比如K=10,在某些情况下可能太大(包含很多无关紧要的候选词进来),在另一个情况下可能有太小(把一些好的候选词都去掉了)

因此我们会有一些进一步的策略来解决这些问题

Top-P

Top-P也叫Nucleus Sampling 核采样,原理是保留累积概率超过P的候选词,比如:

P=0.2的时候,命中了2个候选词:了解13.35%+咨询7.63%=20.98%大于20%(0.2)

P=0.25的时候,前面的2个候选词加起来就不够了,再加一个问6.98%=27.96%就大于25%了

这个策略的好处是能自适应,比如在面临特别多候选词的时候,可以通过概率限定去干掉太多不相关的,在候选词不足的情况下也能补充到满足要求

Min-P

我们来看个情况

可以看到这个情况下,如果是top-p,P=0.1的情况下,只会得到一个11.18%,哪怕了解9.47%也同样适合甚至更适合的情况下,这种时候Min-P可以通过设置最小的概率P=0.09来降这两个都高概率的结果捞出来,总体而言带来的好处是:

•保留“亚军词”,也就是前面说的这个情况

•解决长尾问题,比如累积P不足,大量捞到一些小概率的候选词,实际上不一定有什么帮助

•适应性更好,如果出现绝对领先,那不会有更多干扰进来,如果出现不确定性较强的候选词,可以让跟多接近的候选词进来

总结

通常来说我们也不只是单独使用一个策略,而是将多个策略一起使用。除了前面介绍的这些采样策略以外,还有一些其他的,比如Exclude Top-K,也就是去掉Top K的结果,比如去掉Top1,这样有助于模型输出根据创造力的结果,减少模板化输出

文中用到例子我开源放在了这里[1],可以本地直接通过python运行起来,默认会去HuggingFace上拉Qwen/Qwen3-0.6B模型,可以很方便的测试和查看

​最后

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。

我整理出这套 AI 大模型突围资料包:

  • ✅AI大模型学习路线图
  • ✅Agent行业报告
  • ✅100集大模型视频教程
  • ✅大模型书籍PDF
  • ✅DeepSeek教程
  • ✅AI产品经理入门资料

完整的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
​​

为什么说现在普通人就业/升职加薪的首选是AI大模型?

人工智能技术的爆发式增长,正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议,到全国两会关于AI产业发展的政策聚焦,再到招聘会上排起的长队,AI的热度已从技术领域渗透到就业市场的每一个角落。


智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200%,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。

AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。

​​

资料包有什么?

①从入门到精通的全套视频教程⑤⑥

包含提示词工程、RAG、Agent等技术点

② AI大模型学习路线图(还有视频解说)

全过程AI大模型学习路线

③学习电子书籍和技术文档

市面上的大模型书籍确实太多了,这些是我精选出来的

④各大厂大模型面试题目详解

⑤ 这些资料真的有用吗?

这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。

所有的视频教程由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念‌,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势‌,构建起"前沿课程+智能实训+精准就业"的高效培养体系。

课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

​​​​

如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能 ‌突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓**

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 7:44:07

RAG入门指南:解决大模型知识更新滞后与幻觉现象的终极方案

RAG(检索增强生成)是一种结合信息检索和文本生成的技术,通过"先检索后回答"机制解决大模型知识更新滞后和幻觉问题。核心流程包括:从外部知识库检索相关文本片段,将检索内容与用户查询一起输入LLM生成最终答…

作者头像 李华
网站建设 2026/4/19 23:37:44

Open-AutoGLM部署全流程揭秘(小白也能搞定的本地AI配置)

第一章:Open-AutoGLM本地部署概述Open-AutoGLM 是一个开源的自动化代码生成语言模型框架,支持在本地环境中进行私有化部署,适用于企业级开发辅助、代码补全和智能文档生成等场景。其核心优势在于可离线运行、数据隐私保护强,并兼容…

作者头像 李华
网站建设 2026/4/18 13:11:31

【AutoGLM实战指南】:从零部署GitHub开源项目并实现智能代码补全

第一章:AutoGLM项目概述AutoGLM 是一个面向通用语言模型自动化调优与部署的开源框架,旨在降低大模型在垂直领域应用中的技术门槛。该项目融合了自动化机器学习(AutoML)理念与自然语言处理(NLP)最佳实践&…

作者头像 李华
网站建设 2026/4/18 12:04:23

从DeepSeek看AI产业跃迁:大模型时代的技术变革与实战应用

文章指出AI产业正从粗放式竞赛转向价值深耕阶段,大模型应用爆发促使产业转向精细化运营。算力方面从重训练转向训推均衡,异构智算平台成为关键解决方案。联想推出万全异构智算平台,整合异构算力资源,实现统一管理与智能调度&#…

作者头像 李华
网站建设 2026/4/18 7:58:02

【Open-AutoGLM本地部署终极指南】:手把手教你从零搭建AI推理环境

第一章:Open-AutoGLM本地部署概述 Open-AutoGLM 是一个基于 GLM 架构的开源自动化语言模型工具,支持本地化部署与定制化推理任务。通过在本地环境中运行该模型,用户可实现数据隐私保护、低延迟响应以及对硬件资源的精细控制。 部署环境准备 …

作者头像 李华
网站建设 2026/4/18 3:34:58

Open-AutoGLM评分全网最高(三大核心指标领先第二名30%)

第一章:Open-AutoGLM 评测得分概览 Open-AutoGLM 作为新一代开源自动推理语言模型,在多项权威基准测试中展现出卓越性能。其核心优势体现在逻辑推理、多步任务分解以及自然语言理解能力上,尤其在复杂指令遵循场景中表现突出。 核心评测维度与…

作者头像 李华