news 2026/5/1 5:19:00

大模型采样参数完全指南:Temperature、Top-K、Top-P和Min-P参数详解与应用

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
大模型采样参数完全指南:Temperature、Top-K、Top-P和Min-P参数详解与应用

文章详细解释了大模型采样策略的核心参数:Temperature通过调整softmax分布的尖锐程度控制输出的创造性与准确性;Top-K限制只选择概率最高的K个候选词;Top-P(Nucleus Sampling)保留累积概率超过P的候选词,具有更好的适应性;Min-P设置最小概率阈值以保留"亚军词"并解决长尾问题。这些参数可组合使用,影响模型输出的风格和质量,文中还提供了开源代码供读者实际测试。


在调用大模型的时候,你可以会看到过temperature,top-k甚至是top-p,min-p这些参数,它们的含义是什么呢?

这些其实都涉及到了大模型的采样(Sampling)策略,这些内容可以影响模型的输出,甚至是输出风格,比如模型输出更具创造力还是,更加更倾向准确确定的方向。我们最多的应该是使用了Temperature来控制,我们知道大一点(比如1)可以输出更加创造性的内容,小一点(比如0.1)的可以输出更加准确的内容。这些其实都跟一个叫做Softmax有关

Temperature

在Transformer的Encoder环节,简化流程大概是这样:

1.输入我是Leo

2.经过分词、向量、变换和计算,最终得到logit,如:[4.8, 3.0, 2.9],此时还没经过归一化

3.我们计算softmax,softmax([4.8, 3.0, 2.9])=~ [0.65, 0.13, 0.11](可以简单理解成做归一化+重点放大,就让概率变成0-1之间的数值,同时放大差异,也就是重要的概率更大点,不重要的概率更小点)

temperature为什么能影响到结果呢,因为softmax的公式是:

其中T就是temperature,T的大小是可以控制sofmax的分布是否尖锐的。基本上看到这个解释直接晕倒,我们看这张图:

可以看到4种不同的T下表现差异不同,其中:

•横轴表示不同候选词

•纵轴表示这个词的概率(简化的说法)

可以看到T越大,结果之间的的差异小了,表现为所有候选词的概率分布被拉平了,大家彼此更加接近,这种情况下模型更难分别出哪个词是合适的。

而T变小后,差异会明显凸显,高概率的词会显得概率更大,有区分度

实际例子看一下:

可以看到候选词的概率分布差异。所以我们用Temperature来改变模型输出风格就是这个原理。

Top-K

接下去是TOP K,这个就很好理解,在产生的多个候选词中,只筛选出概率最高的那K个,比如这里的:

最终只筛选了前3个。这种策略有个问题,就是适应性差,本质上就是完全不在乎候选词的情况,硬性选择前K个,比如K=10,在某些情况下可能太大(包含很多无关紧要的候选词进来),在另一个情况下可能有太小(把一些好的候选词都去掉了)

因此我们会有一些进一步的策略来解决这些问题

Top-P

Top-P也叫Nucleus Sampling 核采样,原理是保留累积概率超过P的候选词,比如:

P=0.2的时候,命中了2个候选词:了解13.35%+咨询7.63%=20.98%大于20%(0.2)

P=0.25的时候,前面的2个候选词加起来就不够了,再加一个问6.98%=27.96%就大于25%了

这个策略的好处是能自适应,比如在面临特别多候选词的时候,可以通过概率限定去干掉太多不相关的,在候选词不足的情况下也能补充到满足要求

Min-P

我们来看个情况

可以看到这个情况下,如果是top-p,P=0.1的情况下,只会得到一个11.18%,哪怕了解9.47%也同样适合甚至更适合的情况下,这种时候Min-P可以通过设置最小的概率P=0.09来降这两个都高概率的结果捞出来,总体而言带来的好处是:

•保留“亚军词”,也就是前面说的这个情况

•解决长尾问题,比如累积P不足,大量捞到一些小概率的候选词,实际上不一定有什么帮助

•适应性更好,如果出现绝对领先,那不会有更多干扰进来,如果出现不确定性较强的候选词,可以让跟多接近的候选词进来

总结

通常来说我们也不只是单独使用一个策略,而是将多个策略一起使用。除了前面介绍的这些采样策略以外,还有一些其他的,比如Exclude Top-K,也就是去掉Top K的结果,比如去掉Top1,这样有助于模型输出根据创造力的结果,减少模板化输出

文中用到例子我开源放在了这里[1],可以本地直接通过python运行起来,默认会去HuggingFace上拉Qwen/Qwen3-0.6B模型,可以很方便的测试和查看

​最后

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。

我整理出这套 AI 大模型突围资料包:

  • ✅AI大模型学习路线图
  • ✅Agent行业报告
  • ✅100集大模型视频教程
  • ✅大模型书籍PDF
  • ✅DeepSeek教程
  • ✅AI产品经理入门资料

完整的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
​​

为什么说现在普通人就业/升职加薪的首选是AI大模型?

人工智能技术的爆发式增长,正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议,到全国两会关于AI产业发展的政策聚焦,再到招聘会上排起的长队,AI的热度已从技术领域渗透到就业市场的每一个角落。


智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200%,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。

AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。

​​

资料包有什么?

①从入门到精通的全套视频教程⑤⑥

包含提示词工程、RAG、Agent等技术点

② AI大模型学习路线图(还有视频解说)

全过程AI大模型学习路线

③学习电子书籍和技术文档

市面上的大模型书籍确实太多了,这些是我精选出来的

④各大厂大模型面试题目详解

⑤ 这些资料真的有用吗?

这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。

所有的视频教程由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念‌,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势‌,构建起"前沿课程+智能实训+精准就业"的高效培养体系。

课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

​​​​

如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能 ‌突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓**

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/1 7:25:17

云计算与大数据实训室系列产品介绍

在数字经济加速渗透的今天,云计算与大数据技术已成为驱动产业升级的核心引擎,市场对具备实战能力的专业人才需求日益迫切。唯众深耕职业教育与实训领域多年,精准把握行业发展脉搏与教学痛点,打造出涵盖“教、学、练、评”全流程的…

作者头像 李华
网站建设 2026/5/1 11:08:42

产品经理转AI产品经理:5步转行指南+2万学习资源免费送_如何从传统产品经理转行成为顶尖的AI产品经理?

文章讲述了产品经理如何转行成为AI产品经理,强调学习与实践的重要性。AI产品经理需理解AI技术,而不仅是传统产品的需求分析能力。转行需先成为优秀产品经理,系统学习AI知识,在当前业务中寻找AI应用机会,参与AI项目&…

作者头像 李华
网站建设 2026/5/1 8:14:15

【Open-AutoGLM设备配置全解析】:20年专家揭秘高效运行所需硬件清单

第一章:Open-AutoGLM设备配置的核心认知在部署和运行 Open-AutoGLM 框架前,理解其设备配置的底层逻辑是确保模型高效推理与训练的关键。该框架对硬件资源、驱动版本及环境依赖有明确要求,任何偏差都可能导致性能下降或运行失败。硬件兼容性要…

作者头像 李华
网站建设 2026/4/27 18:36:33

AI论文写作终极指南:9款必备神器,1小时生成3万字全学科论文!

作为深耕学术写作领域的SEO内容策略师,我直接向高校学子与科研工作者宣告:这是全网最权威、最全面的AI论文工具测评与指南。读完本文,你将掌握一份足以终结所有论文写作焦虑的终极精选清单,无需再四处搜罗、试错。我们将以排行榜形…

作者头像 李华
网站建设 2026/5/1 6:10:10

Mac跑大模型不再是梦:Open-AutoGLM一键启动脚本泄露(限时开源)

第一章:Mac跑大模型不再是梦:Open-AutoGLM的诞生背景曾经,运行大型语言模型(LLM)被认为是高性能服务器或GPU集群的专属领域。对于广大Mac用户而言,受限于硬件架构与算力瓶颈,本地部署和推理大模…

作者头像 李华
网站建设 2026/5/1 10:31:46

Open-AutoGLM+AI融合技术突破(解锁自进化模型的秘密武器)

第一章:Open-AutoGLMAI融合技术突破(解锁自进化模型的秘密武器)Open-AutoGLM 正在重新定义生成式 AI 的边界,通过将开源架构与自进化语言模型深度融合,实现动态知识更新与推理能力跃迁。该技术核心在于构建一个可自主迭…

作者头像 李华