news 2026/5/1 4:02:52

没有对大语言模型(LLM)做基准测试,你可能在多花 5-10 倍的钱

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
没有对大语言模型(LLM)做基准测试,你可能在多花 5-10 倍的钱

每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/

上个月,我帮一个朋友把他的 LLM API 成本削减了80%

他是一个非技术出身的创业者,正在打造一个由 AI 驱动的业务。和大多数人一样,他选择了 GPT-5,因为它是默认选项:API 已经有了、基准测试数据不错、大家都在用——那还用考虑什么呢?

但随着使用量增长,他的账单也涨了。仅 API 调用费用就达到了每月 1500 美元

于是我们针对他的实际提示词(prompts)对100 多个模型进行了基准测试。很快我们发现,虽然 GPT-5 表现稳健,但几乎从不是最划算的选择——总能找到成本更低、质量相近的替代方案。找到合适的模型后,他节省了上千美元。以下是我们如何做到的。


问题:公开基准无法预测你自己的任务表现

选择 LLM 时,大多数人只是挑一个熟悉的服务商。比如我习惯用 Anthropic,根据任务选择 Opus、Sonnet 或 Haiku。稍微讲究点的,会查查各种排行榜:Artificial Analysis、LM Arena、GPQA Diamond、AIME、SWE Bench、MATH 500、Humanity’s Last Exam、ARC-AGI、MMLU……

但让我们面对现实:这些指标并不能预测模型在你具体任务上的表现

一个在推理类 benchmark 中得分最高的模型,可能在损害费用估算上表现平平,或在多语言客服、网页数据提取等方面完全不行。

它们充其量只能作为“粗略参考”,而且完全没有考虑成本。

唯一真正知道性能的方法,就是在你自己的提示词上测试,同时考虑质量、成本和响应延迟。


自建基准测试

为了弄清楚这一点,我们自己搭建了基准系统。以下以一个客户支持场景为例:

步骤 1:收集真实示例

我们通过 WHAPI 提取了真实的客服对话:包含历史聊天记录、客户的最新消息,以及朋友实际回复的内容。他还提供了手动与自动生成的提示模板。基于此,我们选取了约 50 个聊天案例——既包括常见问题,也包含希望模型能正确应对的特殊情况。

步骤 2:定义预期输出

每个示例的“理想答案”就是朋友实际回复的内容。我们还定义了具体的评分标准,例如:

  • 一个好的回答应告诉客户该产品售价为 5.99 美元,并立即提供下单选项;

  • 或:一个好的回答应说明退货政策为 30 天,但客户已在两个月后才寄回货品。

这样模型评分时就能有依据。

步骤 3:构建基准数据集

至此,我们得到一个简单的数据集:输入提示(conversation + 指令)期望输出(expected response)
这个格式通用,适用于各种场景。如果某个模型表现很好,也可以用它的结果生成标准答案并微调。

步骤 4:在所有模型上运行

我们通过 OpenRouter 平台来运行这些模型,因为它提供统一 API,可以轻松切换模型:

from openai import OpenAI client = OpenAI( base_url="https://openrouter.ai/api/v1", api_key="<OPENROUTER_API_KEY>", ) completion = client.chat.completions.create( model="openai/gpt-5", # 或 "anthropic/claude-opus-4.5", "google/gemini-3-pro-preview" 等 messages=[{"role": "user", "content": "Hello!"}] )

这让我们能用相同代码测试 50+ 模型。运行结果输出为一个 dataframe,记录每个模型的输入、期望输出和实际输出。

显然,这样的数据量太大,不可能人工评分,于是我们又让 LLM 来当评委。


步骤 5:用 LLM 作为“评审者”

我们选用 Opus 4.5 来对每条样本的模型输出进行评分——从 1 到 10 分,依据之前定义的具体标准。

有了详细标准后,LLM 评分更一致、更可靠。我们人工抽查部分结果,验证“评审”模型是否判断得当。有时因为期望答案模糊,评分会偏差,因此这一过程是迭代的。我们不仅让它输出分数,还让它说明评分理由。

这种方法在其他任务上也适用:为每个 prompt 定义标准答案,然后让“评委模型”对不同 LLM 的回答打分。


决策:选出最佳模型

现在我们拥有每个模型的质量评分。下一步要做的是——选哪个?

理想的模型应在质量、成本、延迟之间取得平衡。

在客户支持任务中,延迟非常关键。GPT-5 的回答质量很好,但上下文多时可能要等整整一分钟。而在另一个任务(损害费用估算)中,我们更关心精度,不介意多花点时间。

因此我们还需衡量:

  • 成本(Cost):不仅是单价(token 费用),还包括每次调用的总花费,因为不同模型输出长度不同。

  • 延迟(Latency):我们测量生成完整回答所需总时间。

最后得到每个模型的三项指标——质量、成本、延迟。通常,我们只需按质量排序,再选一个价格相对便宜、速度可接受的模型即可。


帕累托效率(Pareto Efficiency)

我们发现一个很实用的概念:帕累托前沿(Pareto Frontier)

假设我们有 100 个模型,每个都有一个成本与质量分数。
如果某个模型 A 比模型 B更便宜且更好,那模型 B 就没有存在价值。
筛选掉这些“被支配”的模型后,剩下的就是帕累托前沿——即“给定预算下最优的模型集合”。

在图上,横轴是价格,纵轴是质量。所有蓝点代表既没有更便宜又更好的替代品的模型。连接这些点,就得到最优边界。

可见,在优化质量与成本时,其它模型都没必要再看。


通过模型切换节省每月 1000 美元

利用基准测试结果,我们找到了一些质量几乎相同、但成本低达10 倍的模型。朋友最终选了一个稳妥版本,也把支出减少了 5 倍——每月省下1000 多美元

这过程虽然有效,但太繁琐,于是我开发了一个工具。


Evalry:一个可在 300+ LLM 间自动做基准测试的工具

真正做到“为自己的任务找到最优模型”比想象的复杂得多。
要整合多家 API、设计打分逻辑、处理错误,手动测 5 个模型都得花上好几个小时。
更糟的是,新模型几乎每周发布一次,成本常被减半,根本追不上。

因此我为朋友、也为所有有同样困扰的人构建了Evalry

它能自动测试你实际的提示词,对比300 多个模型的质量、速度与成本,一键生成可视化报告——
无需编程,几秒出结果。

真正做到:不再凭感觉选模型,而是用数据驱动决策

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/27 19:50:12

铜钟音乐播放器:3分钟快速上手指南

铜钟音乐播放器&#xff1a;3分钟快速上手指南 【免费下载链接】tonzhon-music 铜钟 (Tonzhon.com): 免费听歌; 没有直播, 社交, 广告, 干扰; 简洁纯粹, 资源丰富, 体验独特&#xff01;(密码重置功能已回归) 项目地址: https://gitcode.com/GitHub_Trending/to/tonzhon-musi…

作者头像 李华
网站建设 2026/4/23 11:48:44

NewBie-image-Exp0.1部署教程:PyTorch 2.4 + CUDA 12.1环境配置全记录

NewBie-image-Exp0.1部署教程&#xff1a;PyTorch 2.4 CUDA 12.1环境配置全记录 1. 引言&#xff1a;为什么你需要这个镜像 你是否曾为部署一个复杂的AI图像生成模型而头疼&#xff1f;下载依赖、修复报错、匹配版本、调试显存……这些繁琐的步骤常常让人望而却步。今天&…

作者头像 李华
网站建设 2026/4/16 1:42:05

DAY54 CBAM注意力

1. 通道注意力模块&#xff08;Channel Attention Module&#xff09;复习 通道注意力解决的是“看什么” (What) 的问题&#xff0c;即在众多的特征通道中&#xff0c;哪些通道包含更有用的信息。 核心逻辑&#xff1a; 双重池化&#xff1a;同时使用全局平均池化 (AvgPool) …

作者头像 李华
网站建设 2026/3/20 18:28:48

如何快速安装Typora OneDark主题:完整配置指南

如何快速安装Typora OneDark主题&#xff1a;完整配置指南 【免费下载链接】typora-onedark-theme A dark theme for Typora inspired by VScodes One Dark Pro theme. 项目地址: https://gitcode.com/gh_mirrors/ty/typora-onedark-theme Typora OneDark主题是一款专为…

作者头像 李华
网站建设 2026/4/15 18:04:01

如何高效微调OCR大模型?PaddleOCR-VL-WEB一键部署指南

如何高效微调OCR大模型&#xff1f;PaddleOCR-VL-WEB一键部署指南 在文档数字化和自动化处理需求日益增长的今天&#xff0c;OCR&#xff08;光学字符识别&#xff09;技术早已不再局限于简单的文字提取。面对复杂的版面结构、多语言混合内容、表格与公式的精准还原等挑战&…

作者头像 李华