从 LLM 到 Agent Skill —— 一文打通 AI 核心概念底层逻辑
你是否经常听到LLM、Token、Prompt、RAG、Agent这些词,却总觉得一知半解?
别担心,这篇文章用最通俗的方式,把这10个AI核心概念一次性讲清楚。
1. LLM —— 大 Language Model(大语言模型)
一句话理解:LLM 就是 AI 的"大脑",一个见过天文数字文本的超级读书人。
它读了整个互联网级别的文字(书籍、文章、代码、对话),所以它学会了:
- 语言规律(语法、表达方式)
- 知识储备(事实、概念、逻辑)
- 推理能力(回答问题、写代码、做总结)
类比:就像一个读了全世界所有书的学霸,你问什么他都能接上话。
💡 常见例子:GPT-4、Claude、文心一言、通义千问 都是 LLM。
2. Token —— AI 的"最小语言单位"
一句话理解:Token 是 LLM 理解语言的最小碎片。
当我们说一句话时,LLM 并不是按"字"来理解的,而是按Token。
| 中文示例 | Token 拆分 |
|---|---|
| “我喜欢AI” | [“我”, “喜欢”, “AI”](约3个token) |
| “你好世界” | [“你好”, “世界”](约2个token) |
关键记忆:
- 1 个汉字 ≈ 1~2 个 Token
- 1 个英文单词 ≈ 1 个 Token
- 计费按 Token 算,不是按字数!
输入: "请帮我写一首诗" → 拆成 Tokens → LLM 处理 → 生成回答💡通俗理解:Token 就像是 AI 的"乐高积木块",积木块越小,能拼出的内容越精细。
3. Context —— 上下文
一句话理解:Context 就是 AI 当前"看到"的所有内容。
你和 AI 的每一次对话,前面说了什么,这些都属于 Context。
你: "帮我写一首关于春天的诗" AI: "春风拂面..." ← 这是第一轮 你: "再写一首关于夏天的" AI: 因为有 Context,它知道 "再" 是指 "再写一首诗" ← 上下文起作用了!没有 Context 会怎样?
每一轮对话 AI 都会"失忆",就像每次都要重新认识一个新朋友。
4. Context Window —— 上下文窗口
一句话理解:AI 一次性能"记住"的最大信息量。
每个 LLM 都有一个Context Window大小限制:
| 模型 | Context Window |
|---|---|
| 早期 GPT-3 | 4K Tokens(约3000字) |
| GPT-4 Turbo | 128K Tokens |
| Claude 3 | 200K Tokens |
通俗比喻:
- Context Window 就像 AI 的"工作台"
- 工作台越大,能同时处理的信息越多
- 你扔一本500页的书上去,如果工作台不够大,它就只能看到前面一部分
⚠️注意:超出 Context Window 的内容,AI 会直接"忘记"。
5. Prompt —— 提示词
一句话理解:Prompt 就是你给 AI 的"指令"。
这是你和 AI 交互的主要方式。写 Prompt 就像在"给 AI 布置作业"。
❌ 糟糕的 Prompt: "写个文案" ✅ 好的 Prompt: "你是一位资深营销专家,请为一款面向年轻人的智能手表写3条朋友圈文案, 要求:每条不超过50字,风格活泼,突出健康监测功能。"Prompt 之所以重要,是因为 LLM 的输出质量严重依赖输入质量。
这就是为什么现在有一个专门的职业叫Prompt Engineer(提示词工程师)。
6. User Prompt —— 用户提示词
一句话理解:就是你(用户)直接输入给 AI 的那句话。
用户输入: "请用Python写一个计算斐波那契数列的函数" ↑ 这是 User PromptUser Prompt 是对话中最直观的部分,你想让 AI 做什么,直接告诉它。
7. System Prompt —— 系统提示词
一句话理解:System Prompt 是 AI 的"人设"和"行为准则",用户看不到但时刻在起作用。
System Prompt(开发者设置的,用户看不到): "你是一个专业的数学辅导老师,回答要耐心细致, 多用举例说明,不要直接给出答案,要引导学生思考。" User Prompt(用户输入的): "帮我解这道题:x² - 5x + 6 = 0" AI 回答: "我们来一步步分析这个方程: 第一步,这是一个一元二次方程... (引导式教学,而不是直接给答案)"类比:
- System Prompt= 公司的员工手册(规定行为准则)
- User Prompt= 客户今天提的需求
8. Tool —— 工具调用
一句话理解:让 AI 能"动手做事",而不仅仅是"动嘴说话"。
纯 LLM 只能输出文字,但有了 Tool 能力,AI 可以:
| 工具类型 | 能做什么 |
|---|---|
| 计算器 | 精确计算数学题 |
| 搜索引擎 | 查实时信息 |
| 代码执行器 | 运行 Python 代码 |
| 数据库查询 | 查用户订单 |
| API 调用 | 发邮件、订机票 |
用户: "帮我查一下北京的天气" ↓ LLM 识别需要调用工具 → 调用天气查询 API → 拿到结果 → 回复用户 ↑ 这就是 Tool 调用的威力💡没有 Tool 的 LLM:理论家,只会说不会做
有 Tool 的 LLM:工程师,能说会做
9. MCP —— Model Context Protocol(模型上下文协议)
一句话理解:MCP 是 AI 世界的"USB 标准接口"。
在 MCP 出现之前,每个 AI 连接外部工具都需要定制开发:
传统方式(每个工具都要单独适配): LLM ←→ 自定义代码 ←→ 天气 API LLM ←→ 自定义代码 ←→ 数据库 LLM ←→ 自定义代码 ←→ 文件系统 每个连接都要写一套新代码 ❌ MCP 方式(统一标准): LLM ←→ MCP 协议 ←→ 天气服务器 LLM ←→ MCP 协议 ←→ 数据库服务器 LLM ←→ MCP 协议 ←→ 文件系统 一次适配,到处使用 ✅类比:
没有 MCP 之前,每个外设都要自己焊线接电脑。
有了 MCP 之后,就像有了 USB 接口 —— 即插即用。
10. Agent / Agent Skill —— 智能体 & 智能体技能
一句话理解:Agent 是能自主思考+行动的 AI,Agent Skill 是它的"专业技能"。
把前面的所有概念串起来:
┌──────────────────────────────────────┐ │ Agent │ │ ┌────────────────────────────────┐ │ │ │ LLM (大脑) │ │ │ │ + Context Window (工作台) │ │ │ │ + System Prompt (人设) │ │ │ ├────────────────────────────────┤ │ │ │ 工具库 (Agent Skills) │ │ │ │ ├─ 搜索 Skill │ │ │ │ ├─ 代码 Skill │ │ │ │ ├─ 数据分析 Skill │ │ │ │ └─ MCP 连接的更多 Skill... │ │ │ └────────────────────────────────┘ │ └──────────────────────────────────────┘Agent 的工作流程:
接收到任务 ↓ 理解任务(LLM + Context) ↓ 规划步骤(思考) ↓ 调用工具/技能(Tool/MCP) ↓ 获取结果 ↓ 继续推理,直到任务完成通俗例子:
你让 AI 助手"帮我订一张下周去北京的机票":
- Agent 理解需求(LLM)
- 查询你的日程(调用日历 Tool)
- 搜索航班(调用搜索 Tool)
- 比价推荐(分析能力)
- 下单支付(调用支付 Skill)
- 把确认信息发给你
这就是 Agent 的威力 ——不只是聊天,而是真正帮你完成任务。
总结:一张图看透所有概念的关系
你输入问题 │ ▼ User Prompt ──→ 进入 Context Window │ ▼ System Prompt 设定行为准则 │ ▼ LLM 处理 Token(理解+推理) │ ┌──────────┼──────────┐ ▼ ▼ ▼ 纯文本回答 调用 Tool 使用 MCP 连接外部服务 │ │ │ └──────────┼──────────┘ ▼ Agent 自主完成任务 │ ▼ 返回最终结果给你进阶阅读
如果你对这些概念想深入了解,可以按这个路径学习:
- 入门:先用好 Prompt(提示词工程)
- 进阶:了解 Token 机制和 Context Window 限制
- 高级:学习 Tool Calling 和 MCP 协议
- 专家:搭建自己的 Agent,组合多个 Agent Skills
本文内容整理自 B站 UP主「马克的技术工作坊」的视频《从 LLM 到 Agent Skill,一期视频带你打通底层逻辑!》