news 2026/5/1 5:27:15

揭秘大模型对话的核心:System、User、Assistant角色到底怎么用?

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
揭秘大模型对话的核心:System、User、Assistant角色到底怎么用?

你是不是也有过这样的经历:同样是问大模型“怎么学AI测试”,有时候回答冗长又空泛,有时候却简洁又有干货?有时候追问问题,大模型还会“答非所问”,完全忘了上一轮说过什么?

其实,这背后的关键,就在于你是否掌握了大模型对话中System、User、Assistant这三个核心角色的用法。这三个角色看似简单,却直接决定了大模型的回答质量和对话效率。今天我们就以AI测试学习场景为例,结合实际代码案例,彻底讲透这三个角色的区别与使用技巧。

一、先搞懂:三个角色到底是什么?

在大模型的对话体系中,System、User、Assistant就像一场对话的“三角主角”,各自有着明确的分工,缺一不可。我们先来看一段基础的代码结构,直观感受三个角色在代码中的体现:

import os from dotenv import load_dotenv from openai import OpenAI # 初始化客户端(以DeepSeek为例,可替换为其他大模型) load_dotenv() client = OpenAI( api_key=os.getenv("API_KEY"), base_url=os.getenv("BASE_URL", "https://api.deepseek.com/v1") ) # 对话消息列表:承载三个角色的交互 messages = [ {"role": "system", "content": "你是有5年经验的AI测试专家,回答简洁且有技术干货"}, {"role": "user", "content": "零基础怎么学AI测试?"}, # {"role": "assistant", "content": "大模型生成的回复会被放在这里,用于多轮对话承接"} ] # 调用大模型接口 response = client.chat.completions.create( model=os.getenv("MODEL", "deepseek-chat"), messages=messages, stream=False ) # 输出助手的回复 print(response.choices[0].message.content)

从代码中能清晰看到,三个角色以字典的形式被放入messages列表,作为大模型的输入。接下来我们逐一拆解每个角色的核心作用:

1. System:大模型的“人设与规则制定者”

System角色,相当于给大模型设定了“隐形指令”——它决定了大模型以什么身份、什么风格、什么规则来回答问题。它不直接参与对话交互,但却是全局的“幕后指挥”。

在代码中,它是messages里第一个字典项,比如我们设定:

{"role": "system", "content": "你是有5年经验的AI测试专家,回答简洁且有技术干货,不超过50字。"}

有了这个设定,大模型就不会再用泛泛的语言敷衍你,而是严格遵守“AI测试专家+简洁+50字以内”的约束。

2. User:对话的“发起者与提问者”

User角色就是我们自己,是问题的提出者、指令的下达者,也是对话的推动者。我们的每一个问题、每一次追问,都是给大模型的输入信号。

在代码中,它是messages里代表用户的字典项,比如:

{"role": "user", "content": "零基础怎么学AI测试?"} {"role": "user", "content": "推荐哪些AI测试工具?"}

这些都是User角色的核心作用——明确对话的话题和方向。

3. Assistant:对话的“响应者与上下文承接者”

Assistant角色是大模型的化身,它的核心任务是根据System的设定和User的问题,生成符合要求的回答,并且在多轮对话中承接上下文。

在代码中,它是大模型返回的结果,我们会把它再放入messages列表,用于下一轮对话:

# 把助手的回复加入消息列表,用于上下文承接 messages.append({"role": "assistant", "content": response.choices[0].message.content}) # 新增用户的追问 messages.append({"role": "user", "content": "第3点怎么学?"})

简单来说,它是执行层:既要遵守System定的“规矩”,又要回应User提的“问题”,还得记住自己上一轮说了什么,避免“失忆”。

二、实战对比:不同角色搭配,效果天差地别

光说理论太抽象,我们以AI测试学习的问题为例,结合代码案例看看不同角色搭配的效果。

案例1:没有System约束,回答有多“随意”?

代码实现:

messages = [ # 去掉System角色,仅保留User提问 {"role": "user", "content": "AI测试最该学啥?"} ] response = client.chat.completions.create( model=os.getenv("MODEL", "deepseek-chat"), messages=messages, stream=False ) print("无System约束的回答:", response.choices[0].message.content)

效果展示:

大模型的回答可能是这样的:“学习AI测试需要掌握的内容很多,首先要懂编程语言,比如Python,然后要掌握测试框架(如pytest、unittest),还有AI相关的工具和算法基础,另外还要了解软件测试的基本流程,包括单元测试、集成测试等,最后还需要实操项目来积累经验……”

冗长、没有重点,完全达不到我们想要的效果。

案例2:加上System约束,回答立刻“精准”

代码实现:

messages = [ # 新增System角色约束 {"role": "system", "content": "你是严谨的AI测试技术导师,回答不超过30字。"}, {"role": "user", "content": "AI测试最该学啥?"} ] response = client.chat.completions.create( model=os.getenv("MODEL", "deepseek-chat"), messages=messages, stream=False ) print("有System约束的回答:", response.choices[0].message.content)

效果展示:

大模型的回答会变成:“先学Python基础,再掌握测试框架与AI工具应用。”

简洁、有重点,完美符合我们的要求——这就是System角色的魔力。

案例3:多轮对话中,Assistant的“上下文承接力”有多重要?

这是最能体现角色配合的场景,我们来看完整的代码和对话流程:

代码实现:

messages = [ {"role": "system", "content": "你是AI测试专家,回答简洁且有步骤。"}, {"role": "user", "content": "零基础怎么学AI测试?"}, ] # 第一轮对话:助手生成初始回答 response = client.chat.completions.create( model=os.getenv("MODEL", "deepseek-chat"), messages=messages, stream=False ) assistant_reply = response.choices[0].message.content # 将助手的回复加入消息列表,用于上下文承接 messages.append({"role": "assistant", "content": assistant_reply}) print("助手第一轮回复:", assistant_reply) # 第二轮对话:用户追问,助手承接上下文 messages.append({"role": "user", "content": "第3点怎么学?"}) response = client.chat.completions.create( model=os.getenv("MODEL", "deepseek-chat"), messages=messages, stream=False ) print("助手第二轮回复:", response.choices[0].message.content)

效果展示:

  1. 助手第一轮回复:“1.学Python基础;2.掌握测试框架;3.学AI工具应用。”

  2. 助手第二轮回复:“从AI用例生成工具入手,再学AI自动化测试平台实操。”

可以看到,因为我们把Assistant的历史回复加入了messages列表,大模型记住了自己上一轮提到的“3个步骤”,当用户追问“第3点怎么学”时,没有偏离话题,而是精准承接并展开——这就是Assistant角色的核心价值,也是多轮对话不“翻车”的关键。

三、实用技巧:用好三个角色的核心要点

结合代码案例和实战效果,我们总结出几个核心技巧,帮你快速上手:

1. System角色:越具体,效果越好

不要只写“你是专家”,要把身份、风格、规则都写清楚。在代码中,就是把content写得更详细:

❌ 错误示范:

{"role": "system", "content": "你是AI测试专家。"}

✅ 正确示范:

{"role": "system", "content": "你是有5年AI测试经验的工程师,回答分点且每点不超过20字,仅推荐免费工具。"}

越具体的System指令,大模型的回答越贴合你的需求。

2. User角色:问题要明确,避免模糊

不要问“怎么学AI测试?”,可以问“零基础学AI测试,推荐3个核心学习步骤”。在代码中,就是让User的content更精准:

❌ 错误示范:

{"role": "user", "content": "怎么学AI测试?"}

✅ 正确示范:

{"role": "user", "content": "零基础学AI测试,推荐3个核心学习步骤,每个步骤不超过15字。"}

明确的问题,能让大模型的回答更有针对性,减少无效信息。

3. Assistant角色:善用历史回复,强化上下文

在多轮对话中,messages一定要把Assistant的历史回复加入列表(就像案例3中的代码那样)。这样大模型才不会“失忆”,才能精准承接你的追问。

四、最后总结:三个角色的核心逻辑

其实,用好System、User、Assistant这三个角色,本质上是掌握了与大模型“有效沟通的逻辑”,而代码则是将这个逻辑落地的工具:

  • System:决定“大模型以什么姿态说话”,是代码中messages的初始约束;

  • User:决定“大模型说什么话题”,是代码中推动对话的输入;

  • Assistant:决定“大模型怎么回应并延续对话”,是代码中需要被保留的上下文。

无论是学习AI测试、写代码、做方案,还是日常使用大模型,只要掌握了这个逻辑,就能让大模型从“答非所问的工具”,变成“精准高效的助手”。

下次再用大模型时,不妨试试给它设定清晰的System角色,提出明确的User问题,再把Assistant的回复保留下来承接对话,看看会不会给你惊喜?

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/27 16:26:06

Kotaemon图像理解能力接入方法介绍

Kotaemon图像理解能力接入方法介绍 在企业级智能系统日益普及的今天,用户不再满足于“打字提问、机器回复”的简单交互。越来越多的场景中,人们习惯直接上传一张发票、一份合同扫描件,甚至是一张医疗影像,然后问:“这上…

作者头像 李华
网站建设 2026/4/16 13:20:29

EmotiVoice在影视后期制作中的辅助配音应用前景

EmotiVoice在影视后期制作中的辅助配音应用前景 在一部动画电影的最终剪辑阶段,导演突然决定将某个关键场景的情绪基调从“隐忍”改为“爆发”。按照传统流程,这意味着要重新联系配音演员、预约录音棚、逐句重录——整个过程可能耗时数天,成…

作者头像 李华
网站建设 2026/4/27 3:25:45

SOLID 原则在 TypeScript 中的应用:接口隔离与依赖倒置实战

SOLID 原则在 TypeScript 中的应用:接口隔离与依赖倒置实战 大家好,我是你们的编程导师。今天我们要深入探讨两个非常实用且常被忽视的 SOLID 原则:接口隔离原则(ISP) 和 依赖倒置原则(DIP)。我们将通过一个真实场景——构建一个电商订单处理系统——来演示它们如何提升…

作者头像 李华
网站建设 2026/5/1 0:47:44

8、Mac OS X 开发工具:Project Builder 与 Interface Builder 详解

Mac OS X 开发工具:Project Builder 与 Interface Builder 详解 1. 编译器警告标志设置 编译器的警告信息能够帮助我们检查代码中潜在危险、可能导致错误或意外结果的语言及编程结构,这是编译器提供的非常实用的选项之一。C 和 C++ 语言选项都定义了一组用于检测和验证代码…

作者头像 李华
网站建设 2026/4/18 0:24:24

EmotiVoice情感语音生成的心理学基础研究

EmotiVoice情感语音生成的心理学基础研究 在虚拟助手轻声细语地安慰用户、游戏NPC因剧情转折而情绪爆发、有声书朗读者随情节起伏自然调动语气的今天,我们正悄然跨越人机交互的一道关键门槛——机器开始“懂得”情绪了。这种转变的背后,不只是算法的进步…

作者头像 李华