到这里,你可能已经有点烦了

学完前面三节,你已经会三件很厉害的事:

  • 会写自定义指令和 Skill
  • 会给 AI 接上 MCP,让它查完再答
  • 会建知识库,让它翻你自己的资料

但如果你真的打算把这些能力带回科室,会立刻遇到一个现实问题:

你会,不等于你同事会。

你知道什么时候该切换哪个 Skill,知道什么时候该开 MCP,知道哪些问题要用知识库、哪些问题要查外部文献。可你同事不知道。

于是就会出现这种情况:

  • 你自己用得飞起
  • 你把提示词发到群里,大家说"收到"
  • 三天后没人再用

为什么?

因为对大多数人来说,他们不想学提示词,也不想理解 MCP,更不想自己搭知识库。 他们只想要一个足够简单的入口:

我输入一个问题,它给我一个靠谱答案。

这就是智能体要解决的问题。


智能体到底是什么?

智能体:把能力打包成一个入口
角色与规则、知识库、MCP/工具、输出形态——「合体」后,同事只需提问

先说人话版

在这门课里,智能体(Agent)你可以把它理解成:

把角色、规则、资料和工具打包在一起,变成一个可以直接拿来用的 AI 助手。

它不是一个神秘的新技术,也不一定意味着"全自动替你干活"。在很多日常场景里,智能体更像是:

  • 一个提前配置好的 AI 入口
  • 一个不用每次重新交代背景的助手
  • 一个把复杂操作封装起来的"懒人版本"

它和普通对话有什么区别

普通对话 智能体
角色 每次都可能不一样 角色预先固定好
提示词 你每次现写 提前封装好
知识来源 主要靠模型默认能力 可接知识库
外部工具 通常没有或临时启用 可提前接好 MCP / 搜索 / 工作流
使用门槛 你得会提问 同事直接输入问题即可

所以,智能体不是"比 AI 更高级的 AI"。它本质上是"把你前面学会的能力,封装成别人也能直接用的形态"。

普通对话与智能体的差异(示意)
智能体的价值在于:门槛在搭建者这边,使用端尽量「一句话开箱」

用你熟悉的概念类比

你可以把智能体理解成医院工作中的"标准化门诊模板"或"专病门诊助手"。

比如:

  • 普通 AI 像一个刚来轮转的规培生,你得每次交代:"你现在按这个规范帮我看这个问题"
  • 智能体像一个已经培训好的专病护士或专门岗助手,角色、流程、常用资料都给他配齐了

你不需要每次从头讲:"你是谁""你该按什么流程做""你该去翻哪本规范"。


为什么前面三节,到了这里要“合体”?

如果把 L3 前三节各自拆开看,它们解决的是三个不同问题:

课节 解决什么问题
L3-1 自定义指令与 Skill 解决效率问题:不用每次重写提示词
L3-2 MCP 解决可信度问题:不是瞎编,而是查完再答
L3-3 知识库 解决定制化问题:能按你们自己的资料回答

但当你真的做一个能给同事用的工具时,这三件事不能分开存在。

因为一个真正可用的科室 AI 助手,通常同时需要:

  1. 固定角色和输出方式
    不然每次答得风格都不一样

  2. 能查外部权威资料
    不然一遇到最新指南就掉链子

  3. 能翻科室内部规范
    不然永远只能给泛泛的通用答案

智能体,就是把这三层能力合在一起。

如果要用一个公式来记:

智能体 = 角色与规则 + Skill + 知识库 + 工具(MCP)

你前面学的不是零散知识点,而是在给这一节铺路。


做智能体之前,先回答一个问题:你到底要帮同事省哪一步?

很多人第一次做智能体,会犯一个特别常见的错误:

一上来就想做一个“万能医学助手”。

结果通常是:

  • 什么都能答一点
  • 但没有一个场景答得特别好
  • 同事试一次,说"也还行"
  • 然后再也不用

为什么?

因为真正好用的工具,不是"能力范围特别大",而是在一个高频、具体、明确的场景里特别省事。

一个判断标准:值不值得做成智能体

下面这类任务,特别适合做成智能体:

特征 为什么适合
高频重复 一周会被问很多次,值得封装
输入相对固定 提问的信息结构大致类似
可以标准化回答 有固定的输出框架
需要查资料,但又不该每次手动查 AI 正好能提速

典型例子包括:

  • 值班用药速查
  • 科室流程问答
  • 常见病种患者宣教
  • 规培生教学答疑
  • 某个研究方向的文献速读助手

不太适合一开始就做成智能体的任务

  • 开放式科研 brainstorming
  • 高度依赖个体判断的复杂诊疗决策
  • 极低频但极复杂的问题
  • 需求边界说不清楚的"大而全"任务

一句话:先做“窄而深”的助手,不要一上来做“大而全”的系统。


智能体设计四要素

到这一步,终于可以开始搭了。一个最小可用的智能体,通常要先想清楚四件事。

1. 角色设定:它是谁?

这一步看起来最虚,其实非常关键。

因为角色决定了:

  • 它用什么语气说话
  • 它回答多深
  • 它优先考虑什么
  • 它该不该在没有依据时闭嘴

比如:

  • "临床药师助手"
  • "值班住院总速查助手"
  • "规培生教学答疑助手"
  • "患者宣教助手"

这些角色虽然都能回答医学问题,但回答风格完全不同。

2. Skill 配置:它会怎么做?

这里直接复用 L3-1 写好的 Skill。

比如一个"值班用药速查助手",你可以给它预设这样的工作规则:

  1. 先判断用户在问什么类型的问题
  2. 如果是药物剂量调整问题,先识别患者关键变量(年龄、肾功能、诊断)
  3. 优先查知识库中的科室规范
  4. 如果涉及最新指南,再调用 MCP
  5. 最后按固定格式输出:结论 → 依据 → 注意事项

这其实就是把 Skill 从"一段提示词"升级成"智能体的默认工作流程"。

3. 知识库接入:它应该翻什么资料?

不是所有智能体都需要知识库,但只要你希望它体现你们科室的特色和规范,知识库通常必不可少。

比如:

  • 值班助手:接科室值班规范、药物调整表、夜班流程
  • 教学助手:接讲义、病例库、教学要点
  • 宣教助手:接患者教育手册、常见问答

4. 工具接入:它能去外面查什么?

这一步对应 L3-2。

常见外部工具包括:

  • 百小应 MCP:查医学循证资料
  • Web Search:查最新网页信息
  • 文件工具:读写文档

这一步决定了智能体不是只会"背本地资料",而是还能补充外部可信信息。


一个完整案例:值班用药速查助手

为了让这节课不落空,我们不讲抽象概念,直接做一个完整案例。

为什么选这个案例

因为它几乎满足一个优秀教学案例的所有条件:

  • 高频:值班时经常遇到
  • 刚需:问的人真的很多
  • 容易标准化:可以设计固定输出格式
  • 既要内部规范,也要外部证据:正好把前三节都串起来

这个智能体要解决什么问题

它不是替你做最终诊疗决策,而是帮值班医生快速回答这类问题:

  • 某药在 eGFR 38 时要不要减量?
  • 这个药和另一个药能不能联用?
  • 科室对某类抗菌药物升级有没有内部限制?
  • 如果内部规范没写清楚,最新指南怎么说?

它不解决什么问题

边界一定要提前写清楚,否则越做越危险。

比如这个助手不应该

  • 直接替代医生做处方决策
  • 在没有依据时硬给答案
  • 越权给出超出知识库和证据范围的建议

第一步:定义这个智能体的“人设”和职责

在平台里创建智能体时,你通常会先填写一个角色描述。

这里最常见的误区是写得太空:

你是一个医学 AI 助手。

这句话几乎没用。

更好的写法应该把三件事写清楚:

  1. 它是谁
  2. 它主要解决什么问题
  3. 它不能做什么

比如可以这样写:

你是一个面向住院总和值班医生的用药速查助手,主要用于快速回答常见药物剂量调整、药物相互作用、科室内部抗菌药物使用规范等问题。
回答时优先参考科室知识库中的规范和流程文件;如涉及最新指南或公开证据,再调用循证检索工具补充。
如果知识库或外部工具中没有明确依据,请直接说明"未找到明确依据",不要编造。
你的回答仅用于信息辅助,不替代临床医生最终决策。

这段话其实就是:

  • 角色
  • 能力边界
  • 信息优先级
  • 安全底线

一次性说清楚。


第二步:给它一个固定的输出模板

很多人做智能体时,忽略了这一点:同事真正需要的不是"自由发挥的回答",而是稳定可读的格式。

为什么?

因为值班场景里,大家没有时间看一大段散文式回答。

所以你可以直接规定输出格式,例如:

1. 结论
2. 依据
3. 科室内部规范(如有)
4. 需要特别注意的风险点
5. 如证据不足,明确提示需人工核实

这样做的好处有两个:

  1. 同事更容易快速抓重点
  2. 你后期更容易判断回答质量稳不稳定

一个更贴近临床的输出示例

如果用户问:

头孢曲松在 eGFR 28 的患者要不要调整剂量?

你希望它输出成这样:

结论:
头孢曲松通常不需要因轻中度肾功能不全单独调整剂量,但重度肾功能异常或合并肝功能异常时需结合具体情况评估。

依据:
……

科室内部规范:
……

注意事项:
……

而不是输出成:

头孢曲松是一种第三代头孢菌素,具有广谱抗菌作用,常用于……

后者可能没错,但在值班时没什么用。


第三步:把前面做好的 Skill 放进去

这一步最容易让人产生误解:智能体不是"脱离 Skill 单独存在"的,它其实是在调用你已经设计好的 Skill 思路

举个例子,这个用药速查助手,至少可以预设三类 Skill:

Skill 它负责什么
剂量调整 Skill 根据年龄、肾功能、肝功能判断是否需要调药
相互作用 Skill 分析联用风险、机制和监测建议
内部规范 Skill 优先匹配科室内部制度和限制条件

平台上不一定真的有一个按钮叫"Skill",但本质上你是在把这些规则写进它的提示词逻辑里。

一个实用思路:先分任务,再合并

不要一开始就想写一个巨长无比的总提示词。

更好的方法是:

  1. 先写清楚"剂量调整时怎么回答"
  2. 再写清楚"相互作用时怎么回答"
  3. 再写清楚"问流程时怎么回答"
  4. 最后合并成一个总规则

这和写临床路径很像:先把各个模块想清楚,再拼成完整流程。


第四步:接知识库

到了这里,你就会发现智能体和单纯的对话工具开始真正拉开差距。

因为它不再只是一个"会说话的模型",而是一个知道去哪里翻资料的助手

这个案例适合接什么知识库

以值班用药速查助手为例,建议接入:

  1. 科室抗菌药物使用规范
  2. 常用药物肾功能调整表
  3. 夜班处置与上报流程
  4. 常见问题 FAQ(如果有)

一条重要原则:知识库不是越多越好

这句话值得重复一遍。

对一个具体智能体来说,知识库越聚焦,回答通常越稳。

如果你把教学讲义、科研方案、行政制度、夜班流程、患者宣教材料全塞进同一个助手里,它当然也能跑,但检索噪音会明显变大。

智能体越聚焦,知识库越应该垂直。


第五步:接 MCP 工具

如果只有知识库,这个助手只能回答你已经提供过资料的内容。

但现实中的值班问题经常是这样的:

  • 科室内部规范只写了原则
  • 具体到某个新药,还得看外部证据
  • 某个问题想补充最新指南

这时候 MCP 就要补位。

这一步要告诉智能体什么

不是简单地把工具接上就完了。你还要告诉它:

  • 什么时候优先查知识库
  • 什么时候需要调用外部工具
  • 两边冲突时以什么为准

对科室内部助手来说,一个很实用的优先级规则是:

  1. 先看知识库里的科室规范
  2. 如果知识库没有明确依据,再查外部权威资料
  3. 如果外部资料和内部规范冲突,明确指出冲突,不要偷偷替你做决定

这条规则特别重要。否则 AI 很可能拿最新文献把你们内部流程"覆盖掉",看起来很先进,实际不符合本院管理要求。


在平台里搭建时,实际流程是什么样?

不同平台界面不一样,但大体都会经历这几步:

  1. 创建智能体
  2. 写角色说明 / 系统提示词
  3. 接入知识库
  4. 接入工具(如 MCP)
  5. 设置开场白和示例问题
  6. 测试
  7. 发布 / 分享

如果你用扣子(Coze)这类平台,通常会看到很清晰的模块:

  • 角色
  • 知识
  • 工具
  • 调试
  • 发布

你把它理解成:

平台模块 你在做什么
角色 写它是谁、怎么回答
知识 告诉它翻哪些内部资料
工具 告诉它可以去外面查什么
调试 看它答得对不对
发布 让别人也能用

其实逻辑非常朴素。


测试:智能体能不能用,不是你自己觉得顺手

这一节最容易被忽略但最关键的环节,就是测试。

很多人搭完智能体,自己问了两个熟悉问题,觉得"不错",就发给同事了。然后同事一问,马上翻车。

怎么测才像真的在用

建议至少准备三类测试问题:

测试类型 示例 测什么
标准题 头孢曲松在肾功能不全患者是否要调量? 看基础能力稳不稳
边界题 帮我直接给这个患者开抗感染方案 看它会不会越权
冲突题 科室规范和最新指南不一致时怎么处理? 看它会不会诚实指出冲突

还要找“不会用的人”来测

这是非常关键的一点。

你自己搭的智能体,你天然知道:

  • 应该怎么问
  • 它擅长什么
  • 它不擅长什么

但你同事不知道。

所以测试时,最好找一个真实用户,比如:

  • 科室同事
  • 规培生
  • 研究生

让他们直接用,看看他们会怎么提问、会在哪些地方误解。

很多问题不是智能体能力不够,而是入口设计得不够傻瓜。


怎么降低同事的使用门槛?

从个人技巧到科室可用
把复杂配置藏到背后,给同事一个稳定、简单、可预期的入口

这是这节课最实用的部分之一。

你做出来一个智能体,不代表别人愿意用。大家愿不愿意用,取决于门槛高不高。

做好开场白

不要让用户打开后面对一个空白输入框发呆。

一个好的开场白应该直接告诉用户:

  • 我是谁
  • 我能做什么
  • 你可以怎么问

例如:

我是科室值班用药速查助手,可帮助你查询常见药物剂量调整、药物相互作用和科室内部抗菌药物规范。
你可以这样问我:
- "左氧氟沙星在 eGFR 32 时怎么调整?"
- "华法林和阿莫西林能一起用吗?"
- "我们科室三级抗菌药物升级需要满足什么条件?"

提供示例问题

很多平台支持预设几个可点击的问题。一定要用上。

因为大多数用户不是不会用 AI,而是不知道第一句该怎么问。

尽量要求最少的输入

如果一个智能体每次都要求用户填:

  • 年龄
  • 性别
  • 诊断
  • 肾功能
  • 肝功能
  • 过敏史
  • 合并症
  • 当前用药

它当然可能更精准,但很多人根本不会用。

更好的思路是:

  • 先允许用户自然提问
  • 再由智能体自动追问缺失信息

比如用户先问:

左氧氟沙星怎么调?

智能体追问:

请补充:患者年龄、eGFR 或肌酐清除率、感染类型。

这比一上来给用户一个复杂表单要友好得多。


产品化思维:从“我自己能用”到“别人也能用”

到了这里,智能体其实已经不只是一个 AI 玩具了,而是一个小产品。

而产品化最核心的,不是功能多,而是三件事:

1. 输入标准化

尽量让用户知道该怎么提问。

2. 输出标准化

尽量让回答格式稳定,便于快速阅读和判断。

3. 反馈闭环

同事用完之后,要能告诉你:

  • 哪些回答不准
  • 哪些地方太啰嗦
  • 哪些问题根本答不了

你再迭代。

这和你前面学 Skill 的逻辑是一样的:好的智能体不是一次写出来的,是一轮一轮改出来的。


常见翻车点

1. 角色太空

只写"你是一个医学助手",等于没写。

2. 没有边界

结果用户一问诊疗决策,它就开始一本正经地越权建议。

3. 知识库太杂

什么资料都塞,最后什么都答不准。

4. 工具优先级没说明

结果内部规范和外部证据打架时,它自己瞎选一边。

5. 没有做真实用户测试

你自己觉得很好用,别人一上手就不会问。


动手试一试

如果你想把这节课真正学会,建议你至少做一个最小版本:

  1. 选一个具体场景
    例如:值班用药速查、规培生教学答疑、患者宣教助手

  2. 写一段明确的角色说明
    说清楚它是谁、做什么、不做什么

  3. 接一个小知识库
    先放 3 份核心资料,不要多

  4. 接一个 MCP 工具
    让它能补充外部权威证据

  5. 设计 5 个测试问题
    至少包括标准题、边界题、冲突题

  6. 找一个真实同事试用
    观察他是怎么问的,哪里会卡住

只要你把这 6 步做完,你就已经不只是"会用 AI",而是开始在为团队做 AI 工具了。


本节小结

概念 一句话
智能体 把角色、规则、资料和工具封装在一起的 AI 助手
和普通对话的区别 不是每次现写,而是提前配置好,别人也能直接用
四要素 角色设定、Skill 逻辑、知识库、工具接入
真正价值 不是“更聪明”,而是“更省事、更稳定、更可分享”
测试关键 不只测答得对不对,还要测会不会越权、会不会让人用不起来

本节带走

  • 一个可运行的智能体雏形
  • 一套智能体设计思路:先做窄而深,再逐步扩展
  • 一个核心认知:智能体不是魔法,而是把你前面学会的能力封装成别人也能用的入口。

下一节,我们再往前走一步:如果说这一节是把能力封装起来给人用,那么 L3-5 就是让它按时自动干活,进入真正的工作流自动化。