先试试再说

在讲任何概念之前,我们先来做一个实验。

动手实验:和 AI 聊一个病例

打开你手边能用的任何一个 AI 工具(ChatGPT、Kimi、通义千问、文心一言等都可以),然后输入下面这段话:

一位 55 岁男性,2 型糖尿病病史 10 年,目前使用二甲双胍 500mg tid,最近一次 HbA1c 8.2%。请给出调整方案建议。

你会发现,AI 回答得有模有样——分析了血糖控制情况,建议了药物调整方向,甚至会提到生活方式干预。

AI 的典型回答(示例)

根据该患者情况分析:
1. 当前 HbA1c 8.2%,高于控制目标 7%,说明单药治疗效果不佳
2. 建议在二甲双胍基础上联合使用 SGLT2 抑制剂(如恩格列净)或 GLP-1 受体激动剂(如利拉鲁肽)
3. 加强生活方式干预,包括饮食控制和适量运动
4. 建议将二甲双胍调整为 1000mg bid
5. 3 个月后复查 HbA1c,根据结果进一步调整

通常靠谱的部分 需要医生结合患者情况判断

现在问自己三个问题:

  1. 它是怎么"知道"这些知识的?
  2. 如果你问它一个极其罕见的疾病,它还能答得这么好吗?
  3. 如果这是你的患者,你敢直接按它说的方案来吗?

带着这三个问题,我们开始今天的学习。

先说明这门课里说的“AI”:本课程主要讨论的是以大语言模型(LLM)为核心的这一代通用 AI 工具与应用方式。它当然会延伸到多模态、知识库、智能体和工作流,但不是在系统讲完整个 AI 学科,也不是在覆盖所有 AI 分支。

AI 大模型的本质:一个超级实习生

说到 AI,医疗圈大概有两种极端反应:

两种极端派

  • 神话派:「AI 无所不能,马上要替代医生了!」——过度恐慌或期待
  • 无用派:「AI 就是个玩具,说的全是废话,不可能用在临床。」——完全否定

这两种看法都不对。真实的 AI 在中间——有用,但有限

那 AI 大模型到底是什么?

一句话概括:AI 大模型(LLM)是一台极其强大的"语言预测机器"。它在互联网上海量的文本数据(包括医学教科书、论文、临床指南等)上训练而成,能根据你给它的输入,预测"最可能的下一段文字"。

用一个比喻来理解:

AI 大模型就像一个超级实习生。
他读过你们科室所有的教科书、指南、论文,甚至连护理记录都翻过。他写东西的速度极快,格式规范,措辞流畅。

但是——他没有上过一天临床。他没见过真实的患者,没处理过突发情况,没在半夜被叫起来做过紧急决策。

更重要的是,他有时候会很自信地说出完全错误的话,而且你很难从他的语气中分辨出来。
AI 像一个超级实习生:读过很多资料但没有真实临床经验
AI 就像一个超级实习生:见得多、写得快,但没有真实临床经验,不能代替你的专业判断。

为什么"超级实习生"这个比喻有用

  • 见得多:读过海量公开文本和案例表达方式
  • 写得快:起草、改写、整理速度远超人工
  • 不背责任:没有临床经历,也不会为错误承担后果

AI 不是什么

你可能会不自觉地把 AI 类比成某些你熟悉的工具——但这些类比都是错的:

AI 不是数据库、不是搜索引擎、不是人脑
AI 不是数据库,不是搜索引擎,也不是会独立思考的人脑;它是在按模式生成答案。

这三个误解最常见:把 AI 当数据库、把 AI 当搜索引擎、或者把 AI 当成会独立思考的人。下面三张卡片就是为了把这三个误解一次讲清。

🗄️
✕ 不是数据库
每次回答可能不同
数据库查"阿司匹林适应症"每次结果一样。AI 每次回答不同——因为它是生成的,不是检索的。
🔍
✕ 不是搜索引擎
它在"写"不在"找"
搜索引擎帮你找已有的网页。AI 是生成新内容——它创造了一段之前不存在的文字。
🧠
✕ 不是人脑
没有意识和经验
人类医生会调动知识、经验、直觉。AI 不会——它只是在做数学上的概率计算,不会"想"。

AI 和你已经在用的工具有什么不同

你每天在医院已经在用大量的信息系统——HIS、PACS、LIS。AI 和它们有什么根本区别?点击下面的标签页对比看看:

🖥️
传统医疗 IT 系统(HIS / PACS / LIS)
工作方式 基于规则,按预设逻辑执行。同样的输入通常得到同样的输出,行为更可预测。
数据来源 本院结构化数据(检验结果、影像、病历记录等)。
处理内容 数字、代码、结构化字段。
出错方式 错误往往可定位、可复现——你更容易知道它在哪一步出错
类比:一台可靠的计算器。按什么键出什么结果,从不"发挥"。
🤖
AI 大模型(ChatGPT / DeepSeek / Kimi 等)
工作方式 基于概率,生成式输出。同样的问题每次回答可能不同。
数据来源 预训练语料 + 当前会话上下文;如果接了联网或工具,还能读取外部信息源。
处理内容 自然语言为主,也越来越能结合图像、代码、表格和工具调用来完成任务。
出错方式 表面流畅但内容可能有误——你可能完全察觉不到("幻觉")。
类比:一个博学但不可全信的实习生。说得头头是道,但有时候会编造。
一个关键区别

传统系统出错了你会知道——它会报错、弹窗。

AI 出错了你可能完全察觉不到——因为它说的"听起来很对"。

这就是为什么我们在 L1-2 中要专门讲"幻觉"这个概念。

这不是说 AI 不如传统软件——它们解决的是完全不同的问题。合理用药系统能拦截处方错误,但帮不了你写综述。AI 能帮你写综述,但你不能像信赖合理用药系统一样信赖它的每一个输出。

AI 擅长什么、不擅长什么

这是你在临床实践中最需要记住的一组分类。遇到一个任务,先看它属于左边还是右边:

AI 擅长与必须谨慎的任务对比
左边是更适合先交给 AI 的生成整理类任务,右边是涉及实时数据、严肃计算和最终决策时必须谨慎的任务。

一个更贴近 2026 年的判断法

先不要问"AI 行不行",而是先问三件事:这件事主要是生成/整理,还是严肃计算?它需要实时数据和系统权限吗?最后结果是不是需要人来签字负责?这三问基本就能判断 AI 适不适合先上场。

AI 很擅长的事
擅长 ✍️
语言处理与生成
润色病历文书、翻译文献摘要、改写患者宣教材料
擅长 📋
信息整理与结构化
自由文本整理成表格、归纳长文献要点、整理会议纪要
擅长 🔄
格式转换
英文指南翻译为中文、论文摘要改写为科普文章
擅长 💡
头脑风暴
科研选题思路拓展、鉴别诊断思路启发、初稿框架搭建
擅长 📄
重复性文字工作
批量生成出院小结模板、统一文书格式、制作考题
擅长 🛠️
代码与小工具原型
写网页原型、生成小脚本、快速搭出计算器或信息整理工具的第一版
AI 不擅长的事
不擅长 🔢
裸算和需要严格校验的计算
单独让 AI 心算药物剂量、肾功能或统计结果并不可靠;接上计算器、代码或表格工具时会强很多,但仍要复核
不擅长 📡
默认没有实时世界状态
不联网时,它不知道今天的新指南、刚发布的政策或你眼前这位患者的最新检验;联网或接工具后能力会增强,但来源仍要核实
不擅长 🔗
复杂因果与责任判断
它可以提出解释假设和推理路径,但不能替代证据链、临床经验和最终责任判断
不擅长 ⚖️
负责任的决策
治疗方案最终决定——AI 无法承担医疗责任
不擅长 🏥
默认读取院内系统
通用 AI 默认看不到医院内网和患者数据;只有做了授权、对接和合规治理之后,才能安全接入
AI 是工具不是同事:由人审核 AI 产出
AI 可以起草、整理、辅助分析,但最终审核、签字和责任都必须由人承担。
🔧
AI 是工具,不是同事
你不会把处方权交给一台打印机,同样也不该把诊疗决策交给一个语言模型。但你会用打印机帮你打印处方——同样,你可以用 AI 帮你起草文书、整理信息,然后由你来审核和定稿。

工具越强大,越需要使用者有判断力。

本节小结

"AI 什么都会"
AI 很强,但强在生成、整理、编码和工具协作;涉及严肃计算、实时数据和最终判断时必须校验
"AI 是高级搜索引擎"
AI 不是在"搜索"而是在"生成",答案是写出来的
"AI 回答流畅就是对的"
流畅 ≠ 正确,AI 编东西的时候也很自信
"AI 能替代医生"
AI 是辅助工具,决策权和责任永远在医生
"AI 没什么用"
AI 在文字处理、信息整理方面确实能大幅提升效率
本节带走
AI 是你的"超级实习生"——博学、快速、格式完美,但没有临床经验,不能独立做决定,有时还会编造内容。用好它的关键是:知道什么时候该信它,什么时候必须自己判断。
下一节:AI 怎么工作的? →