先试试再说
在讲任何概念之前,我们先来做一个实验。
动手实验:和 AI 聊一个病例
打开你手边能用的任何一个 AI 工具(ChatGPT、Kimi、通义千问、文心一言等都可以),然后输入下面这段话:
一位 55 岁男性,2 型糖尿病病史 10 年,目前使用二甲双胍 500mg tid,最近一次 HbA1c 8.2%。请给出调整方案建议。
你会发现,AI 回答得有模有样——分析了血糖控制情况,建议了药物调整方向,甚至会提到生活方式干预。
AI 的典型回答(示例)
根据该患者情况分析:
1. 当前 HbA1c 8.2%,高于控制目标 7%,说明单药治疗效果不佳
2. 建议在二甲双胍基础上联合使用 SGLT2 抑制剂(如恩格列净)或 GLP-1 受体激动剂(如利拉鲁肽)
3. 加强生活方式干预,包括饮食控制和适量运动
4. 建议将二甲双胍调整为 1000mg bid
5. 3 个月后复查 HbA1c,根据结果进一步调整
通常靠谱的部分
需要医生结合患者情况判断
现在问自己三个问题:
- 它是怎么"知道"这些知识的?
- 如果你问它一个极其罕见的疾病,它还能答得这么好吗?
- 如果这是你的患者,你敢直接按它说的方案来吗?
带着这三个问题,我们开始今天的学习。
先说明这门课里说的“AI”:本课程主要讨论的是以大语言模型(LLM)为核心的这一代通用 AI 工具与应用方式。它当然会延伸到多模态、知识库、智能体和工作流,但不是在系统讲完整个 AI 学科,也不是在覆盖所有 AI 分支。
AI 大模型的本质:一个超级实习生
说到 AI,医疗圈大概有两种极端反应:
两种极端派
- 神话派:「AI 无所不能,马上要替代医生了!」——过度恐慌或期待
- 无用派:「AI 就是个玩具,说的全是废话,不可能用在临床。」——完全否定
这两种看法都不对。真实的 AI 在中间——有用,但有限。
那 AI 大模型到底是什么?
一句话概括:AI 大模型(LLM)是一台极其强大的"语言预测机器"。它在互联网上海量的文本数据(包括医学教科书、论文、临床指南等)上训练而成,能根据你给它的输入,预测"最可能的下一段文字"。
用一个比喻来理解:
AI 大模型就像一个超级实习生。
他读过你们科室所有的教科书、指南、论文,甚至连护理记录都翻过。他写东西的速度极快,格式规范,措辞流畅。
但是——他没有上过一天临床。他没见过真实的患者,没处理过突发情况,没在半夜被叫起来做过紧急决策。
更重要的是,他有时候会很自信地说出完全错误的话,而且你很难从他的语气中分辨出来。
AI 就像一个超级实习生:见得多、写得快,但没有真实临床经验,不能代替你的专业判断。
为什么"超级实习生"这个比喻有用
- 它见得多:读过海量公开文本和案例表达方式
- 它写得快:起草、改写、整理速度远超人工
- 它不背责任:没有临床经历,也不会为错误承担后果
AI 不是什么
你可能会不自觉地把 AI 类比成某些你熟悉的工具——但这些类比都是错的:
AI 不是数据库,不是搜索引擎,也不是会独立思考的人脑;它是在按模式生成答案。
这三个误解最常见:把 AI 当数据库、把 AI 当搜索引擎、或者把 AI 当成会独立思考的人。下面三张卡片就是为了把这三个误解一次讲清。
🗄️
✕ 不是数据库
每次回答可能不同
数据库查"阿司匹林适应症"每次结果一样。AI 每次回答不同——因为它是生成的,不是检索的。
🔍
✕ 不是搜索引擎
它在"写"不在"找"
搜索引擎帮你找已有的网页。AI 是生成新内容——它创造了一段之前不存在的文字。
🧠
✕ 不是人脑
没有意识和经验
人类医生会调动知识、经验、直觉。AI 不会——它只是在做数学上的概率计算,不会"想"。
AI 和你已经在用的工具有什么不同
你每天在医院已经在用大量的信息系统——HIS、PACS、LIS。AI 和它们有什么根本区别?点击下面的标签页对比看看:
🖥️
传统医疗 IT 系统(HIS / PACS / LIS)
工作方式
基于规则,按预设逻辑执行。同样的输入通常得到同样的输出,行为更可预测。
数据来源
本院结构化数据(检验结果、影像、病历记录等)。
处理内容
数字、代码、结构化字段。
出错方式
错误往往可定位、可复现——你更容易知道它在哪一步出错。
类比:一台可靠的计算器。按什么键出什么结果,从不"发挥"。
🤖
AI 大模型(ChatGPT / DeepSeek / Kimi 等)
工作方式
基于概率,生成式输出。同样的问题每次回答可能不同。
数据来源
预训练语料 + 当前会话上下文;如果接了联网或工具,还能读取外部信息源。
处理内容
自然语言为主,也越来越能结合图像、代码、表格和工具调用来完成任务。
出错方式
表面流畅但内容可能有误——你可能完全察觉不到("幻觉")。
类比:一个博学但不可全信的实习生。说得头头是道,但有时候会编造。
⚡
一个关键区别
传统系统出错了你会知道——它会报错、弹窗。
AI 出错了你可能完全察觉不到——因为它说的"听起来很对"。
这就是为什么我们在 L1-2 中要专门讲"幻觉"这个概念。
这不是说 AI 不如传统软件——它们解决的是完全不同的问题。合理用药系统能拦截处方错误,但帮不了你写综述。AI 能帮你写综述,但你不能像信赖合理用药系统一样信赖它的每一个输出。
AI 擅长什么、不擅长什么
这是你在临床实践中最需要记住的一组分类。遇到一个任务,先看它属于左边还是右边:
左边是更适合先交给 AI 的生成整理类任务,右边是涉及实时数据、严肃计算和最终决策时必须谨慎的任务。
一个更贴近 2026 年的判断法
先不要问"AI 行不行",而是先问三件事:这件事主要是生成/整理,还是严肃计算?它需要实时数据和系统权限吗?最后结果是不是需要人来签字负责?这三问基本就能判断 AI 适不适合先上场。
AI 很擅长的事
擅长
✍️
语言处理与生成
润色病历文书、翻译文献摘要、改写患者宣教材料
擅长
📋
信息整理与结构化
自由文本整理成表格、归纳长文献要点、整理会议纪要
擅长
🔄
格式转换
英文指南翻译为中文、论文摘要改写为科普文章
擅长
💡
头脑风暴
科研选题思路拓展、鉴别诊断思路启发、初稿框架搭建
擅长
📄
重复性文字工作
批量生成出院小结模板、统一文书格式、制作考题
擅长
🛠️
代码与小工具原型
写网页原型、生成小脚本、快速搭出计算器或信息整理工具的第一版
AI 不擅长的事
不擅长
🔢
裸算和需要严格校验的计算
单独让 AI 心算药物剂量、肾功能或统计结果并不可靠;接上计算器、代码或表格工具时会强很多,但仍要复核
不擅长
📡
默认没有实时世界状态
不联网时,它不知道今天的新指南、刚发布的政策或你眼前这位患者的最新检验;联网或接工具后能力会增强,但来源仍要核实
不擅长
🔗
复杂因果与责任判断
它可以提出解释假设和推理路径,但不能替代证据链、临床经验和最终责任判断
不擅长
⚖️
负责任的决策
治疗方案最终决定——AI 无法承担医疗责任
不擅长
🏥
默认读取院内系统
通用 AI 默认看不到医院内网和患者数据;只有做了授权、对接和合规治理之后,才能安全接入
AI 可以起草、整理、辅助分析,但最终审核、签字和责任都必须由人承担。
🔧
AI 是工具,不是同事
你不会把处方权交给一台打印机,同样也不该把诊疗决策交给一个语言模型。但你会用打印机帮你打印处方——同样,你可以用 AI 帮你起草文书、整理信息,然后由你来审核和定稿。
工具越强大,越需要使用者有判断力。
本节小结
✕
"AI 什么都会"
AI 很强,但强在生成、整理、编码和工具协作;涉及严肃计算、实时数据和最终判断时必须校验
✕
"AI 是高级搜索引擎"
AI 不是在"搜索"而是在"生成",答案是写出来的
本节带走
AI 是你的"超级实习生"——博学、快速、格式完美,但没有临床经验,不能独立做决定,有时还会编造内容。用好它的关键是:知道什么时候该信它,什么时候必须自己判断。
下一节:AI 怎么工作的? →