为什么需要这一节

前面四节课,你已经知道了 AI 是什么、怎么工作的、能做什么、不能做什么。但我们在教学中发现,很多同学在开始使用 AI 之后,会不知不觉地用**"和人打交道"的方式**来理解 AI——

"多跟它聊聊,它就能被我训练得更好。" "我大概说一下意思,它这么聪明应该能懂。" "结果不好,是不是该换个更好的模型?"

这些想法非常正常——因为 AI 的对话方式太像人了,我们本能地就会把和人交往的经验套上去。但 AI 不是人。如果带着这些错误预期去用 AI,你大概率会觉得"AI 不好用",然后放弃。

下面这五个误区,是我们从学员中收集到的最常见的想法。看看你中了几个。

别把 AI 当同事:你以为的 vs 实际情况
AI 不是越来越懂你的同事,而是每次都第一天来的外援

❌ 误区一:"我跟 AI 多聊聊,就能训练它,让它越来越懂我"

这大概是最普遍的误解了。

真相

你和 AI 的每一次对话,都不会改变它的"大脑(模型)"

AI 的能力来自训练阶段——那是在你使用它之前很久就完成的事,由 AI 公司用海量数据"教"出来的。你的对话不会让它变聪明一点点,也不会让它变笨一点点。你关掉对话窗口,一切归零。下次打开一个新对话,它完全不记得你是谁、你们聊过什么。

打个比方:你不会因为每天用百度搜索,就觉得百度变得更懂你了吧?AI 的对话也是类似的——你给什么,它基于那些内容来回答,仅此而已。

但是,在同一轮对话里,你确实可以通过补充信息来让它回答得更好——这不是"训练",而是"给它更多线索"。它通过上下文更好的理解了你的需求,它的分析自然更到位,会让你感觉它很懂你了。区别是:这个"到位"只维持在这一轮对话中,换一个新对话就重新开始了。


❌ 误区二:"我大概说一下意思,AI 这么聪明,应该能懂"

AI 确实"聪明"——但它的聪明是一种没有常识、没有背景、没有默契的聪明

你和同事之间,一个眼神、半句话就能心领神会,那是因为你们共享了多年的专业训练、科室文化和工作经验。AI 跟你之间没有这些。

你说"帮我改改这个东西"——它不知道"这个东西"是什么。 你说"写得专业一点"——它不知道你说的"专业"是哪个领域、什么程度的专业。 你说"按照我们科里的习惯来"——它完全不知道你们科里的习惯是什么。

想象一下:你打电话让一个从没来过你家的外卖小哥去你家厨房拿一个"那个碗"——他不可能懂。你得说"厨房第二个柜子、左边、第三层、那个蓝色的碗"。

关键提醒

你省略的每一个细节,AI 都在靠猜来填补。而它猜错的时候,不会告诉你"我在猜",只会自信地给你一个结果。

所以关键不是 AI 笨不笨,而是它不了解你。你说得越清楚,它回答得越好。


❌ 误区三:"AI 给的结果不好,是不是它的模型有问题"

当你对 AI 的回答不满意时,第一反应是什么?

很多人会想:"是不是这个 AI 不行?我换个更好的试试。"

真相:模型确实有好坏之分,但对于大多数日常任务来说——你怎么问,比你用哪个模型重要得多。

同一个模型,一个模糊的问题和一个清晰的问题,输出质量可以天差地别。

模糊问法 vs 清晰问法的效果对比
同一个 AI,问法不同,结果天差地别

来看一个对比:

帮我写个出院小结。

结果:泛泛的模板,不能直接用

帮我写一份出院小结。患者信息:65 岁男性,因"反复胸闷气短 1 月余"入院。入院诊断:慢性心力衰竭急性加重(NYHA III 级)、冠状动脉粥样硬化性心脏病、2 型糖尿病。住院期间主要治疗:利尿、扩血管、控制血糖,症状好转。出院带药:呋塞米 20mg qd、螺内酯 20mg qd、沙库巴曲缬沙坦 50mg bid、二甲双胍 500mg bid。出院注意事项请按照心衰患者常规随访要求来写。

结果:针对性强,稍改就能用

所以当结果不满意的时候,先别急着换工具——先问自己:是不是我的问题可以说得更清楚?

🎯
什么决定了 AI 给你的答案是否精准?

三个因素:你问题的清晰度 > 你给的背景信息 > 模型本身的能力。前两个你完全可以控制,第三个你才需要靠选择工具来解决。


❌ 误区四:"在一个对话框里,我给 AI 的信息越多,它理解就越好"

半对半错。

对的一半:提供相关的背景信息确实能帮助 AI 回答得更好。你把患者的病史、用药、化验结果给它看,它回答的针对性自然比你只说一句"这个病人怎么办"要好得多。

错的一半:有两个问题——

第一,有上限。 每个 AI 都有一个记忆容量的天花板(业内叫"上下文窗口")。对话太长或者一次性粘贴的资料太多,超出这个容量,AI 就会开始"忘记"前面的内容——通常是最早说的那些内容先被丢掉。

第二,无关信息是噪声。 如果你把大量跟当前问题无关的内容丢给它,反而可能让它抓不住重点。

给 AI 信息的原则:相关的给全,无关的不给
跟实习生交代任务一样——给相关的,别把三年的门诊记录一股脑甩过去

关键不是"多不多",而是"跟当前问题相不相关"。 给 AI 信息的原则是:跟这个问题直接相关的,尽量给全;跟这个问题无关的,不要给。


❌ 误区五:"在同一个对话框里聊同一个话题,AI 就会对这个话题越来越理解"

这个想法和误区一很接近,但更隐蔽。

你可能觉得:"我跟 AI 在一个对话框里聊了 20 轮糖尿病管理,它应该对糖尿病这个话题越来越'精通'了吧?"

不是。

在同一个对话里,AI 确实能"看到"你们之前说过的所有内容。但这不是"学习",而是短期记忆

  • 它不会因为跟你聊了 20 轮糖尿病的话题,就变成糖尿病专家
  • 它只是把你说过的话当作"便利贴"来参考,然后生成下一个回答
  • 它没有在"理解"这个话题——它在做的事情始终是"基于目前看到的所有文字,预测最可能的下一段话"
  • 而且,便利贴的面积有限(上下文窗口)——贴多了,最早的那些就会被挤掉

更关键的是:换一个新对话,一切清零。 它不记得你是谁、你们聊过什么、你对糖尿病管理有什么特殊偏好。

有些 AI 工具提供了"记忆"功能(比如 ChatGPT 的 Memory),可以跨对话记住一些关于你的信息。但这本质上是工具在帮你做笔记,不是模型在"学习"你。而且目前这类功能记住的内容有限,远不如你主动告诉它来得准确。


误区背后的统一规律

回头看这五个误区,它们有一个共同的根源:

我们把 AI 当成了一个"越来越了解你的同事"。

实际上,AI 更像是一个每次都是第一天来上班的能力超强的外援

  • 它的能力本身很强(读过海量资料,语言能力极好)
  • 但它不了解你、你的科室、你的患者——除非你告诉它
  • 它不会因为跟你合作过就"记住"你的偏好
  • 它不会主动问你"你是不是想说 XX"——它会直接猜,而且猜得很自信
  • 跟它合作的质量,80% 取决于你给它的信息质量

把这个心智模型装好,后面学怎么跟 AI 高效合作的时候,一切都会顺畅很多。


本节小结

误区真相
多聊就能训练它对话不改变模型,关掉窗口一切归零
大概说说它应该懂你省的每个细节,它都在猜
结果不好是模型问题大多数时候是问题没说清楚,先改问法再换工具
信息越多越好相关信息要给全,无关信息是噪声
同一对话框越聊越懂是短期记忆,不是学习;换对话就清零
关于 AI 的五个常见误区总览
AI 不是越用越懂你的同事,是每次都第一天来的外援
先记住

AI 不是越用越懂你的同事,而是每次都第一天来的外援。你给的信息越清楚、越相关,它的产出就越好。


附:几个实际操作的常见问题

除了上面的认知误区,还有一些学员经常问的实操问题,这里一并回答。

大多数 AI 工具都有免费版,日常使用完全够了。国内的 DeepSeek、豆包、Kimi、通义千问都可以免费使用。ChatGPT 也有免费版。付费版的区别主要是:能用更强的模型、每天能问的次数更多、上传文件更大。如果你刚开始学,免费的完全够,等你用熟了、有了明确需求再考虑付费。

手机和电脑都行。 大多数 AI 工具都有网页版和手机 App,不需要装任何特殊软件。最快上手的方式:手机应用商店搜索"DeepSeek"或"豆包",下载,注册,直接开聊。电脑端打开浏览器,访问 chat.deepseek.com 或 kimi.ai,同样注册就能用。

能。用 AI 工具的门槛就是打字——你会用微信聊天,就会用 AI。它不需要你写代码、不需要你懂计算机原理、不需要你有任何技术背景。这门课里的所有操作,都是用自然语言跟 AI 对话。至于年龄——AI 工具对年龄完全没有门槛,50 岁、60 岁的学员我们都有,上手都很快。

不是 bug,是正常的。AI 每次生成回答的时候都带有一定的随机性——就像你问两个医生同一个问题,他们的措辞和侧重点也不会完全一样。核心内容通常是一致的,但具体的表达、举例、排列顺序可能会有差异。如果你需要稳定、可复现的结果,可以在提问时把格式和要求写得更具体。

不一定。 大多数 AI 的知识有一个"截止日期"——它只知道训练数据收集之前的信息。有些 AI 工具有联网搜索功能(比如 Kimi、开启搜索的 ChatGPT),可以在回答时去网上查最新信息,但搜到的内容质量参差不齐。涉及临床决策的关键信息,永远要自己去查指南原文,不要只靠 AI 的回答。

工具的界面和按钮确实变化很快,但跟 AI 合作的底层逻辑不会过时。比如"怎么把问题说清楚""怎么给 AI 足够的背景信息""怎么验证 AI 的输出"——这些方法不管工具怎么换代,都用得上。就像你学会了"怎么跟实习生沟通",不会因为换了一个实习生就失效。