今日实践

打开你平时用的 AI 工具(ChatGPT、Claude、DeepSeek 都行),挑一个开放式问题,问它 3 遍

问题随意选,比如:

  • “如何培养阅读习惯?”
  • “给初学者的 Python 学习建议”
  • “怎么提高开会效率?”

每遍可以换一种说法,也可以原封不动再问一遍。但每条消息要单独开对话——不要在同一段对话里连续追问,而是开三个新对话。

把三次回答都存下来。 复制粘贴到备忘录就行。

观察什么

把三份回答放在一起看:

  • 结构一样吗?(有没有分点、分了几点)
  • 举例一样吗?(同样的建议,用了一样的例子还是不同的)
  • 哪一次你最喜欢?为什么?

大多数人的第一反应是惊讶——“明明是同一个问题,答案怎么差这么多?”

这就对了。

为什么重要

上一篇我们说过一个核心认知:LLM 是概率性生成,不是检索。 它不"查"答案,它每次都在"重新想一遍"。

这个练习就是让你亲手验证这一点。不是记住一个结论,而是感受到它。三份回答放在面前,你不需要任何人解释,自己就能看出来:AI 的输出不是从某个固定数据库里翻出来的,而是一次次的即时生成。

这也意味着:回答质量有波动是正常的,不是 AI 坏了。接受这一点,你对 AI 的期望会更合理,使用方式也会跟着变。

今日收获

AI 每次回答都是"重新生成",不是"调取存档"。 记住这一条,你已经比大多数人对 AI 理解得更深入了一些。


📖 系列导航