TL;DR: 这是「AI 之路初阶升级指南」系列的第一篇。整个系列共 5 篇,覆盖 4 周练习 + 毕业考核。系列导航将在全部篇目发布后更新。

引言:你是不是也这样用 AI?

我观察过身边很多朋友使用 AI 的方式,发现一个普遍规律——他们已经对 ChatGPT、Claude 这些工具不陌生了,日常也偶尔会用,但体验非常不稳定:有时候 AI 给出的回答让人拍案叫绝,有时候却牛头不对马嘴,完全没法用。

“时好时坏,靠运气”——这是绝大多数人停留在的阶段。我把它叫做 L0。

L0 的问题不在于你不懂 AI,而在于你和 AI 之间的交互方式是"碰运气"式的。你想到什么问什么,没有结构,没有预期,自然也就没法稳定地得到高质量输出。

而 L1 的核心区别在于四个字:“有设计地使用”。你知道什么时候该开新对话,什么时候该追问;你有一个经过验证的 Prompt 库;你能判断 AI 的输出是否靠谱。从 L0 到 L1,不需要你会编程,不需要你懂数学,只需要你花大约 4 周时间,每天 20-30 分钟,有意识地练习。

这份教程就是这么来的。整个系列共 5 篇,按顺序推进,每篇读完后做练习再读下一篇:

  1. 理解你手里的工具(即本文)—— LLM 不是搜索引擎、两种记忆机制、主流平台特长
  2. 从模糊提问到精确指令—— RBGO 提问框架、Chain-of-Thought 思维链、格式约束
  3. 把 AI 变成你的协作伙伴—— 追问迭代、上下文管理、角色扮演与专家模拟
  4. 建立个人体系—— Prompt 库、场景-工具映射(国际/中国双方案)、知识管理
  5. 毕业考核与下一步—— L1 达成清单、L1→L2 双路径预告(API / 自主执行型 AI)

前 4 篇对应 4 周练习,第 5 篇是收束和展望。每篇末尾有练习,建议每篇花 2-3 天完成练习后再读下一篇。

准备好了吗?我们开始。

理解你手里的工具——从"碰运气"到"有设计地使用"


第一周:理解你手里的工具

Day 1-2:LLM 不是搜索引擎

为什么重要:这是使用 AI 最底层的认知基石。如果你把 LLM 当搜索引擎用,你的期望就会错位——你会期待它每次给出"正确答案",一旦它瞎编了一个事实,你就会觉得"这东西不靠谱"。但实际上,LLM 的工作原理和搜索引擎完全不同。

怎么理解:搜索引擎是检索式的——你输入关键词,它在索引里找到匹配的网页,按相关性排序返回给你。结果来自真实的网页,是确定性的。而 LLM 是概率性生成式的——它根据你输入的内容,逐字预测"下一个最可能出现的词"。

AI 不"知道"答案,它在"生成"答案。“知道"意味着有确定的事实基础,“生成"意味着它是在概率分布中采样。同一个问题问三遍,你可能得到三个不同的回答。大多数时候它的生成是合理的、有用的,但偶尔它会"幻觉”——生成听起来很有道理但完全错误的内容。

怎么练习:今天请你做一件事——找一个开放式问题(比如"如何提升团队协作效率”),用完全相同的措辞,在同一个 AI 平台上连续问 3 遍。仔细观察三次回答的差异。你会发现,核心观点可能相似,但具体的论据、举例、结构每次都不同。

这个练习能帮你建立直觉:AI 的输出不是查出来的,是"组装"出来的。一旦你有了这个认知,你就不会再把它当搜索引擎了。

然后问自己一个关键问题:什么场景该用 AI,什么场景该用搜索引擎? 简单的规则是:需要查证具体事实(“最新的中国 GDP 是多少”)→ 搜索引擎;需要分析、创作、综合、推理(“帮我分析这个商业模式的风险”)→ AI。需要准确引用来源的内容,永远先用搜索引擎验证。

Day 3-4:两种记忆——工作记忆 vs 长期记忆

为什么重要:理解 AI 的"记忆"机制,是避免"聊着聊着就跑了"和"每次都要重新解释自己"这两大痛点的关键。如果你不知道 AI 能记住什么、记不住什么,你就不可能在对话中有效地管理上下文。

怎么理解:AI 有两种"记忆",它们的工作方式完全不同。

工作记忆(上下文窗口)

工作记忆就是当前对话中 AI 能"看到"的所有内容。你发的每一条消息、AI 回的每一条消息,都在这个"窗口"里。但关键限制是:对话结束,工作记忆就消失了。 下次你开一个新对话,它对之前的聊天内容一无所知。

工作记忆还有一个"容量"问题——上下文窗口的空间通常以 Token(可以粗略理解为字或词的单位)来衡量。每条消息都会占据空间,当对话变得很长时,早期的内容可能被"挤出"窗口,AI 就会"忘记"你之前说过的话。这就是为什么聊久了 AI 容易跑偏。

实操上有三个关键技巧:

  1. 学会判断什么时候该开新对话:如果你要处理一个和当前对话无关的新任务,别在原对话里继续——开一个新的。
  2. 长对话中主动总结:每隔 10-15 轮,主动说"到目前为止我们确定了以下要点:1…2…3…",帮 AI 把关键信息压缩回来。
  3. 什么时候可以在当前对话继续:当你需要 AI 基于之前讨论的上下文继续工作时,留在这个对话里。

长期记忆(跨对话记忆)

长期记忆是 AI 平台提供的跨对话记忆功能,到 2026 年已经成为主流标配。但各平台的实现方式差异很大,值得你花几分钟了解清楚。

以下信息截至 2026 年 5 月,各平台功能可能已更新,建议以官方文档为准。

平台记忆类型机制说明免费可用
ChatGPT双系统Saved Memories(显式保存,你让它记住什么它就记什么)+ Chat History Reference(隐式学习,从历史对话中提取偏好),免费用户有限可用部分
Claude自动摘要每 24 小时自动更新记忆摘要,基于你的对话习惯和偏好自动积累,全平台免费可用
Gemini对话记忆 + 生态连接记住跨对话偏好,还能连接 Google 生态数据(邮件、日历等),Personal Intelligence 深度个性化需订阅部分
豆包双轨显式记忆 + 隐式聊天记录参考,免费可用,有总量上限(循环覆盖旧记忆)
千问/Qwen显式 + 隐式显式记忆最多 50 条 + 隐式聊天记录参考,免费可用
Kimi被动记忆自动记录用户偏好和习惯,被动积累式,免费可用
DeepSeek⚠️ 无完全无状态,没有任何跨对话记忆功能

关键认知:长期记忆 ≠ 无限可靠。 它可能记错(把你说过的偏好搞混),也可能记了你不想让它记的东西(比如某次临时性的偏好被当作长期偏好)。所以你需要养成一个习惯:定期清理记忆,像整理浏览器书签一样管理 AI 的记忆。

怎么练习

  1. 工作记忆体验:开一个新对话,和 AI 聊 5-6 轮(聊什么都行),然后开一个全新对话,问它"我们刚才聊了什么"。它不知道——这就是工作记忆的"对话结束即消失"。
  2. 长期记忆管理:在你日常使用的平台上,找到记忆管理入口(通常在设置里),查看它当前记住了关于你的什么信息。如果有过时的或错误的内容,删掉它。养成每月查看一次的习惯。

Day 5-7:认识主流 AI 平台及其特长

为什么重要:很多人只用一个平台,然后得出"AI 不行"的结论。但事实是,不同平台有不同的能力特长和适用场景。了解这些差异,能帮你在对的场景用对的工具。

怎么理解:我按全球和中国平台分别梳理:

全球平台

  • ChatGPT:生态最完整,插件和应用生态丰富,GPT-5.5 系列能力均衡。适合日常全能使用和需要插件生态的场景。
  • Claude:长文处理能力突出,写作和分析质量高,Projects 功能可以上传参考资料保持上下文。适合深度写作、长文档分析、代码审查。
  • Gemini:Google 生态集成好(邮件、文档、日历),多模态能力强,Deep Research 适合深度研究。适合重度 Google 生态用户。

中国平台

  • Kimi:超长上下文处理能力强,中文理解自然,适合阅读和总结超长文档。
  • 豆包:字节跳动出品,抖音/飞书生态集成,响应速度快,免费额度大方。适合日常中文场景和字节生态用户。
  • 千问(Qwen):阿里出品,淘宝/钉钉生态集成,通义系列模型能力在国产中名列前茅。适合阿里生态用户和通用中文场景。
  • DeepSeek:推理能力出色(特别是数学和编程),开源模型可本地部署,API 价格极低。适合编程和数学推理场景,以及有本地部署需求的用户。
  • 智谱清言(ChatGLM):清华系团队出品,代码生成和推理能力强,支持 AI 视频通话和手机 Agent。开源生态活跃(GLM 系列 GitHub 星标超 15 万)。适合编程辅助和喜欢尝鲜的用户。

特别提醒:中国平台在中文场景下有独特优势——公文写作更规范、本地化研究更准确、国内 API 生态接入更方便。如果你主要处理中文内容,不要忽视国产平台。

除了对话平台,还有一些专用工具值得了解(不需要现在就用,知道它们存在就行):

  • Perplexity:AI 搜索引擎,能联网搜索、交叉验证、引用来源。适合需要查证事实的深度研究场景。
  • Copilot / Cursor:编程辅助工具,在代码编辑器内直接提供 AI 补全和重构建议。如果你不写代码,可以跳过。
  • Notion AI:知识管理工具 Notion 的 AI 功能,适合在笔记环境中直接使用 AI。
  • Claude Code / OpenAI Codex(云端版)/ OpenCode 等(自主执行型 AI):这类工具常被贴上"AI 编程"标签,但它们的本质是能自主执行任务的 AI——读文件、改文件、跑命令,编程只是最显性的用例。比如你可以让它帮你把一个文件夹的 Markdown 文件批量转换格式、整理项目目录结构、或者分析一份 Excel 数据。大部分在本地运行(如 Claude Code、OpenCode),部分在云端沙箱中执行(如 OpenAI Codex)。需要命令行基础,属于 L2+ 范畴,但值得留意——“自主执行型 AI"很可能是下一个全民级工具形态。

怎么练习:选一个你最近遇到的真实复杂任务(比如"帮我分析一份商业计划书的可行性"或"帮我写一篇技术博客”),分别在 2-3 个不同平台上执行,对比结果的质量、风格、深度差异。这个练习能帮你直观地感受平台间的差异。

然后做一件更重要的事:根据你的主要使用场景,确定 1-2 个主力平台,深耕它。 不需要全用,精通一两个远胜于浅尝辄止。写作多就选 Claude,日常综合用 ChatGPT,中文场景用豆包或 Kimi——根据你的需求来。


第一周到此结束。下周我们进入 Prompt 基础——从模糊提问到精确指令。(第二篇即将发布)