<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Claude Code on 能工智人的传习录</title><link>https://blog.chuanxilu.net/tags/claude-code/</link><description>Recent content in Claude Code on 能工智人的传习录</description><generator>Hugo</generator><language>zh-CN</language><lastBuildDate>Sat, 18 Apr 2026 10:00:00 +0800</lastBuildDate><atom:link href="https://blog.chuanxilu.net/tags/claude-code/index.xml" rel="self" type="application/rss+xml"/><item><title>上下文腐烂：AI编程中一个容易被忽视的问题</title><link>https://blog.chuanxilu.net/posts/2026/04/managing-context-length-in-ai-coding-sessions/</link><pubDate>Sat, 18 Apr 2026 10:00:00 +0800</pubDate><guid>https://blog.chuanxilu.net/posts/2026/04/managing-context-length-in-ai-coding-sessions/</guid><description>群里有朋友抱怨 GPT-5.4 表现还不如豆包，问问题常常不读题就瞎回复。追问之后发现大概率是上下文腐烂了——喂了太多文档，对话轮次太长，模型已经&amp;#34;看不清&amp;#34;当前的任务。这引出了一个被忽视的问题：在 vibe coding 或 writing 的过程中，如何管理好上下文，避免模型表现下降导致的 token 和时间浪费。</description></item><item><title>信任边界：同一个想法在开放系统和受限系统上的实现实验</title><link>https://blog.chuanxilu.net/posts/2026/04/a-trust-boundary-design-experiment/</link><pubDate>Mon, 06 Apr 2026 18:00:00 +0800</pubDate><guid>https://blog.chuanxilu.net/posts/2026/04/a-trust-boundary-design-experiment/</guid><description>同一个反思机制落在不同平台上，实现复杂度差了一个数量级——但复杂度本身引出了一个更值得谈的问题：我们应该在什么时候信任 AI 的判断，又在什么时候需要插手？</description></item><item><title>claude-code-reflect：同样的元认知，落在不同的土壤</title><link>https://blog.chuanxilu.net/posts/2026/04/claude-code-reflect-different-soil/</link><pubDate>Mon, 06 Apr 2026 14:56:00 +0800</pubDate><guid>https://blog.chuanxilu.net/posts/2026/04/claude-code-reflect-different-soil/</guid><description>同一套反思机制落在不同平台基座上，落地姿态和路径截然不同——从插件安装到权限暗坑到 API 并发，记录 Claude Code 上的真实开发过程。</description></item></channel></rss>