<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>上下文管理 on 能工智人的传习录</title><link>https://blog.chuanxilu.net/tags/%E4%B8%8A%E4%B8%8B%E6%96%87%E7%AE%A1%E7%90%86/</link><description>Recent content in 上下文管理 on 能工智人的传习录</description><generator>Hugo</generator><language>zh-CN</language><lastBuildDate>Sat, 18 Apr 2026 10:00:00 +0800</lastBuildDate><atom:link href="https://blog.chuanxilu.net/tags/%E4%B8%8A%E4%B8%8B%E6%96%87%E7%AE%A1%E7%90%86/index.xml" rel="self" type="application/rss+xml"/><item><title>上下文腐烂：AI编程中一个容易被忽视的问题</title><link>https://blog.chuanxilu.net/posts/2026/04/managing-context-length-in-ai-coding-sessions/</link><pubDate>Sat, 18 Apr 2026 10:00:00 +0800</pubDate><guid>https://blog.chuanxilu.net/posts/2026/04/managing-context-length-in-ai-coding-sessions/</guid><description>群里有朋友抱怨 GPT-5.4 表现还不如豆包，问问题常常不读题就瞎回复。追问之后发现大概率是上下文腐烂了——喂了太多文档，对话轮次太长，模型已经&amp;#34;看不清&amp;#34;当前的任务。这引出了一个被忽视的问题：在 vibe coding 或 writing 的过程中，如何管理好上下文，避免模型表现下降导致的 token 和时间浪费。</description></item></channel></rss>