现在的 LLM 就像一个只有瞬时记忆的聪明人,每一次 API 调用都是一次“转世”。你觉得它记得你,其实是因为你在每次请求时都把之前的聊天记录重新塞了回去。这种做法在简单的闲聊里没问题,但一旦进入复杂的任务流,Agent 就会开始频繁“断片”:问它昨天说了什么,它一脸茫然;遇到多步任务,中间状态直接丢失。