目前最大的AI瓶颈是内存…… 想想看: > 你打开你的LLM > 每次都得重新解释你的上下文 > 或者花30分钟设置一个项目 > 或者希望内置内存真的有效(其实并没有) 这就是市场的现状…… - chatgpt的做法很糟糕 - claude更好但速度慢 - gemini可能有机会,等着看看他们是否能解决这个问题 目前最好的解决方法是带有连接知识库的内存MCP 但这仍然是外部的……仍然是手动的……仍然有摩擦 真正的突破在于: 我打开我的LLM,自然地提示,它就知道我的上下文,而我无需思考 那时我们才会感觉到我们真的拥有了下一层次的智能