最近 Kimi 的 Agent Swarm 我体验了许久,并且花糕最近也有在研究多Agent和Agent辩论对抗。它让一个AI能够指挥多个“分身”协同工作,像一支分工明确的队伍,效率极高。
但一个严重的问题也随之暴露:它产生了太多无用的信息。
一、信息不等于价值
要理解这一点,需要回到信息论的起点。香农:“从通信工程的角度看,一段信息的意义是什么并不重要。工程师只关心如何准确、高效地传输它。”
香农做了一个数学上的比喻:一段完全随机、没有意义的“噪声”,它所包含的潜在信息量,反而是最大的。因为它的“不确定性”最高。
这恰恰点出了当前AI的困境:它越来越擅长制造“高不确定性”的复杂内容,像生成一片信息的“噪声”。但对用户而言,我们需要的恰恰是“确定性”,是能直接解决问题的清晰信号。
AI在工程上追求“更多信息”,而人在体验上需要“更少噪声”。
二、为何多反而是问题?
目前的多智能体系统,就像一个只会做加法的团队。它们并发工作,四处搜集、生成、拼接,将任务的“可能性”扩展得极大。但这过程缺少一个来果断地做减法,删掉冗余、矛盾的指挥官。
目前不少系统是让一个Agent担任指挥官进行裁剪,但是AI是喜欢阿谀奉承并且热情工作以显得自己有用,AI在需要裁剪的工作中存在先天性的不足。因此结果并不理想,甚至可以说是糟糕,在我的实践中,许多时候AI反而会把真正有用的信息给裁剪掉。
结果就是,我们得到了一堆未经提炼或者粗加工的原材料。AI 瓶颈不在于“生不出内容”,而在于“停不下来”。
三、文学的本质是裁剪,AI 的未来也是
我们要区分两个概念:数据量和价值感。
想象一下大理石雕刻。米开朗基罗面对一块巨大的石头,他要做的工作不是往上面粘泥巴,而是把所有“不是大卫”的部分全部凿掉。文学创作也是如此,一部好的小说之所以精彩,是因为作者删掉了无数平庸的废话;一首诗之所以动人,是因为它用最少的文字消除了最大的不确定性。
现在的 AI 恰恰相反,它在疯狂地往石头上粘泥巴。
以 Claude 系列模型为例,让它实现A功能,它会写出ABCDEFG来画蛇添足。而 GLM 系列模型则是会擅自行动以证明自己。
四、程序员的新工作:园丁
过去,程序员的工作是写具体的指令,告诉电脑“怎么做”,是搬砖工。
后来,有了 AI,程序员的工作变成了写提示词,告诉 AI“我想要什么”。
但我认为,未来的高级程序员(或者说 AI 编排师)核心竞争力将变成园丁:学会如何裁剪。
一个优秀的 AI 系统,应该是一个“熵减”的过程:
- 发散阶段: 让 AI 像疯子一样去搜索、去联想、去产生噪声。
- 裁剪阶段: 设置极其严苛的过滤网,把重复的、逻辑自相矛盾的、正确但没用的废话全部剪掉。
这意味着,构建和驾驭AI系统的人,其核心工作将发生转变。从追求“如何让AI产出更多”,变为设计“如何让AI留下更少”。我们需要编排不同的智能体,并设定严格的规则来裁剪掉多余的、无意义的信息。
这不是在否定生成的能力,而是在为其赋予方向和意义。就像矿石需要冶炼才能成为金属,泛滥的信息需要裁剪才能产生真正的价值。
结语
我认为,AI的实用化,最终可能不取决于它有多能“说”,而取决于我们有多会“剪”。




说得很好,已三连
所以花糕是想被AI代替吗?![[s-1]](https://resource.mfuns.net/image/sticker/s/1.png)
做减法是门艺术![[stick-4]](https://resource.mfuns.net/image/sticker/new/喵奈-微笑.png)
不如说信息太多是互联网时代的问题,而AI只是将其以过拟合错误的方式展现了