XM交易官网

如何防止陷入AI“搜索茧房”?(2025年02月28日)

XM

事情是这样:

前几天,我在群里看到有人和AI互动 ,觉得挺有意思。我也打开DeepSeek,输入相同的问题:你认为人类最伟大的地方是什么?请用四个字概括 。

大家的答案五花八门:仁者见智、不断超越 、爱与和平……而我的答案是:知行合一。为了对比,我又用豆包、Kimi、腾讯元宝这几个工具试了试 ,发现答案都不一样。

大家玩得很开心,但我心里却冒出了疑问:为什么同一个问题,不同AI工具给出的答案会这么不一样?是因为它们的模型不同 ,还是处理方式有差异呢? 

经过反复琢磨,我发现每个AI似乎都有自己独特视角,就像不同的人一样 。它们会根据自己的“价值观”去解释同一个问题。这种差异让我联想到了“信息茧房 ”。


以前 ,我们总说信息茧房是推荐算法造成的 。

社交媒体 、内容平台会根据浏览记录和兴趣爱好 ,给你推送内容。乍一看,这种方式挺贴心的,实际上 ,它会让你接触到的信息越来越单一,很容易让人陷入一个封闭的信息圈。  

不过,随着AI搜索工具(比如ChatGPT、Perplexity)的普及 ,信息茧房的形式也在悄悄改变 。现在AI搜索,不再单纯依赖平台的推荐,而是通过“搜索行为和提问方式”来定制结果 。    

你搜什么、怎么提问 ,以及你愿意接受哪些答案,都会直接影响你看到的信息范围。这种新的茧房形式,我们可以叫它“搜索茧房” ,或者更形象一点,叫它“生成式幻觉茧房 ”。

那么,搜索茧房与传统信息茧房相比 ,区别在哪呢?

形式不一样 ,这是第一点 。

传统信息茧房是我们刷媒体 、看视频时,推荐算法根据之前点了什么、喜欢什么、停留时长来推荐内容。基本不用自己去找,慢慢地就把我框在一个小圈圈里了。

搜索茧房更像自己主动跳进去的 。比如:我用AI工具搜索一个问题 、输入什么关键词 、直接决定它给出什么样的答案;现在还不确定AI会不会偷偷看我的手机习惯 ,或者根据我搜东西的意图来调整回复。

不过有一点挺明显:在一个聊天框中频繁对话几次,推理模型能理解我想要什么。换句话说,它用它那高大上的视角 ,悄悄把我给圈住了 。

第二点,内容差异很明显。

传统信息茧房内容,大多是平台已有的内容 ,搜索茧房不一样,内容是AI当场“造”出来的。我问个问题,它靠着自己的训练数据和算法 ,现场给我整出一个答案 。

这个过程我完全看不见,就算它能标个引用来源,生成的部分还是它根据学过的东西“捏”出来的。所以 ,有时候我拿到的 ,可能只是某个“版本 ”的真相。

第三点,参与过程的区别也很明显 。

传统信息茧房中,我们最多点个赞 ,或者浏览一下 。搜索茧房中,表面上把主动提问的权力交给了我们,但实际上 ,这种主动权并没有真正掌握在我们手中。

因为搜索方式、用词习惯,甚至选择哪个工具,都会直接影响搜索结果。这些限制是隐藏起来的 ,很难察觉 。

这种隐蔽性还体现在,当我们提出问题并得到答案时,很容易误以为“我选的是对的” ,而不会怀疑自己其实被局限在一个很小的范围内。

比如,我们问了一个问题,AI给出了一个答案 ,我们可能就以为这就是全部真相 ,但其实可能只是冰山一角。

相比之下,传统信息茧房里,当我们刷了很长时间的短视频 ,发现内容都差不多时,我们内心会产生反感,甚至会警觉起来 。

你以为就这些吗?不 ,还有。其实,这两种茧房在时间和依赖性上也有很大区别。什么意思呢?用AI搜索时间长了,就会越来越依赖它的反馈增强系统(feedback system) 。

传统算法推荐是“养成系” ,像慢慢把你养在一个舒适圈里,让你习惯了它给你的东西;主动搜索更像是“定制系 ”,你有什么需求 ,它就马上给你量身定做。

这种定制每次都能快速给你答案,可越用越依赖,到你连多找找资料、核实一下的耐心都没了。

有一次 ,我在小红书上看到有人评论“CDPP ” ,我完全不知道这是啥意思,顺手搜了一下,结果出来“处对象” 。我还以为这是个新潮说法。

后来我好奇 ,又去百度搜,结果出来“彩带飘飘”。你看,这俩完全不一样 。这种快速搜到答案的体验 ,让我越来越懒得去多想,连“这到底对不对 ”的疑问都消失了 。

说到底,搜索茧房是传统信息茧房的升级版。它披着“聪明”和“主动”的外衣 ,表面上看起来是我自己在掌控,其实还是悄悄把我框在一个小世界里。

这让我忍不住思考:为什么AI会制造出搜索茧房?

说到底,这事儿跟AI本身 、我们的使用习惯 ,还有背后的商业逻辑,都脱不开关系 。

先说AI本身。

从使用者的角度看,AI的核心任务是给我们提供“最好的答案 ”。每次我们用它搜索 ,它就靠算法和数据 ,给我们一个看起来很满意的答复 。本来,AI的设计是为了更懂我们,但问题是 ,AI的知识和处理方式,其实也有自己的“性格”。

我举个例子:

现在很多人都在用DeepSeek推理模型,还有Kimi的K.15长思考模型。我发现 ,DeepSeek像个专家,回答很专业、很理论化,而Kimi更像是个聊天高手 ,回答更口语化、更接地气 。

这就跟找不同的人问问题一样,他们会根据自己的经验回答,结果自然就不一样。这种差异 ,不知不觉就把我们的信息范围给局限了,形成了“搜索茧房”。

更关键的是,我们自己也在不知不觉中“帮倒忙 ” 。

我有个习惯 ,如果AI的回答不是我想要的 ,我会直接说“这不是我想要的”。时间长了,在一个对话框内,AI会根据我的反馈调整答案;这样一来 ,双方互相强化,茧房的墙就越来越厚了。

还有一个绕不开的因素是商业逻辑 。

AI工具不会永久免费,大家怎么赚钱呢?肯定是希望用户用得越多越好 ,最好离不开它,然后收其他费用 。

比如,Perplexity每月要收订阅费 ,免费用户搜内容时,可能就会看到植入广告。这种商业逻辑也推动了AI搜索的“千人千面”设计。

虽然现在国内的大部分 AI 产品没有收费,但间歇性它在收集我们的大量语料 。

我印象里 ,OpenAI的创始人奥特曼说过,要实现通用人工智能(AGI),AI得像自动驾驶一样 ,根据不同人的需求提供定制化的服务。

换句话说 ,AI必须满足每个人的不同需求,同样的问题,给你不一样的答案。所以 ,AI制造“搜索茧房 ”,是AI本身的特性 、我们的使用习惯,以及背后的商业逻辑共同作用的结果 。

搜索茧房一定是坏事吗?我觉得也不一定。它可能带来一种新的“商业效率”。

昨天刷抖音时 ,看到小米王腾和许斐被人调侃说像夫妻 。我挺好奇,就去搜了搜。抖音搜索说他们是夫妻,我还有点惊讶。结果用豆包一搜 ,说俩人只是同事 。

我把这事儿发到群里,字节的朋友转发给内部处理了。

说到底,这是AI学的语料被污染了。

但换个角度 ,从商家、品牌营销的立场看,这事儿其实挺常见 。品牌方会批量生产关于自家品牌的内容,通过各种渠道塞给AI 。

这样一来 ,别人搜相关问题时 ,看到的就是定制化的信息。就像一种软性植入,跟广告投放差不多。所以,到底是好是坏?真不好一刀切 。

说到这儿 ,我想起之前朋友说的,给AI做SEO最好的办法,是一篇文章里多加一些关键字 ,或频繁提到某些东西。这样大量铺出去,AI抓取时效率就会很高。

还有人说,尽量多生产一些长内容 ,因为AI会判定这些内容质量很高;其实,长内容也不一定非得做得多好,主要是它的判定机制 。

从商业角度看 ,这种做法确实能精准地找到目标用户,提高了效率。可对用户来说,感觉像被困在了一个“定制化”的信息茧房里 ,未必是啥好事。

不管怎么说 ,还是要小心别被AI搜索“茧房 ”给困住了 。

如何防止搜索带来的茧房呢?我踩过不少坑,在过程中也总结了一些方法,你可以试试。

初级阶段 ,基础认知有三点:

1. 别只用一个工具。今天用Kimi,明天试试腾讯元宝 。不同的AI有不同的“性格 ”,一个问题多问几个AI ,答案会更丰富。

2. 多反问。比如:你想知道“为什么AI好”,也可以反过来问“为什么AI不好” 。让AI帮你反思,它会从不同视角给出答案 。

3. 别只看AI给的答案。你想让AI帮你验证新闻是不是真的 ,或者数据从哪儿来的,你也可以自己手动查一查。这样,你就不容易被AI误导(这块我可踩过坑) 。

到中级阶段 ,要玩转策略,熟练掌握怎么跟AI打交道。

你可以试着换着花样更新提问的方式,别总用黄金圈法则、5W2H法则 ,也可以把它们组合一下 ,甚至自创一套提问方式。

我在提问时,喜欢让AI把商业 、心理、伦理这几个角度揉到一块儿,这样问出来的答案视角就变了 。为什么这么干?因为AI学的内容多少都是按学科分门别类的 ,交叉着问,有点像打破了规矩,逼它从不同方向给你讲明白 ,答案自然就丰富了不少。

还有,换着花样问问题特别管用。

比如:想知道“AI咋改变生活 ”,可以换成“AI在哪些想不到的地方影响了咱们?”或者“AI给普通人添了啥麻烦?”

这么一调整 ,问题就变了 。这不是逆向思维,更像多维度的探索,能帮我从更多角度挖掘问题。

高阶阶段 ,还得靠人工检查。

因为有些东西,AI在短问短答时,还能答对 ,但要是连着问好几轮 ,它就容易出现幻觉 。比如人名、日期这些细节,还得靠我们自己去核实。

所以,多变着花样问问题 ,多用几个工具对比答案,多核实信息,甚至故意找找对立面。这样一来 ,就不那么容易被AI套牢了 。

最重要一点:建立一种重新认识搜索茧房的思维方式 。毕竟,你看到的,才是你的世界 ,就像王阳明所说“心外无物 ”一样。我们所感知的世界,由内心认知决定,只有当我们主动拓宽视野 ,才能真正打破搜索茧房的局限。