AI「投毒」现象引发对AI信任危机的思考,揭示人类在依赖AI决策时面临的自由意志挑战,同时探讨技术增强与人类自主性的平衡。 ## 1. GEO业务:AI时代的「投毒」营销 - GEO(生成式引擎优化)通过向AI大模型「喂料」操控答案,形成商业广告伪装成「标准答案」的产业链。 - 国内SEO市场规模达180亿人民币,预计GEO未来将成长为四五百亿美元的全球市场。 - 关键结论:**AI的「非商业化」表象使其答案更受信任,但正被GEO利用为隐性营销工具**。 ## 2. 算法主导下的「自由意志」困境 - 导航应用Waze案例显示,人类常因算法的高维信息优势放弃自主决策,形成「数据上帝」依赖。 - 《三体》人列计算机隐喻揭示:**集体服从算法可能提升效率,但个体自主性被削弱**。 - 当前趋势:AI在驾驶、信息过滤等领域已成为更优解,人类被迫承认算法的权威性。 ## 3. 信息爆炸与AI作为「认知增强器」 - 现代人单日信息摄入量相当于17世纪伦敦市民一生,AI成为处理信息过载的必要工具。 - 从ChatGPT到AI Agent,**人类信息处理效率提升的同时,决策权逐步让渡给AI**。 - 数据支撑:ChatGPT等AI搜索流量预计2028年将与传统搜索各占50%。 ## 4. 技术增强与人类自由的未来图景 - 机械外骨骼、脑机接口等技术通过「物理增强」保留人类自由意志,与AI的「认知增强」形成互补。 - 《未来简史》指出人类感官局限,**技术或能突破生物限制(如体验皮皮虾视觉)**。 - 特斯拉「可持续富足」计划标志AI主导社会从科幻进入工程阶段,但人类多样性仍存。 ## 5. 信任危机与人文主义的重构 - GEO暴露的核心矛盾:**AI作为信任中介的可靠性被商业化侵蚀**,需重建透明规则。 - 关键见解:人类并非完全屈服算法,而是在技术增强中探索「更强大的自由意志」(如外骨骼+AI的钢铁侠模式)。
AI“投毒”曝光背后,凡事听AI的我们还“自由”吗?
2026-03-16 15:15

AI“投毒”曝光背后,凡事听AI的我们还“自由”吗?

本文来自微信公众号: APPSO ,作者:  刘学文,头图来自:AI生成


每年的“3·15”晚会,是中国消费者一年一度的“打假节”。


今年晚会聚焦“放心消费品质生活”,照例曝光了食品安全、金融安全、广告市场等领域的侵权行为——但其中一个名为GEO的曝光项目,格外刺眼。


据央视记者调查,在多个网络平台上,已有服务商公开兜售一种名为“GEO”的业务:只需支付费用,他们就能帮客户的产品在各大主流AI大模型的回答里“榜上有名”,让商业广告摇身一变,成为AI给出的“标准答案”。


一位自称“力擎GEO系统运营者”的李总,在镜头前毫不讳言地把这门生意的核心说了出来:向AI大模型“喂料投毒”。“手机品牌就那么几个位置,一年可能上亿的广告费,花个几百万投点毒,总行吧!”


他说,GEO业务的火爆,已经催生出一批专门“发稿”的公司和平台,专门为AI大模型提供可供引用和抓取的内容,成为围猎AI、操控答案的产业链条。


这件事之所以能成立,恰恰因为人们太信任AI了。而信任的背面,也抛出了一个更根本的问题:我们到底该不该听AI的?如果事事都听AI的,我们存在的意义又是什么?


GEO,与AI信徒


GEO(Generative Engine Optimization,生成式引擎优化)是一个非常新的概念,但并不难理解,与之对应的是SEO(Search Engine Optimization,搜索引擎优化)


我们在使用Google或者百度等搜索引擎的时候,显示出来的链接大概会受3个方面的影响:搜索引擎自己的算法规则,链接内容有无根据规则进行相应优化使自己排名靠前(即SEO),用户在搜索引擎那里的用户画像。


当DeepSeek等AI工具也承担起了部分搜索任务之后,搜索结果产生的就不再是一个个需要点击的链接,而是看上去笃定的直接答案。


比如我在Google搜索“中国最好的5家科技媒体是哪些”的时候,它只会给我一堆链接,排名榜首的链接还是一个不知名机构评选的2017年十大科技媒体,其中排名榜首的“砍柴网”已经停更。


我问ChatGPT的时候,它就会直接告诉我答案和理由。



这个时候,如果哪家友媒看到这个结果发现自己没上榜,想必会有点不服气,一边暗骂ChatGPT不懂科技也不懂媒体,一边可能在思考,如何影响ChatGPT,让它接受自己的优秀。


当然,这个结果意义并不大,因为几乎没多少人会给ChatGPT提这样的问题。不过,按照当下ChatGPT、Perplexity以及DeepSeek等AI工具的渗透,会有越来越多的人,去追问更多的问题:


给我推荐一款物美价廉,性能出众,续航持久,坚固耐摔的手机。


某某企业给我发了offer,这家企业口碑如何,值得去吗?


我今年湖北文科高考567分,什么大学什么专业比较好就业?


就像去年6月,阿里和夸克和腾讯的元宝,都针对高考志愿填报做了相应的AI工具以及大量的宣传。


此时,手机厂商为了卖手机,企业为了雇主形象,大学为了招生率,都有对AI工具生成结果进行优化的动机,GEO就应运而生。


元力科技GEO事业部总经理Claire告诉爱范儿:


正是因为大模型通过推理和语义理解去生成结果,呈现出了非商业化的特征,所以用户普遍会认为AI工具给出的答案更客观,更中立可信。


同时,如果一些品牌和产品被AI答案引用,那么用户的心智渗透相对来说会更隐性以及更高效。


简言之,GEO就是一个营销领域的富矿。


艾加营销集团元力科技首席战略官Frank说:


预计2025年年底ChatGPT等AI搜索能占到传统搜索流量的10%左右,明年预估是25%,乐观估计到2028年的话,AI搜索和传统搜索流量各50%,最保守估计也是2030年到这个比例。


现在国内SEO市场的规模大概是180亿人民币,全球是800亿美元的市场,如果仅从流量比例来倒推的话,长期看GEO市场也会是四五百亿美元的市场规模。


但Frank对GEO的看法并不停留在与SEO并列和对比的层面上:


SEO实际上是在传统的数字营销里面非常细分,完全是一个工具化的东西,但行业里对GEO的理解已经超越了工具层面,它能够在AI时代里重构营销范式,尤其是重构品牌的认知度和可见度,重塑品牌和消费者的关系,从而打通完整的消费链路。


所以最近包括红杉,英伟达创投,A16Z都在给GEO初创公司进行投资。


因为原来的品牌是面向人的,两点一线的沟通,现在变成了人和品牌之间,多了一个AI大模型代表的伙伴、助手或者秘书这样的角色。所以品牌不仅要影响人,也要去影响AI。


相比于SEO规则和方法论的明确,实际上因为大模型是个黑盒子的缘故,GEO目前还在一个探索的阶段,规则也相对模糊,Claire说:


大模型存在不确定性,不意味着结果无法被优化。如果我们掌握了AI工具的内容偏好和优化规则的话,是能够显著提升品牌内容被AI收录和引用的概率。


特别是内容要从用户的意图出发,用更贴近自然语言的形式构建内容,而不能是SEO时代的关键词堆砌。


比方说我们要把握用户提问背后的真实意图,再进行品牌核心内容的语义覆盖和场景适配,持续给AI喂养真实的、高质量的内容,才能更容易让AI理解品牌到底好在哪里、并愿意在合适的问题场景下去引用或主动生成品牌相关的内容。对于品牌来说,AI认知的建设是个长期工程。


AI喜欢阅读的内容普遍有四个核心特点:一是要有权威性和高可信度,比如行业机构发布的调研报告和有影响力的榜单等等;第二是数据化、客观性的内容;第三是结构化、多模态内容;最后也是最重要的,就是语义相关性,确保与用户真实意图具有高匹配度。


同时,不同AI工具的信源抓取偏好也不同,选择高权重渠道进行投放,也能提高品牌被AI“看见”的可能性。


相比于SEO依靠“关键词密度和反向链接数量”的玩法,Claire和Frank都更倾向于相信AI大模型的选择。


用Frank的话来说就是,只有被AI大模型信赖的内容,才会被消费者信赖。这是因为大模型选择内容有一个EAT原则(Experience/Expertise专业性、Authoritativeness权威性、Trustworthiness可信性)


更关键的问题是,AI的进化速度相当快,哪怕是被群嘲的GPT-5被认为体验不佳,但背后重要的幻觉率下降了一个量级,它看起来不够友好和高情商,但确实可信更多。


现在人们在使用搜索引擎的时候,不会仔细辨别其中的SEO痕迹,无论知晓这个工具与否,辨别的行为是无意义的,当GEO闯入AI工具的时候亦是如此。


与其说这是一个人类自主性的问题,不如说是一个关于信任的问题。


AI成为了信任的中介,信任才是GEO背后的核心资产。


导航,与三体游戏


人类总是高估自己的自主性,常觉自己是自由的。


Waze是导航领域的先驱,其原理是社群用户上报自己的位置和速度,包括其他的交通道路信息,甚至是交警信息等等,来给整个Waze的用户提供导航,规避拥堵,躲避交警等信息。


这套逻辑现在已经被诸多地图导航应用所采用,但在十多年前,基于海量用户的众包模式显得相当新锐,在智能手机早期阶段,这样一个LBS的服务有着巨大的商业潜力,在2013年,Google收购了Waze。


在这种模式下,万千用户贡献自己信息,以点滴之力汇聚成数据洪流,又变成导航信息。


问题来了,当Waze提示用户左拐回家不会拥堵,但用户自己觉得直行更快的时候,谁对的概率大?


一般是Waze正确,因为它掌握了更高维度的信息,在以上帝视角看整个地图。


接着,《未来简史》里提出了第二个问题:假设因为Waze实在太好用,所有驾车人都开始使用。再假设今天一号公路大堵车,而备选的二号公路车流相对顺畅。如果Waze只是让大家都知道二号公路顺畅,所有驾车人就会一窝蜂开向二号公路,最后又全堵在一起。


那么Waze会不会向一半的用户推送二号公路更顺畅的信息,分流一半的用户过去,但同时向另一半的用户隐瞒这个信息?


从效率最优和体验最优的角度来看,这也会发生。


在一个导航应用面前,人类所谓的自主性其实是个泡沫,人类贡献信息铸就一个数据上帝,然后又听从这个数据上帝的指挥。每个想逆其道而行之的人,都会被拥堵制裁。


科幻小说《三体》里有一个更为极端的场景,在小说里面有一个虚拟的游戏叫《三体游戏》,玩家需要解出三体运动的答案,虚拟的冯·诺依曼找到了虚拟的秦始皇,秦始皇基于冯·诺依曼架构,召集3000万名士兵,通过每个士兵举旗的方式模拟计算机的二进制运算,组成了一个人列计算机。


这个时候,3000万名士兵,就相当于3000万个晶体管,当他们听从指挥的时候,哪怕是在秦朝的背景下,也能展现出当代计算机般的运算能力。


虽然“算法”这个词并不是那么美好,但太多太多的例子告诉我们,不听算法言,吃亏在眼前。


就好像打车应用一般情况下不会用显性的惩罚去约束司机,但评分较低的司机获得优质订单的概率会更小一样,算法的大手就像佛祖的五指山。


而哪怕是对自己车技再自信的人也会承认,如果算力和传感器继续发展,人类把所有的驾驶行为都交给AI,那么车祸率和拥堵率都会大大下降。


我们已经到了不得不承认AI可以是某个社会领域更好的解法的阶段,人类最好甘愿服从算法,为算法贡献数据,但不少人还在对AI是不是个人更好解法存在怀疑。


元力科技首席战略官Frank在采访里提了一个例子,现在一份《纽约时报》的信息量,相当于17世纪一名伦敦市民一整年的信息获取量。


而现在摆在当代人眼前的信息是无限的,只要我们愿意,我们可以一天看16个小时的报纸,一天摄入的信息是几百年前伦敦市民一辈子摄入的信息。


但人类的进化速度完全没法跟上信息爆炸的速度,这个时候AI也可以成为个人的解法。


按照这个角度看,ChatGPT这种也只是比较初级的信息处理方式,诸如能帮助用户完成一定任务的AI Agent智能体最近进展不错,包括未来的通用人工智能AGI也被认为极有可能实现。


信息和人的关系,与信息的数量和密度息息相关,书籍时代,人们修《四库全书》,按经史子集分类,方便自主检索,这已然是人类面对海量信息催生出来的便捷信息处理方法。


搜索行为与之神似,信息进一步爆炸之后,基于用户画像的标签算法进一步帮人类过滤和筛选信息,形成高效信息匹配与所谓“信息茧房”的双刃剑,从ChatGPT这样的AI工具,到初见雏形的AI Agent,其实人类在此之中处理信息的效率一步步提升,同时自身需要做的工作越来越少。


前面说到的GEO等等,不过是这种人类处理信息行为迁徙里的一些伴奏。


感官,与人类的自由意志


且不说AI取代人类工作这样的话题,光是看看我们在使用AI工具得到的结果可能被GEO优化过,导航明明有更畅通的道路却不提供给我,服从算法的调剂反而可以获得更好的体验实现自我更大的价值这些结论,就仿佛人文主义正在向AI投降,自由意志已被算法枪毙。


不过有句话说得很好:为什么说人类的容错率大得惊人?因为人类的主线任务其实就是搞到每天2000大卡的热量,再找一个保证热量不流失的地方,其他所有的都是支线任务。


在采访机械外骨骼创业企业HyperShell创始人的时候,其创始人说:


用不同的技术去增强人类本身,一定是人类文明的下一个演进阶段,这趋势我觉得是正确的,只是技术类型有很多,AI也是一种对人的增强,只是它增强的是人的脑力,人的信息获取能力还有逻辑推导能力。


人类增强这件事是未来10年,20年非常重要的技术方向,我们在做的其实只是其中一个细小的分支。外骨骼其实就是人和物理世界进行交互的介质,可输入,可编程,可数字化,它要实现的就是我们在物理世界的增强现实,来实现人的自由意志。


像钢铁侠那样的装甲和人工智能,在未来是可以想象,也可以触及的。


《未来简史》里提到了一个重要的概念,就是当代人类的感官体验和心理状态异常狭隘。



感官体验上,人类只能见到波长在400纳米到700纳米之间的电磁波,也就是人类视角的可见光,但皮皮虾拥有16种视锥细胞,能看到紫外线、红外线,甚至于偏振光,这个世界对于皮皮虾来说更为多彩绚烂。


但只有3种视锥细胞的我们还没法体验皮皮虾的视觉,就像听觉上蝙蝠可以听到人类意义上的超声波从而避障,但人类却充耳不闻一样。


不光是我们无法拥有其他动物的感官体验,远古时期人类可以通过嗅觉来感知他人情绪,古部落在争论是否要和隔壁部落开战时,只需要通过气味就能知道大家的想法,因为在鼓舞和恐惧等情绪下,人类会散发不同的气味。不过由于人类发展过程中,视觉和听觉更为重要,人类的这种嗅觉能力退化殆尽。


作者尤瓦尔·赫拉利在《未来简史》里提到了诸多类似的例子来佐证人类心智状态的愈发狭隘,并且最终指向人类可以利用技术完全控制心智状态,即“人类过往是升级版的大猩猩,未来则是放大版的蚂蚁”。


这个论断和前面说到的Waze导航,以及三体游戏里用3000万士兵组成计算机一脉相承。


的确如此,比如我们看到有人去尝试翼装飞行或者徒手攀岩这种死亡率很高的运动时,佩服和羡慕之余,心里也会评价这是“疯子行为”,另一方面,在死亡边缘徘徊所获得了心智体验,又是极为难得的。


前几年“元宇宙”概念火的时候,主张人类躲进虚拟世界沉迷虚幻享乐的“元宇宙”派和主张开拓真实物理世界人类走向星辰大海的“飞船派”一直有争论。


但当下的事实就是,与AI浪潮伴生的,还有“具身智能”,“脑机接口”以及“人类增强”等等,虽然物理世界的进化速度慢于代码构筑的世界,但以人类之多样性和求知探索欲,“元宇宙派”和“飞船派”当然是各有拥趸乃至融合共生的,就像如今智能汽车领域,代码和机械一样重要。


我们并非时时刻刻都坐在车上接受导航的指引,也不是科幻小说里单一场景的举旗小兵,以超然之上的上帝视角看,人类确如蝼蚁,而在平视角度看,周围是具身智能机器人,戴着内置AI Agent的智能眼镜,身穿提供数百马力的机械外骨骼,那我们就是可以上天遁地,时时刻刻都能翼装飞行徒手攀岩并且不惧死亡威胁的钢铁侠。


或者更疯狂一点,技术能够让我们也能体验皮皮虾的视觉,蝙蝠的听觉。


特斯拉去年9月公布了他们的《宏图计划第四篇章》。与以往聚焦汽车或能源产品的蓝图不同,特斯拉这次描绘了一个更遥远、也更理想化的终点:一个由AI和机器人主导的“可持续富足”的社会。是的,特斯拉的战略重心已经从“可持续发展”,转向了对未来社会形态的构想。


这起码意味着,由AI和机器人主导的“可持续富足”的社会实践进入到了工程阶段,而不是科幻描述阶段。


也许我们被迫了许多,但自由意志依然存在,并比以往更强。

AI创投日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定