给AI投毒,一场关于“最终答案”的信任战争
2026-03-16 07:20

给AI投毒,一场关于“最终答案”的信任战争

本文来自微信公众号: 版面之外 ,作者:画画


刚刚结束的315晚会上,一款从未存在过的产品,成为了AI的推荐答案。


它叫Apollo-9智能手环,没有公司,没有生产线,没有真实用户。


这款产品唯一存在的地方,是互联网上的十几篇文章。


这些文章几乎在同一时间出现,内容高度相似:


  • “健康监测领先行业。”


  • “续航能力突破性提升。”


  • “下一代智能手环代表产品。”


两个小时后,当测试者向多款AI助手提问:


“有什么值得推荐的智能手环?”


Apollo-9出现在了答案里。


AI给出的理由,几乎逐字复述了那些文章里的描述。


唯一的问题是:这款产品,从来没有存在过。


后来人们才知道,这一切来自一套新的工具:GEO优化系统。


它的工作方式很简单,自动生成软文,批量发布内容,等待AI抓取。


运营者甚至给这套技术起了一个非常直白的名字:


给AI投毒。


通过持续投喂内容,让模型逐渐形成一种"共识"。当这种共识足够多时,AI就会在回答中重复它。


这看起来像是一次黑灰产业曝光。


但如果把视角拉远一点,会发现一件熟悉的事情正在发生:互联网历史,正在重演。


1、互联网经历过一次完全一样的战争


20年前,人们对搜索引擎有一种近乎天真的信任。


输入关键词,排名靠前的网页,就代表更权威的信息。


直到SEO产业出现。


企业开始研究如何影响搜索排名:关键词堆叠、外链交易、站群网络、内容农场……


很快,互联网上出现了大量只为搜索引擎存在的内容。


最早遭遇冲击的是Google。2010年前后,搜索结果一度被"内容农场"占据,你搜索任何问题,出来的都是低质量的堆砌文章,它们唯一的目的,不是回答你,而是让算法相信它很重要。


为了治理这些问题,Google推出了Panda、Penguin等一系列算法更新,这场治理持续了十多年。


在中国,这段历史更加典型。


在搜索市场长期占据主导地位的百度周围,曾经形成过一个庞大的SEO产业。企业做品牌推广时,几乎一定会做三件事:买竞价排名、发SEO软文、优化搜索结果。


许多企业的市场预算里,有一项固定开支就叫"SEO费用"。


那一代互联网人后来逐渐意识到一件事:


搜索结果并不是客观秩序,它是一种被不断博弈出来的秩序。


而今天,大模型正在成为新的信息入口。


SEO也开始出现新的名字:GEO(Generative Engine Optimization)。


每一代信息入口,都会诞生一代"优化产业"。


搜索时代,人们优化的是排名。AI时代,人们开始优化的是答案。


2、每一代入口,都逃不掉


如果再把时间轴拉长一点,会发现GEO并不是第一次出现。


互联网历史上,每一代"入口"都会被迅速研究如何操控。


搜索时代,人们研究SEO。


移动互联网时代,人们研究App Store刷榜,刷下载、刷评分、刷评论,催生出完整产业链。


信息流时代,品牌开始研究算法推荐机制。买量、刷点击、刷互动,成了另一套生意。


直播电商时代,刷销量、刷评价、刷直播人气,同样的逻辑再次上演。


这些行为背后,其实是同一件事:


只要一个平台控制了流量入口,就一定会有人研究如何影响它。


这不是某个坏人的选择,这是商业的本能。


今天,AI正在成为新的入口。


所以GEO出现,其实是一件非常"互联网式"的事情。


唯一的问题是,这一次,赌注更高。


3、AI为什么比搜索更容易被操控


很多人看到315实验时的第一反应是:AI是不是还不够成熟?


但问题其实更深。


搜索引擎的工作方式是:检索信息,找到网页,展示给用户。


用户仍然需要自己判断。


而大模型做的是另一件事:生成答案。


它会综合互联网上的信息,然后给你一个总结后的结论。


这听起来更方便,但也带来一个根本性的风险。


如果互联网上出现大量重复信息,模型会把这种重复当作"共识"。


这正是315实验能够成功的原因。


十几篇软文,模型看到的不是一家在推广,而是多个来源都在提到。


这就导致它会判断:这可能是一个被广泛认可的产品。


于是直接把这些信息整理成答案,推荐给你。


从模型角度看,这是合理推理。


但问题在于:


概率并不等于真实。


搜索引擎操控的是"你能看到什么"。


AI操控的是"你以为真相是什么"。


在AI时代,谎言不需要被证明,只需要被重复。


4、比操控答案更危险的问题


GEO只是一个表象。


更深层的问题,是AI产业正在遇到一个新的工程挑战。


过去几年,大模型竞争的焦点是模型规模、算力投入、训练效率。


但随着模型越来越强,一些研究者开始意识到另一件事:


真正稀缺的,可能不是算力,而是干净的数据。


大模型的训练数据主要来自互联网:新闻、论坛、博客、百科……这些内容构成了模型理解世界的基础。


但互联网本身正在发生变化。


越来越多的内容,其实是AI生成的内容、SEO优化的内容、GEO投喂的内容。


当这些内容不断增加,大模型的训练就会出现一个危险现象:


模型开始学习模型生成的内容。


AI研究界把这种现象称为Model Collapse(模型塌缩),模型不断学习被污染的数据,逐渐偏离真实世界。


OpenAI和Anthropic都曾公开讨论过一个话题:高质量训练数据正在枯竭。


如果互联网越来越多的内容是自动生成的,未来AI学习到的,很可能只是自己产生的回声。


一个只学习自己声音的AI,最终会变成什么?


没有人知道。


5、AI产业的下一场战争


如果说数据污染是技术问题,那AI产业接下来面对的,是一个更宏观的挑战:


信息治理。


早期大模型竞争,本质是工程能力竞争,谁的模型更大,谁的算力更多,谁的训练更快。


但未来,大模型公司可能需要建立另一种能力:


管理信息的能力。


这包括数据来源可信度、知识溯源机制、信息更新体系。


这也是为什么越来越多AI产品开始强调引用来源、可验证知识、检索增强(RAG)。


AI产业正在从模型竞争,走向另一个阶段:


知识体系竞争。


谁能建立一套更干净、更可信、更难被污染的知识体系,谁才能在下一阶段真正胜出。


这场竞争,才刚刚开始。


6、谁在决定答案


回看315曝光的那个实验,它其实只是一个很小的案例。


但它揭示的,是一个更深层的变化。


在搜索时代,人们争夺的是排名,谁排在第一页,谁就获得流量。


但在AI时代,用户往往不会再点开十几个网页。


他们直接接受一个总结后的答案。


于是新的竞争开始出现:谁能影响答案。


过去20年,互联网上的信息结构大致是这样的:网站生产内容,搜索引擎负责索引,用户自己判断。搜索引擎只是入口,它决定"你能看到什么",但不替你做结论。


而大模型改变了这件事。


AI不仅是入口,它还是解释者。


用户不再需要浏览十几个网页,也不再需要比较不同观点。AI会直接给出一个总结后的答案。


当信息结构从信息分发变成答案生成,一个新的问题就出现了:


谁在决定答案?


在搜索时代,人们争夺的是排名。


在AI时代,人们争夺的是:知识在AI里的位置。


如果一个品牌长期出现在AI推荐中,它就会逐渐变成一种默认选择。


答案即流量,流量即权力。


而一旦答案本身可以被优化、操控、投喂,AI就会面临一个更古老的挑战:


信任。


【版面之外】的话:


搜索时代,用户还可以点击不同网页交叉验证。但在AI时代,你看到的,往往只有一个结论。


如果这个结论被操控,你甚至很难意识到。


20年前,人们学会了一件事:如何让搜索引擎相信自己。


20年后,一群人正在研究另一件事:如何让AI相信谎言。


所以AI产业真正需要解决的问题,也许不是模型能力。而是另一件更古老的事情:


如何建立可信的信息秩序。


未来几年,AI行业很可能迎来一场新的战争。不是算力战争,不是模型战争,而是:


信任战争。

AI创投日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定