本文来自微信公众号: 版面之外 ,作者:画画
刚刚结束的315晚会上,一款从未存在过的产品,成为了AI的推荐答案。
它叫Apollo-9智能手环,没有公司,没有生产线,没有真实用户。
这款产品唯一存在的地方,是互联网上的十几篇文章。
这些文章几乎在同一时间出现,内容高度相似:
“健康监测领先行业。”
“续航能力突破性提升。”
“下一代智能手环代表产品。”
两个小时后,当测试者向多款AI助手提问:
“有什么值得推荐的智能手环?”
Apollo-9出现在了答案里。
AI给出的理由,几乎逐字复述了那些文章里的描述。
唯一的问题是:这款产品,从来没有存在过。
后来人们才知道,这一切来自一套新的工具:GEO优化系统。
它的工作方式很简单,自动生成软文,批量发布内容,等待AI抓取。
运营者甚至给这套技术起了一个非常直白的名字:
给AI投毒。
通过持续投喂内容,让模型逐渐形成一种"共识"。当这种共识足够多时,AI就会在回答中重复它。
这看起来像是一次黑灰产业曝光。
但如果把视角拉远一点,会发现一件熟悉的事情正在发生:互联网历史,正在重演。
1、互联网经历过一次完全一样的战争
20年前,人们对搜索引擎有一种近乎天真的信任。
输入关键词,排名靠前的网页,就代表更权威的信息。
直到SEO产业出现。
企业开始研究如何影响搜索排名:关键词堆叠、外链交易、站群网络、内容农场……
很快,互联网上出现了大量只为搜索引擎存在的内容。
最早遭遇冲击的是Google。2010年前后,搜索结果一度被"内容农场"占据,你搜索任何问题,出来的都是低质量的堆砌文章,它们唯一的目的,不是回答你,而是让算法相信它很重要。
为了治理这些问题,Google推出了Panda、Penguin等一系列算法更新,这场治理持续了十多年。
在中国,这段历史更加典型。
在搜索市场长期占据主导地位的百度周围,曾经形成过一个庞大的SEO产业。企业做品牌推广时,几乎一定会做三件事:买竞价排名、发SEO软文、优化搜索结果。
许多企业的市场预算里,有一项固定开支就叫"SEO费用"。
那一代互联网人后来逐渐意识到一件事:
搜索结果并不是客观秩序,它是一种被不断博弈出来的秩序。
而今天,大模型正在成为新的信息入口。
SEO也开始出现新的名字:GEO(Generative Engine Optimization)。
每一代信息入口,都会诞生一代"优化产业"。
搜索时代,人们优化的是排名。AI时代,人们开始优化的是答案。
2、每一代入口,都逃不掉
如果再把时间轴拉长一点,会发现GEO并不是第一次出现。
互联网历史上,每一代"入口"都会被迅速研究如何操控。
搜索时代,人们研究SEO。
移动互联网时代,人们研究App Store刷榜,刷下载、刷评分、刷评论,催生出完整产业链。
信息流时代,品牌开始研究算法推荐机制。买量、刷点击、刷互动,成了另一套生意。
直播电商时代,刷销量、刷评价、刷直播人气,同样的逻辑再次上演。
这些行为背后,其实是同一件事:
只要一个平台控制了流量入口,就一定会有人研究如何影响它。
这不是某个坏人的选择,这是商业的本能。
今天,AI正在成为新的入口。
所以GEO出现,其实是一件非常"互联网式"的事情。
唯一的问题是,这一次,赌注更高。
3、AI为什么比搜索更容易被操控
很多人看到315实验时的第一反应是:AI是不是还不够成熟?
但问题其实更深。
搜索引擎的工作方式是:检索信息,找到网页,展示给用户。
用户仍然需要自己判断。
而大模型做的是另一件事:生成答案。
它会综合互联网上的信息,然后给你一个总结后的结论。
这听起来更方便,但也带来一个根本性的风险。
如果互联网上出现大量重复信息,模型会把这种重复当作"共识"。
这正是315实验能够成功的原因。
十几篇软文,模型看到的不是一家在推广,而是多个来源都在提到。
这就导致它会判断:这可能是一个被广泛认可的产品。
于是直接把这些信息整理成答案,推荐给你。
从模型角度看,这是合理推理。
但问题在于:
概率并不等于真实。
搜索引擎操控的是"你能看到什么"。
AI操控的是"你以为真相是什么"。
在AI时代,谎言不需要被证明,只需要被重复。
4、比操控答案更危险的问题
GEO只是一个表象。
更深层的问题,是AI产业正在遇到一个新的工程挑战。
过去几年,大模型竞争的焦点是模型规模、算力投入、训练效率。
但随着模型越来越强,一些研究者开始意识到另一件事:
真正稀缺的,可能不是算力,而是干净的数据。
大模型的训练数据主要来自互联网:新闻、论坛、博客、百科……这些内容构成了模型理解世界的基础。
但互联网本身正在发生变化。
越来越多的内容,其实是AI生成的内容、SEO优化的内容、GEO投喂的内容。
当这些内容不断增加,大模型的训练就会出现一个危险现象:
模型开始学习模型生成的内容。
AI研究界把这种现象称为Model Collapse(模型塌缩),模型不断学习被污染的数据,逐渐偏离真实世界。
OpenAI和Anthropic都曾公开讨论过一个话题:高质量训练数据正在枯竭。
如果互联网越来越多的内容是自动生成的,未来AI学习到的,很可能只是自己产生的回声。
一个只学习自己声音的AI,最终会变成什么?
没有人知道。
5、AI产业的下一场战争
如果说数据污染是技术问题,那AI产业接下来面对的,是一个更宏观的挑战:
信息治理。
早期大模型竞争,本质是工程能力竞争,谁的模型更大,谁的算力更多,谁的训练更快。
但未来,大模型公司可能需要建立另一种能力:
管理信息的能力。
这包括数据来源可信度、知识溯源机制、信息更新体系。
这也是为什么越来越多AI产品开始强调引用来源、可验证知识、检索增强(RAG)。
AI产业正在从模型竞争,走向另一个阶段:
知识体系竞争。
谁能建立一套更干净、更可信、更难被污染的知识体系,谁才能在下一阶段真正胜出。
这场竞争,才刚刚开始。
6、谁在决定答案
回看315曝光的那个实验,它其实只是一个很小的案例。
但它揭示的,是一个更深层的变化。
在搜索时代,人们争夺的是排名,谁排在第一页,谁就获得流量。
但在AI时代,用户往往不会再点开十几个网页。
他们直接接受一个总结后的答案。
于是新的竞争开始出现:谁能影响答案。
过去20年,互联网上的信息结构大致是这样的:网站生产内容,搜索引擎负责索引,用户自己判断。搜索引擎只是入口,它决定"你能看到什么",但不替你做结论。
而大模型改变了这件事。
AI不仅是入口,它还是解释者。
用户不再需要浏览十几个网页,也不再需要比较不同观点。AI会直接给出一个总结后的答案。
当信息结构从信息分发变成答案生成,一个新的问题就出现了:
谁在决定答案?
在搜索时代,人们争夺的是排名。
在AI时代,人们争夺的是:知识在AI里的位置。
如果一个品牌长期出现在AI推荐中,它就会逐渐变成一种默认选择。
答案即流量,流量即权力。
而一旦答案本身可以被优化、操控、投喂,AI就会面临一个更古老的挑战:
信任。
【版面之外】的话:
搜索时代,用户还可以点击不同网页交叉验证。但在AI时代,你看到的,往往只有一个结论。
如果这个结论被操控,你甚至很难意识到。
20年前,人们学会了一件事:如何让搜索引擎相信自己。
20年后,一群人正在研究另一件事:如何让AI相信谎言。
所以AI产业真正需要解决的问题,也许不是模型能力。而是另一件更古老的事情:
如何建立可信的信息秩序。
未来几年,AI行业很可能迎来一场新的战争。不是算力战争,不是模型战争,而是:
信任战争。
