本文来自微信公众号: 数字生命卡兹克 ,作者:数字生命卡兹克
昨天,GPT-image-2正式上线了。
然后,所有的社群、社媒都玩疯了。
甚至,GPT-image-2生成的梗图,一度冲上了微博热搜第一。

就是这张图,为了防止大家误会,我打了巨大的水印。

除了这张图之外,我又看到了很多很多很多,因为搞抽象,因为我们太熟悉了,所以很容易被识别的GPT-image-2生成的假图。

大家玩的确实很High,但是这一整天,让我忽然觉得,这个世界变成了一座巨大的黑暗森林。
昨天早上有一个特别典型的例子。
就是昨天大概中午12点的时候,应该是OpenAI在配置Codex模型的时候出了点问题。
导致GPT-5.5被泄露了出来。

如果是以前,那按照我们群友的德行,几乎都是会立刻打开Codex,然后去体验,然后回到群里来反馈,说,真的上了真的上了类似的这种话。
但是昨天中午,我看到的却是让我非常不寻常的一幕。


然后又确实是因为BUG,所以泄露很快就被OpenAI收回了。
然后群友如果迟了一点去看的话,其实会发现,没有GPT-5.5,只有5.4了。
群里的氛围直接是这样的。

最抽象的是,我把这个截图发了朋友圈,感叹了一句。

然后,评论区,是这样使的。
都说我这两张群里截图也是AI生成的。

我把这个朋友圈发回到群里,想给大家看看这个神奇的评论区。
他们说,我发到群里的这个朋友圈截图,也是AI生成的。

猜疑链闭环了。
这个世界,终于变成了一个巨大的黑暗森林。
还有这张图,猜疑链更甚,昨天讨论的非常的多,因为,已经没有人知道到底是真的还是假的了。

甚至我到现在即使拿原图去豆包实测过,我也依然没有办法100%确实是真的还是假的。
我知道大家是在玩梗,是觉得好玩,大家本意都是善良的。
但,当你们看到这些图片的时候,我不知道你们会不会像我一样,冷汗直冒。

我觉得因为这个模型的发布,有一个我们一直赖以生存的东西,悄悄的消亡了。
就是信任。
或者更准确地说,是我相信我看到的东西是真的这件事本身。
在GPT-image-2之前,我们每天在互联网上接收信息的时候,有一个默认的底层假设,就是截图是真的,照片是真的,聊天记录是真的。
有图有真相,这句话被流传了很久很久。
我们不需要花任何精力去怀疑这些东西。
看到一张微博截图,我们讨论的是内容本身。
看到一张聊天记录,我们关心的是发生了什么事。
看到一张新闻图片,我们思考的是新闻本身。
这个默认信任,其实就是是整个互联网信息生态运转的基石。
很多时候,我们甚至都都不需要意识到它的存在,就像鱼很多时候也并不会意识到水的存在,我们也不会意识到空气这种东西。
只有,当它开始消亡的那一刻。
我并不是说,我们所有人,就会变得立刻、可以的去怀疑每一张图本身。
但,那个怀疑的种子,已经种下了。
未来,你看到一张图,但凡有一点点跟你的感觉不符,或者,触发了你的某个PTSD,你的脑海里必定会多出一个声音,这是不是AI生成的?
这个声音可能很小,可能只是一闪而过,可它就像种子一样,深深的扎根在那里了。
而它,随着AI的继续发展,也只会越来越大,不会越来越小。
这就是黑暗森林。
那种著名的《三体》里面的黑暗森林法则。
宇宙是一座黑暗森林,每个文明都是带枪的猎人。

在黑暗森林中,最核心的理论,就是猜疑链假设。
因为你无法判断对方是善意和恶意的。
为了保护自己,你只能先行预设对方是恶意的。
就像现在的互联网,我也无法判断信息的背后,那个源头的人,是抱有善意还是抱有恶意,我无法判断,我的最优解,就是先默认不相信。
因为,制造假的东西变得太容易了。
当造假的成本趋近于零的时候,信任的成本就趋近于无穷大。
这是一个非常基本的数学问题。
2023年初,ChatGPT爆火的时候,我决定写下自己的第一篇文章,选择开始做一个IP,其实当时思考了非常多。
那时候我非常焦虑,因为我不知道在AI时代,什么东西是不会被替代的,我花了很长时间去想这个问题。
我最后答案,只有一个词。
信任。
今年年初我也对外发了一下当时的思考。

当时有三条自己认为是公理的东西,虽然看着非常民科也很扯淡,但,当时确实指导了我后续的一切。
1.在AI加持下信息生产的效率呈指数级爆发,而人类消费的效率是恒定或线性增长的。二者之间形成了永久性的、不断扩大的结构性失衡。
2.无论信息总量如何爆炸,一个社会在特定时间内的总注意力是一个基本恒定的稀缺资源,一个领域注意力的增加必然意味着另一个领域注意力的减少。
3.辨别内容由AI还是人类生成的成本,将系统性地高于该内容本身带来的价值。因此,绝大多数人将从理性上放弃辨别。
第三条,在23年跟很多朋友交流的时候,很多人其实还挺嗤之以鼻的。
"AI生成的东西这么假,我怎么可能看不出来呢。"
可昨天,这一天,在图片领域,终于到来了。
而且来的方式,比我想象的还要快,还要彻底。
辨别的成本太高了,你花5分钟去验证一张截图是不是真的,结果它可能就是真的,你浪费了5分钟。
也可能是假的,但那又怎样呢?你每天要看几百张图,你不可能每张都花5分钟去验证。
所以最理性的策略就是,默认一切都可能是假的。
或者,默认一切都无所谓真假。
所以,当年,我自己由这三条公理推导出的结论,就是:
传统的信息筛选因失衡而不可能,因不可辨识而无意义,最终将会失效。我们为了应对有限注意力的挑战,可能唯一的策略就是,放弃筛选信息,转而筛选信息的源头。
信任不再附着在信息上。
信任附着在人上。
这就是我当年想做IP的原因。
不止是因为做IP能赚钱,也不止是因为做IP能出名,而是因为在一个真假难辨的世界里,一个你长期关注、长期验证、长期建立了信任关系的活人,是你在信息洪流中唯一可以抓住的锚。
23年我做这个公众号的第一天,给自己定了一条底线。
真诚是唯一的捷径。
这并不所谓的鸡汤。
这是我自己,在黑暗森林里的生存策略,也是为了对抗这个操蛋的AI时代,唯一的解法。
但说实话,今天,此时此刻,我完全没有任何我三年前就说对了的得意感,我也完全不想炫耀任何东西。
一点都没有。
我只有一种深深的不安。
我不知道互联网的黑暗森林最终会演化成什么样子。
我不知道信任的重建需要多长时间,需要什么样的技术,需要什么样的共识。
就像现在最主流的识别方案就是加AI水印,显示水印和数字水印,比如C2PA。

但去除这些太简单了。
就像C2PA,只能证明有这个标签的图是AI的,但不能证明没有这个标签的图就是真的。
所以一张没有C2PA标签的图片,你依然无法判断它是真的照片还是被去过标签的AI图。
Google有一个叫SynthID的技术,思路稍微不太一样一点,它是直接在图像的像素层面嵌入不可见的水印,理论上这种水印更难去除,这个确实我是目前看到的AI检测效果最好的方式,但是并不兼容其他家,只有Google自己玩。
而且在类似reddit的论坛里,依然有很多的攻破方式。
坦率的讲,目前没有任何一种技术手段,能够可靠地检测一张图片是不是AI生成的。
这就是现实。
就像昨天群友在群里发的一段话。

那技术不靠谱的时候,我们普通人能做什么?
我想了想,能给的建议真的不多,但我觉得每一条都是有用的。
1.截图不等于证据,这个观念,需要从今天开始刻进脑子里。
2.传播任何图片之前多停三秒钟。
3.关注信息的源头,而不是信息本身。
最后,如果非要说一句话。
我只能说,在这个黑暗森林里,做一个值得被信任的人。
这可能是我们唯一能做的事。
也可能是,最重要的事。
