这些刷屏的“战地实况”都是AI 生成的?5招让你避免上当
2026-03-04 18:05

这些刷屏的“战地实况”都是AI 生成的?5招让你避免上当

本文来自微信公众号: APPSO ,作者:发现明日产品的,原文标题:《这些刷屏的「战地实况」都是 AI 生成的?5 招让你避免上当》


最近伊朗冲突的消息开始在各大信息流里疯狂刷屏,爆炸、防空警报,各种冲击力极强的画面,但这里面让无数人点赞、转发的「战地纪实」,竟然有一大半都是假的。



上下滑动查看更多内容|浏览量都超过百万次,但是最后都被证实是AI生成的视频


在X上多个认证的自媒体,发布了数条由AI生成的假视频;最后却在补充信息都提到,视频内有非常明显的AI迹象,例如烟雾的效果,还有变形的水面和屋顶的太阳能电池板。


这些视频有的来自9年前毫不相干的旧冲突,有的是被AI操纵的合成幻影。最为荒诞的还是,美国德州州长Greg Abbott也转发了一段电子游戏视频,随后迅速将其删除。


电子游戏的模拟画面,该视频帖子已经有超过700万次浏览|视频来源:X@realJoelFischer


这条在海外社交媒体上被广泛引用的所谓「第一手冲突录像」,竟然是直接截取自一款军事题材电子游戏。


不仅AI当作新闻,把游戏画面当新闻看,十分令人感慨。在这个AI生图生视频狂飙突进的2026年,「有图有真相」这句古老的互联网格言,已经沦为一句彻头彻尾的笑话。


而这些百万次转发的内容,也都被证实是个超低级AI缝合怪。


除了视频的泛滥,引起大家关注的还有一张在X上疯传的卫星图。毕竟,谁会花几个亿发颗卫星,就为了在网上P张图骗我?


图片显示,位于卡塔尔的一个美军雷达系统,在遭受伊朗无人机打击后化为废墟。连伊朗的主流媒体《德黑兰时报》官方账号都迫不及待地转发了这张「战果图」。


图片来源:X@TehranTimes79


短短48小时内,这条帖子的阅读量直接突破了100万。但很快,开源情报专家们就把这张图的底裤扒光了。


经过比对,这根本不是什么卡塔尔的雷达基地,而是巴林的一个区域。更荒谬的是,这图是用一张一年前的老照片强行用AI「捏」出来的。


怎么看出来的?有网友发现这张图片细看非常拙劣,虽然建筑看起来被炸毁了,但周围停放的车辆位置竟然和一年前一模一样;更离谱的是,所谓「爆炸后」的光照阴影角度,跟一年前那张晴朗日子的图分毫不差。


打败AI魔法,还是这朴素的五步


尽管目前大多数的AI生成内容,都被强制要求带上显示水印或者数字水印,但这套方案还是容易被绕过。


就拿Nano Banana生成的图片来说,官方提示会加入Gemini的Logo水印,和无法被肉眼察觉的Synth ID数字水印,但在社交媒体上,经过多轮的手动截图裁剪压缩等操作,Gemini就很难再识别到之前嵌入的水印。


在reddit上已经有相关绕过Synth ID水印的方法


1、抓细节,看不对劲的地方


有人问,既然最后都发现那些AI视频和图片破绽这么明显,为什么大家一开始没看出来?


理由其实很简单,当我们看一张AI生成的人脸时,我们的大脑会本能地寻找违和感,眼睛、皮肤纹理、耳朵的形状,这是我们几百万年进化出来的生物本能。


但是,当俯视一张从几百公里高空拍下来的建筑、道路和地形时,这种本能失效了。因为没有人天生知道,在特定分辨率的传感器下,一座炸毁的雷达站「应该」长什么样。


没有太多可以参考的信息,AI捏造的这些陌生内容,自然而然地就容易变成我们普通人眼里的客观事实。


在算法已经能完美模拟光影和肌肤纹理的今天,寻找破绽的逻辑已经变了。除了要打破这种需要依赖参考系的想法,找各种技术上的Bug,更多地是去寻找现实的逻辑断层。


例如,背景里不合时宜的建筑风格、人物违背常理的微小动作等。


未经查证的照片


在前段时间马杜罗被捕后,社交媒体上也疯传了几张他的「囚禁照」,外媒的视觉调查团队迅速发现,这些图片存在可疑之处,飞机窗户的设计与现实机型不符、马杜罗衣服在两张照片里不同。


虽然没有直接证据证明它们是假的,但这些疑点,也让媒体决定不刊登这些照片。


2、谁发的信息,比信息本身更重要


一张图片背后,发布者的身份往往比内容本身更能说明问题。



这张所谓的哈梅内伊遇害的照片,也在社交媒体上获得了550万次的浏览,但这个账号的主人,在自己的网页关于部分写着,「SilverTrade.com致力于提供贵金属行业最准确、最具洞察力和最及时的报道。」


还有马杜罗那张照片,即便是在Truth Social上发布,但多个新闻机构依然对图片的真实性心存疑虑。


最后,大多数的媒体是选择了以截图形式引用了整条帖子,而非单独呈现这张照片,很有一种「不信任但有新闻价值」的处理方式。


3、追踪数字足迹,历史记录不会说谎


AI制造的假新闻,最常见的手法是「挪用」旧素材。通过Google、TinEye等搜索引擎的反向图片搜索,甚至查看图片元数据(比如拍摄时间、设备型号),就能快速判断内容是否造假。



例如这张经典的篡改图片,只是在一张已有照片的前提下,通过传统的复制移动手段,就轻松骗过了一众媒体。


4、从时间和地点,验证关键背景信息


假设我们看到一段声称拍摄于某地的视频,我们可以通过Google Maps或卫星图像检查画面是否与该地点一致。


Google Earth会提供完整的历史图像和街景


还可以用SunCalc,通过画面里的阴影方向,推算出拍摄的大概时间。如果声称是昨晚拍的,但阴影显示是正午,基本可以判定造假。


在摄影圈,SunCalc也是一个精准计算太阳和月亮方位,找到拍摄黄金时刻的地理网站


5、善用深度研究,让AI对抗AI


现在几乎所有的AI工具都有自己的深度研究功能,像是之前我们总结的春节AI大战内容,让ChatGPT的深度研究,先跑上半个小时,为我们总结了这些信息。



深度研究的好处在于,AI生成的每一句话都附有来源链接,你可以直接看到信息出自哪里、属于什么性质。如果我们对数据精确度要求较高,还可以在提示词里加上:「对每一个结论,给出一个可信度判断。」


但要注意一点:深度研究可能靠谱,普通问答不太行。


直接问AI「这条新闻是真的吗」,它有时候会把社交媒体上某人随口发的推测,和正规报道混为一谈,给我们一个「看起来有理有据」的错误答案。深度研究至少让你能看到原始信息源,自己判断。


例如,当我们把这两张图片直接丢给AI,问「这张图片是由AI生成的吗?」



Gemini说这两张图都极有可能是基于同一张原图,进行了后期图像处理或AI换色生成的产物。而ChatGPT和豆包告诉我,那张红色的图片更大概率是AI生成的。


专门的图片篡改监测工具现在也有很多,有网友前几天还专门测试了一波市面上的十多款AI内容检测工具(包括hivedetect.ai、aiornot.com、copyleaks.com、以及部分通用AI工具),结果超过1000次的测试显示,


魔法打败不了魔法,用AI检测AI是一场注定破产的幻想。


图片来源:NYT文章(These Tools Say They Can Spot A.I.Fakes.Do They Really Work?这些工具声称可以识别人工智能造假。它们真的有效吗?)


AI检测工具可以作为参考,它能给我们一个方向,但无法直接做判断。


Adobe在PS 25周年的时候,还推出过一个图片真假小测验的网站,感兴趣的朋友可以去看看,当时的技术只能是纯PS,就已经能做到有些图片难以辨别,更不用说现在强大的AI。


https://landing.adobe.com/en/na/products/creative-cloud/69308-real-or-photoshop/index.html


「让子弹飞一会儿」


面对最近各种AI假图片、假新闻的泛滥,社交平台也开始了行动。


从今天起,X平台上的创作者如果上传AI生成的相关主题视频却未标注「这是AI制作」的,将被暂停90天的「创作者收入共享计划」。如果再次违规,永远无法从平台赚到广告分成。


X的平台分成向来可观,不少AI自媒体都有在X同步更新;年初X平台还更新内容激励计划,以首页出现的次数来对内容进行收入划分,同时鼓励长文的创作。


上下滑动查看更多内容|X产品负责人Nikita Bier发文称修改创作者收益分成


这条政策一出,X上的创作者和网友们都炸开了锅。有些人支持,「总算要管管了!」但也有人质疑,「为什么只针对冲突视频?其他领域的假内容不一样造成各种危害吗?」


我想即便这些措施涵盖了各个领域的假消息,实际的成效恐怕也并不乐观。毕竟,用户可以轻松地使用其他账户重新发布,而平台的内容审核,远远赶不上假图传播的速度。


在The Verge采访虚假新闻专家的文章里面提到,「普通人必须清醒地认识到,当前的数字环境,天然就是向操纵和欺骗倾斜的。」


现在看来更大的问题还是回到了,我们对AI伪造的警惕性仍然不足。但作为一个吃瓜群众,如果要自己对每一条新闻都要去做事实核查也太麻烦了。


保持耐心或许是更简单的方法,姜文电影里那句「让子弹飞一会儿」,会是我们在算法操纵下,最清醒的一种特立独行。

AI原生产品日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定