2026-02-19 19:05

批量生成黄片,AI黄谣把人害苦了

本文来自微信公众号: 非凡油条 ,作者:豆腐乳儿


今年春晚,AI也没少做广告,如今AI已经深入我们的生活了。


春节前后也是AI产品扎堆发布的时候,大家用AI新产品,发现AI视频生成可太厉害了,换个脸分分钟。


这就有可能出问题,近年来AI换脸危害已经很大了。


有些人要么出于恶意,要么为了牟利,用AI合成色情照片、视频,对他人身心造成严重伤害,连带着不小的财产损失。


比如去年广州国际车展后,网上很快流传一段视频,视频里的某品牌汽车前,一位绿裙女子做出低俗不雅的动作。


这样的不雅视频流传开,会让该车企和低俗挂钩,品牌损失惨重。


于是车企迅速辟谣该视频为“AI技术生成”,强调“从未邀请模特及演艺人员”,还报了警。


有法务部就是不一样,证据收集、辟谣、报警一气呵成,迅速查到了制作视频的人并且行政拘留了。


但普通人没有法务部,面对类似问题就非常棘手,尤其是现在AI换脸已经非常成熟,甚至能低成本批量生成不雅图片或视频。


以前没有AI生成图片或视频,光靠人工PS或者合成视频需要很高的技术水平,较长时间,修改痕迹也很重。


AI生成图片或视频刚出现的时候,也不太好用,需要多达50张多角度、高清晰度的照片,才能实现较为自然的视频合成,但技术门槛已经大大降低,合成速度也加快了。


如今AI技术进一步发展,只需要20张左右的照片就可以实现AI换脸,很多人在公共平台上的露脸照片可不止20张,这就让AI换脸门槛进一步降低。


自己不会换也不要紧,花个十几块钱就能定制一部换脸视频。


普通人面临的,就有可能是多次低成本AI换脸造谣——十几块钱,就能让任何人“有视频有真相“地泼上乱搞的脏水。


更严重的是,AI换脸造黄谣还会被用在诈骗上。


如今骗子找到一个人二十多张照片非常容易,拿这些照片,用AI换脸生成一段黄色视频,发给受害者。


受害者惊疑不定时,骗子就会威胁,不给钱就群发出去,让受害者丢脸,受害者会害怕视频传播,向骗子转账。


转账一次,骗子不会满足,也不会删除视频,反而过段时间接着敲诈受害者,美其名曰“删除费”、“手续费”。


与出于恶意污名化女性的AI造黄谣不同,这种合成AI黄片往往敲诈的是中老年男性。


中老年男性往往好面子,不熟悉新技术,又有钱,就容易被骗子用AI黄谣敲诈。


我相信我们的读者朋友们洁身自爱,遇到这种造黄谣,不管是不是AI合成的,都不会恐慌,只要自己清白,就知道这些视频都是假的。


不恐慌,就不会点击骗子给出的链接,不加骗子好友,也不会转账,而是第一时间报警。


春节期间,大家也要注意节前骗子冲业绩,说不定会用AI合成黄色视频反复轰炸你的手机。


大家可千万别上当。


“AI生成车展不雅视频”事件的背后https://mp.weixin.qq.com/s/QGVsPI74pDTtW_aA7U2tew?scene=1&click_id=1


不敢告诉子女!常州一六旬男子,突然收到自己的“不雅照”https://mp.weixin.qq.com/s/0Tsj3kySsaNRxOwlsb55kQ


阜阳有人收到合成不雅视频勒索短信!此类情况需警惕!https://mp.weixin.qq.com/s/5RPixUy4kn4mikambFIM8A


警惕!女性面容被恶意嫁接色情视频,几元就能“定制”https://mp.weixin.qq.com/s/6qsm9kx5Z0ZYd0zjatjSgA

AI创投日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定