黑白电影时代的卓别林,第一次在镜头下有了颜色
2019-05-08 17:48

黑白电影时代的卓别林,第一次在镜头下有了颜色

本文来自微信公众号:量子位(ID:QbitAI),作者:铜灵


半个世纪前拍摄的黑白老旧电影,现在迎来了人生的“第二春”。


在AI的帮助下,这些只有黑白灰三色的视频片段,已经变成了彩色的。


在Facebook的F8大会上,国外技术小哥Jason Antic展示了一种叫DeOldify的AI模型,这种技术为老电影上色效果堪称惊艳。


不信?直接看效果:


比如,1960年的美国惊悚恐怖电影《惊魂记》:



用AI上色后的毫不违和,人脸部分的妆容也不别扭:



黑白电影时代的幽默大师卓别林,第一次在镜头下有了颜色:



89年前的美国电影Reefer Madness,就这样被轻松还原了:



输入黑白灰,输出红绿蓝,这个AI模型开始大火。Jason Antic小哥的推特收获了近800赞,推特网友直呼“Amazing!!!”、“very cool”、“wow”。



不过,这还不是DeOldify模型的全部实力。


在线试玩


除了视频,DeOldify还能处理老旧的黑白照片和图像。


比如1936年Dorothea Lange的摄影作品《移民母亲》:



1920年在卧室放松的瑞典妇女:



1911年的Thanksgiving Maskers:



1941年在农场的Lemuel Smith先生及其夫人以及他们年幼的孩子们:



1890年代末的挪威新娘:



1880年吸食鸦片的中国人:



以上这些画作的上色,均由DeOldify完成。无论是人像还是场景,或是绿油油的田园景象,这只AI上色画师的处理都自然完美。


好消息是,这个为图像上色的模型现在还有了demo,你也能在线试玩了。


试玩地址:https://colorize.cc/


操作也非常简单,传入一张黑白图像,输入自己的邮箱地址,不一会儿就能收到上了色的版本。



高效的NoGAN


上色大师DeOldify是怎么做出来的?


作者小哥表示,这背后是一套名为NoGAN的架构。他自称这是一种奇怪,但是非常高效的图像到图像的训练方法。


这种深度学习模型借鉴了当前多种主流技术方法,包括:


自注意生成对抗网络(Self-Attention Generative Adversarial Network)


生成器是一个预训练的Unet,小哥进行了一个非常简单的转换过程,将其修改成了具有谱归一化和自注意力。


相关研究:https://arxiv.org/abs/1805.08318


两个时间尺度更新规则


也就是说这是一个一对一的生成/辨别迭代,并且具有更高的辨别器学习率。这种修改能够确保辨别器在生成器训练前被“捕获”。


相关研究:https://arxiv.org/abs/1706.08500


生成器的损失分为两部分


一是基于VGG16的基本感知损失(或特征损失),这让生成模型更偏向于输入生成图像。二是来自辨别器的损失,因为仅单一模仿输入并不能带来很好的生成结果,可能会出现一些棕色/绿色/蓝色的简单堆叠来欺骗检测。


所以需要意识到,生成对抗网络的本质就是学习损失函数。


NoGAN


重头戏来了,NoGAN是一种新型的GAN训练方法,能用来解决此前GAN训练过程中的关键问题。


NoGAN的相关论文虽然还没有放出,但小哥在Github中大致介绍了NoGAN的特点。


此前,训练模型的大部分时间都用在了预训练生成器和critic这一部分,但NoGAN可以花费最少的时间直接进行训练。


这种方法的训练流程为:


先用常规方法训练具有特征损失的生成器,接下来从中生成图像,并把辨别器当成一个二元分类器,区分输出图像和真实图像之间的差距。对于辨别器来说有一个拐点,在拐点附近生成图像质量最佳。为了找到这个拐点,小哥也只能通过数次尝试,没有巧方法。


NoGAN训练还有一个关键问题,可以在最初GAN训练后,用相同的方式对生成的图像重复进行预训练。


Github地址:https://github.com/jantic/DeOldify/blob/master/README.md


本文来自微信公众号:量子位(ID:QbitAI),作者:铜灵

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定