谷歌发布千元级TPU芯片,TensorFlow换Logo推出2.0新版
2019-03-07 09:52

谷歌发布千元级TPU芯片,TensorFlow换Logo推出2.0新版

微信公众号:量子位(ID:QbitAI)

作者:栗子、晓查


今天凌晨,谷歌一年一度的TensorFlow开发者大会在加州举行。明明应该是一场软件盛会,却被生生开出了硬件发布会的味道。


谷歌在会上发布了两款AI硬件:售价仅千元搭载着TPU的开发板;可以为Linux机器学习推理加速的计算棒。它俩取代软件成了本次发布会的主角。



当然还有照例升级的TensorFlow 2.0 Alpha版,版本号提升的同时,Logo也变成时下流行的扁平化设计。



在移动设备运行AI模型越来越主流的今天,用于部署在边缘设备上的TensorFlow Lite终于迎来了1.0版。


下面就让我们一起来回顾这场发布会的亮点吧。


发布会主角Coral


Coral开发板(Coral Dev Board)是一款售价150美元(折合人民币约1000元)的小型计算机,具有可拆卸的模块化系统和一个定制的TPU芯片,类似于树莓派。



Coral中的Edge-TPU尺寸大约只有一枚硬币的1/4,拥有1GB的LPDDR4内存和8GB的eMMC存储,安装Mendel版Linux或者Android,可以进行本地的离线运算。



它不训练机器学习模型,而只是用TensorFlow Lite进行推理预测,因此比全栈框架更节能。


Coral能够以每秒30帧的速度在高分辨率视频上运行深度前馈神经网络,或者以每秒超过100帧的速度运行MobileNet V2这样的单一模型。



这位妹子现场用Coral展示了一个有趣的图像分类应用。只需要开发板加摄像头,再加几个按钮而已。


右边的四个按钮,各自代表一个类别。


给AI看一只橘子,连按十几下黄色按钮。


再看到橘子的时候,黄灯就会亮起。



再给AI看TF的标志,也是橙色的,连按十几下红色按钮。


然后,再看到标志的时候,红灯就会亮起。



这时候,就算再把橘子放到摄像头前,AI也不会被迷惑,毫不犹豫地点亮黄灯。


同时,谷歌还发布了一款Coral USB加速器,体内同样包含一颗Edge TPU,可以在任何64位ARM或x86平台的Debian Linux上运行。



Coral USB加速器售价75美元,可以加速树莓派和Linux系统的机器学习推理。


谷歌不是第一个发布此类产品的厂商,英特尔早在几年前就发布过USB神经网络加速计算棒,但是神经计算棒只支持Caffe,而Coral支持Caffe、TensorFlow和ONNX。


由于PyTorch能转成ONNX,所以Coral实际上也能支持PyTorch。


连竞争对手Facebook的大神Yann LeCun,也在推特上给出一个好评:“Nice feature rundown at Hackaday”。



此外还有一款售价25美元、500万像素的相机配件。


前两款硬件已经可以去官网订购,和查看详细技术文档:https://coral.withgoogle.com/


TF 2.0 Alpha



TensorFlow团队表达了对Keras更深的爱。


用tf.keras高层API,可以有效简化TF的使用。


团队说,从前tf.keras的设定用来做小模型的,要扩大规模怎么办?


估计器 (Estimators) 就是强大的工具。


在2.0里,tf.keras已经整合了Estimators的能量:



如此,便不用在一个简单API和一个可扩展API之间,再做多余的选择。


死磕Keras,扔掉其他API,就是为了减少重复。


除此之外,就是Eager Execution变成了默认设定。有了它,除了执行起来更加快捷,debug也容易一些:


“可以使用 Python 调试程序检查变量、层及梯度等对象。”


快速上手


如果想要丝滑入门TF 2.0的Alpha版,可前往TensorFlow新鲜设计的友好网站,那里有教程和指南:


https://www.tensorflow.org/alpha



团队温馨建议,先观察一下“Hello World”示例,分为初学者版和老司机版:


初学者版,用的是Keras Sequential API,最简单的入门大法;


老司机版,展示了怎样用命令式来写正向传播、怎样用GradientTape来写自定义训练loop,以及怎样用tf.function一行代码自动编译。


然后,再去读Effective TensorFlow 2.0等等指南。


不止这些,还有AutoGraph指南,代码升级指南,以及其他Keras相关指南,一应俱全。


还有新课


随着TF 2.0 Alpha版一同发布的,还有两门深度学习课程,零基础可食用。


其中一门,吴恩达老师参与了课程开发,叫做针对人工智能、机器学习和深度学习的TensorFlow入门:



这是一套实践课程,会教你在TensorFlow里面搭建神经网络、训练自己的计算机视觉网络,再利用卷积来改善网络。


课程分四周》


第一周,了解一种编程新范式。


第二周,入门计算机视觉。


第三周,用CNN增强计算机视觉。


第四周,给网络喂食真实世界的图像。


另一门,是优达学城的免费课,叫做针对深度学习的TensorFlow入门。




第一节课还在了解课程大纲,第三节课就已经要训练自己的模型了:



现在,前四节课已经上线。第五节待续中。


给手机用的TF Lite


介绍完TF 2.0后,谷歌TensorFlow Lite的工程师Raziel Alvarez上台,TF Lite 1.0版正式上线。


TensorFlow Lite是一个为移动和嵌入式设备提供的跨平台解决方案。谷歌希望让TensorFlow能够运行在更多设备上。


除了PC和服务器以外,我们的生活中还有像手机、智能音箱、智能手表等设备需要用到机器学习模型,而它们都是无法运行TensorFlow的。


要让这些设备运行TensorFlow需要面临以下挑战:计算力不足、存储空间有限、电池限制。



必须要有个轻量级(Lite)框架能将机器学习模型部署在移动和IoT设备上的。


TensorFlow Lite就是为此而诞生,它于2017年5月在谷歌I/O开发者大会上首次推出,目前它已经部署到超过20亿台设备中,主要是通过以下一些软件,包括谷歌官方应用和两家来自中国的应用——爱奇艺、网易。



接着谷歌邀请了来自中国的网易机器学习工程师Lin Huijie介绍了TensorFlow Lite在“有道”中的应用。


Lin Huijie说,网易用它实现了30~40%的图片翻译加速。



谷歌表示为移动设备部署TF Lite非常方便,只需用TensorFlow打包好模型,再用TF Lite转换器将之转化为TF Lite模型。


经过TF Lite的优化后,设备在CPU上的性能达到原来的1.9倍,在Edge TPU上的性能最高提升了62倍。



其他


除了以上几款硬件和软件外,谷歌今天还发布了TensorFlow Federated,和TensorFlow Privacy。


TensorFlow Federated是一个开源框架,用来训练来自不同位置数据的AI模型。TensorFlow Privacy能让开发人员更容易训练具有强大隐私保障的AI模型。


另外在发布会上亮相的有:TensorFlow.js 1.0;Swift for TensorFlow 0.2。               

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定