这一年,我和ChatGPT聊掉的电能充500次手机
2025-12-25 14:45

这一年,我和ChatGPT聊掉的电能充500次手机

本文来自微信公众号: 环球科学科研圈 ,作者:环球科学科研圈


前几天,ChatGPT首次面向用户推出了“年度使用报告”,和国内各大APP走起了相同路线。


在这份“年终总结”里,用户不仅可以看到自己过去一年和ChatGPT对话多少次,聊了些什么,倾诉欲爆棚(or工作量爆棚)是哪一天,还能看到自己“对待”这个AI工作助手/学术导师/精神伴侣/情绪沙包/导购主播etc...的语言风格。


这种直面自己最真实需求的回顾,很多时候准确得惊人。比如此时正在写下这句话的我,也不得不承认ChatGPT严选的年度代表性对话直击痛点,一个为流量奔波操劳的新媒体牛马形象跃然纸上:


不过你有没有想过,今年我们和ChatGPT一起浪费的这些Token聊出来的成果,消耗了多少能源?


AI能耗谜团


随着人工智能(AI)技术在日常应用中的普及,研究者开始关注一个鲜少被普通用户直观感知的重要课题:AI在生成内容时实际消耗了多少能量,以及这些消耗如何随着输出内容的长度和类型而变化。近日,AI World网站发布的一份数据分析揭示了输出长度如何显著影响AI的能源足迹。


这份分析基于Hugging Face推出的AI能源得分排行榜,对不同模型类别在相同数量查询(如每1000次)下的GPU能耗进行了比较。结果显示,不同模型的能耗差异极大:一些高复杂度的推理模型(reasoning models)在执行任务时的能耗远高于简单文本生成模型。



例如,LGAI-Exaone研发的Exaone-4.0-32B每千次查询耗电18.99千瓦时,相当于为智能手机充电700次(15千瓦时),或让10瓦LED灯泡持续点亮约六周(10千瓦时);OpenAI的Gpt-oss-120b每千次查询消耗8.50千瓦时,足以将1.5升家用水壶烧开约70次。如果按照这个数据做一个不恰当的推算,过去一年中我与ChatGPT发生1000次对话所消耗的电能,大约能够给手机充电至少500次。


与之形成鲜明对比的是,并非所有AI在完成任务时都背负着沉重的能源负担。例如微软的resnet-18每处理1000次查询仅耗电0.0026千瓦时,而文本生成模型中能效最低的distilgpt2每千次查询耗电量仅为0.00131千瓦时,相当于给智能手机充电约6.5%的电量,或相当于标准电水壶烧水一分钟的耗电量(0.12千瓦时)。


这种差异的关键因素在于输出长度和任务复杂性。推理模型通常生成更长、更详细的回答或分步解释,其输出令处理器在更长时间内保持运算状态,从而提高了总体能耗。而标准文本生成模型倾向于给出更简洁、直接的回复,这意味着较低的输出长度和较少的计算周期,从而减少了能量使用。


当然,这种差异说明不能简单地以模型规模或参数数量来评估AI能耗,而必须结合任务类型、输出长度和实际使用场景来全面衡量。长输出(如详细解释或复杂推理)的能耗累积效应尤其明显,在大规模应用和高频查询环境中,其整体能源和碳足迹潜力显著提升。


总体而言,AI输出的能耗不仅与模型本身的结构有关,更受输出长度和任务类型的显著影响。对于学界和业界来说,如何在不牺牲用户体验的前提下进一步压缩能源使用,将是我们这个亟需完成绿色能源转型的社会共同关注的重要课题。


彩蛋时间!


根据“科研圈”在小红书平台的(非常)不完全调研,中文世界的人们都是这样使用ChatGPT的。


首先,大家对这位AI助手的能力似乎也没那么满意:


不过,学生们还是愿意把TA当成“对师宝具”使用:


学术群体则可能在与TA的交流中经历一个完整的“发现-质疑”周期:


甚至不惜上演最智障一集:


TA是职场牛马们最可靠的伙伴和职业发展咨询对象:


算法不太灵光的时候,也让很多人体会了一把逐渐破防的心路历程:


还有人发现自己好像即将/已经/没办法当冤大头:


当然,也有将言简意赅做到极致的用户,最常用的提示词就是这么简单高效:

AI原生产品日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP