本文来自微信公众号: 环球科学科研圈 ,作者:环球科学科研圈
前几天,ChatGPT首次面向用户推出了“年度使用报告”,和国内各大APP走起了相同路线。
在这份“年终总结”里,用户不仅可以看到自己过去一年和ChatGPT对话多少次,聊了些什么,倾诉欲爆棚(or工作量爆棚)是哪一天,还能看到自己“对待”这个AI工作助手/学术导师/精神伴侣/情绪沙包/导购主播etc...的语言风格。
这种直面自己最真实需求的回顾,很多时候准确得惊人。比如此时正在写下这句话的我,也不得不承认ChatGPT严选的年度代表性对话直击痛点,一个为流量奔波操劳的新媒体牛马形象跃然纸上:
不过你有没有想过,今年我们和ChatGPT一起浪费的这些Token聊出来的成果,消耗了多少能源?
AI能耗谜团
随着人工智能(AI)技术在日常应用中的普及,研究者开始关注一个鲜少被普通用户直观感知的重要课题:AI在生成内容时实际消耗了多少能量,以及这些消耗如何随着输出内容的长度和类型而变化。近日,AI World网站发布的一份数据分析揭示了输出长度如何显著影响AI的能源足迹。
这份分析基于Hugging Face推出的AI能源得分排行榜,对不同模型类别在相同数量查询(如每1000次)下的GPU能耗进行了比较。结果显示,不同模型的能耗差异极大:一些高复杂度的推理模型(reasoning models)在执行任务时的能耗远高于简单文本生成模型。

例如,LGAI-Exaone研发的Exaone-4.0-32B每千次查询耗电18.99千瓦时,相当于为智能手机充电700次(15千瓦时),或让10瓦LED灯泡持续点亮约六周(10千瓦时);OpenAI的Gpt-oss-120b每千次查询消耗8.50千瓦时,足以将1.5升家用水壶烧开约70次。如果按照这个数据做一个不恰当的推算,过去一年中我与ChatGPT发生1000次对话所消耗的电能,大约能够给手机充电至少500次。
与之形成鲜明对比的是,并非所有AI在完成任务时都背负着沉重的能源负担。例如微软的resnet-18每处理1000次查询仅耗电0.0026千瓦时,而文本生成模型中能效最低的distilgpt2每千次查询耗电量仅为0.00131千瓦时,相当于给智能手机充电约6.5%的电量,或相当于标准电水壶烧水一分钟的耗电量(0.12千瓦时)。
这种差异的关键因素在于输出长度和任务复杂性。推理模型通常生成更长、更详细的回答或分步解释,其输出令处理器在更长时间内保持运算状态,从而提高了总体能耗。而标准文本生成模型倾向于给出更简洁、直接的回复,这意味着较低的输出长度和较少的计算周期,从而减少了能量使用。
当然,这种差异说明不能简单地以模型规模或参数数量来评估AI能耗,而必须结合任务类型、输出长度和实际使用场景来全面衡量。长输出(如详细解释或复杂推理)的能耗累积效应尤其明显,在大规模应用和高频查询环境中,其整体能源和碳足迹潜力显著提升。
总体而言,AI输出的能耗不仅与模型本身的结构有关,更受输出长度和任务类型的显著影响。对于学界和业界来说,如何在不牺牲用户体验的前提下进一步压缩能源使用,将是我们这个亟需完成绿色能源转型的社会共同关注的重要课题。
彩蛋时间!
根据“科研圈”在小红书平台的(非常)不完全调研,中文世界的人们都是这样使用ChatGPT的。
首先,大家对这位AI助手的能力似乎也没那么满意:
不过,学生们还是愿意把TA当成“对师宝具”使用:
学术群体则可能在与TA的交流中经历一个完整的“发现-质疑”周期:
甚至不惜上演最智障一集:
TA是职场牛马们最可靠的伙伴和职业发展咨询对象:
算法不太灵光的时候,也让很多人体会了一把逐渐破防的心路历程:
还有人发现自己好像即将/已经/没办法当冤大头:
当然,也有将言简意赅做到极致的用户,最常用的提示词就是这么简单高效:
