本文来自微信公众号: 斯坦福社会创新评论 ,作者:SSIR中文版,原文标题:《别让免费 AI,困住公益的未来》
过去几年,人工智能的可及性高到近乎不可思议。非营利组织、学校、公共机构和社会企业,只需极低的成本甚至零成本,就能使用先进的人工智能工具。项目申请、影响力评估、项目课程大纲、社区宣传活动方案、政策简报,如今都常与人工智能“共同撰写”。这种可及性被广泛称作人工智能的“民主化”(democratization),但它建立在脆弱的根基之上。
现实情况是,当前“免费”或享受高额补贴的人工智能时代,只是一个临时阶段,而非这项技术的稳定属性。随着人工智能从实验性工具转变为核心基础设施,其背后的经济要素,包括能源、硬件、隐私与市场支配力,将逐渐显现影响力。这会对公平性、公益事业,以及为受社会经济不平等影响最严重的社区提供服务的机构,产生严重影响。
如今的问题已不再是人工智能是否会成为付费的公用事业式服务,而是社会领域的机构,是否能参与塑造这一未来,还是只能被迫在不利的条件下被动适应。
人工智能不会在某一个瞬间突然“停止免费”。相反,它的可及性会在数年间逐步收紧,这一模式与其他数字平台的发展轨迹如出一辙。可预见的发展路径如下:
2025~2026年初:免费和低成本人工智能工具仍广泛可用,但高级功能开始向付费版本集中。
2026年末~2027年:免费产品运行速度变慢,功能受限加剧,而高上下文理解与隐私保护能力,以及垂直领域专用模型将转为付费服务。
2028~2029年:前沿模型与企业级系统将主要采用订阅制或按使用量计费的模式提供服务,定价与合作条款参照云服务合同模式开展商业谈判。
2030年及以后:人工智能将成为计量式公用事业,如同宽带和电力一样,不可或缺、明码定价,且深度嵌入各类关键系统。

这一转变并非仅由技术成熟度周期(hype cycles)的常规波动驱动影响,其根源在于现实的资源约束。
1.能源需求。数据中心的耗电量已在全球电力消耗中占据可观份额,而人工智能正成为用电量增长的主要驱动力。国际能源署预测,到2030年,数据中心的电力需求将翻一番以上,达到约945太瓦时,大致相当于日本当前的年用电量,而人工智能优化服务器(AI-optimized server)是这一增长的主要贡献来源。
在这样的规模下,无限制免费使用高性能模型,在经济和环境层面都难以为继。能源消耗、电网升级,以及相关的气候与水资源影响所产生的成本,终究需要有人承担。
2.硬件瓶颈。高性能人工智能的运行依赖专用芯片,而这类芯片长期处于供应短缺、价格高昂、产地高度集中的状态。这些加速器芯片的需求增速已远超供应能力。资源稀缺必然带来分配优先级的划分,而优先级划分几乎总会导致定价向资金雄厚的大型客户倾斜。
3.隐私的隐性成本。随着人工智能逐步渗透医疗、教育、社会服务和公共管理领域,各类机构对能够合规处理敏感信息的系统需求将持续提升。这一需求将从根本上改变人工智能的经济逻辑。当机构需要保护个人数据、适配本地场景、履行监管义务时,现有的面向开放通用场景设计的人工智能工具将无法满足需求。
机构需要能够处理内部信息(如患者病例、政策文件、课程资料)的人工智能系统,同时避免这些信息流入公共数据训练管道。要实现这一级别的隐私保护,就需要进行数据隔离与系统定制,这会推高计算需求,削弱大规模人工智能得以维持低成本的效率优势。
隐私保护还决定了日常使用中信息的存储与调取方式。当人工智能系统依赖包含敏感信息的文档或对话的存储表征(stored representations)时,这些表征必须加密并严格管理,这会进一步增加基础设施成本。此外,许多机构要求对人工智能的运行过程留存可审查的记录,以确保责任可追溯与合规性。安全、可信的人工智能绝非单纯的软件功能,而是一项需要持续投入的基础设施,但许多小型组织并不能负担这样的开销。
4.整合与平台力量。人工智能生态正围绕少数几家掌控基础模型、云基础设施和分发渠道的企业加速整合。这与更广泛的数字经济领域已被验证的发展模式高度相似:一旦平台实现规模化并形成用户依赖,其商业化进程就会加速,议价权便不再属于终端用户和公共利益主体。

社会领域正面临新型数字鸿沟的风险,其根源并非设备或网络接入问题,而是谁能负担得起高质量、高私密性的人工智能工具。许多服务边缘群体的非营利组织,早已在预算有限的情况下,依赖人工智能完成核心工作。随着免费人工智能资源的逐步缩减,它们将面临艰难抉择:要么削减服务能力,要么抽调直接服务经费为人工智能工具付费。若无干预措施,资源充足的机构将借助强大的人工智能系统持续发展,而资源匮乏的组织则会日益落后,即便社会对其服务的需求正在持续增长。

这一转型并非组织或领导者回避人工智能的理由,反而应把它当成以全新方式参与其中的契机——聚焦于基础设施、治理和公平性。基金会、非营利组织、公共机构和高校,都应在构建可持续、普惠的人工智能系统中发挥作用。首先,要将人工智能视为核心基础设施,而非免费的附加工具。机构应设立明确的人工智能专项预算,模拟未来数年的不同定价场景,评估现有项目对人工智能的依赖情况与深度。将人工智能与网络连接、云存储同等看待,能帮助机构在定价或可及性发生突变时从容应对。
第二,构建共享能力,而不是让每个组织孤立地发展人工智能能力。区域联盟、锚定机构(anchor institutions)和图书馆系统可整合资源,搭建共享人工智能实验室和计算中心,与供应商协商更优惠的合作条款,托管适配常规任务的开源模型,并为小型机构提供培训与技术支持。这种以“建设人工智能基础设施”为重点的模式,与全球公共利益技术领域的新兴理念相契合,能够确保基础设施而非一次性试点,成为创新与提供普惠服务的核心载体。
第三,机构可采用多模型、资源感知(resource-aware)的使用模式。并非所有任务都需要最先进的前沿模型:小型高效模型足以处理常规的文稿撰写与摘要工作,性能更强的系统可专门用于处理复杂或高风险决策。选择能源消耗透明、提供使用管控功能的供应商,既能降低成本与环境影响,也能保障优质工具的可及性。
美国的非营利组织无需独自建设人工智能能力。短期内最切实可行的路径,是加入由高校、图书馆系统和大型非营利机构主导的区域性“人工智能公用事业”(AI utility)平台,这类平台可协调共享计算资源、统一供应商合作条款,并提供共享支持服务。国家层面的模式已验证了这一方式的可行性,只是它们可能无法满足非营利组织的独特需求:由美国国家科学基金会(National Science Foundation,NSF)主导的国家人工智能研究资源(National AI Research Resource)试点项目,为合作方协调了计算资源、模型、数据、培训与用户支持的接入渠道;而社区所有的国家研究平台(National Research Platform)已为50多家机构实现了算力、存储与网络资源的共享。在此基础上,可叠加采用美国国家标准与技术研究院人工智能联盟(National Institute of Standards and Technology’s AI Consortium)制定的共享治理标准,确保系统符合伦理规范,能够切实履行使命。
社会领域领导者还必须投入资源,建设涵盖权力、成本与基础设施概念的人工智能素养体系。相关培训不应局限于提示词撰写,更要帮助员工、合作伙伴与社区成员理解模型的训练与部署逻辑、其对应的能源与资源需求,以及如何判断人工智能在特定场景中的适用性。这种深层次的素养提升,将同时强化机构的采购决策能力与政策倡导能力。
最后,社会领域必须直接参与相关政策与治理的讨论。随着人工智能成为工作、教育、医疗与公共管理的基础支撑,关于定价、透明度、可及性与数据治理的决策,将塑造未来数十年的社会公平格局。社会领域的机构可推动公共型、合作型人工智能公用事业等模式的发展,推动出台保障成本可负担接入权的监管政策,并支持针对开源模型与公益模型的激励机制。唯有它们的积极参与,方能确保人工智能基础设施朝着服务公共利益的方向发展,而非加剧现有的不平等。
低成本、高可及性的人工智能时代,让众多社会影响力组织得以开展尝试与创新。但这也让它们在无形中对正在发生变革的商业模式形成了依赖。
在人工智能的接入权彻底固化为私有化、无问责的公用事业模式之前,我们仍有一个狭窄的窗口期,去设计一套共享、公平、可持续的人工智能基础设施。如果人工智能真的要成为如电力、宽带一般的基础设施,那么民众就不能再做被动的消费者,必须成为共同设计者:搭建共享基础设施,坚持问责机制,确保人工智能的下一阶段不仅服务于市场,更能服务于公共利益。
| 01 | ●基金会每年该花多少钱?重思支出决策 |
| ►点击阅读 |
| 02 | ●打造社企财务可持续性:六条实战生存法则 |
| ►点击阅读 |
| 03 | ●复杂问题,需要用“玩”的方式解决 |
| ►点击阅读 |
