【数据创新中心】近日发布了一份名为《重新思考对人工智能能源使用的担忧》的报告。这份报告由Daniel Castro撰写,于2024年1月29日发布。报告深入剖析了人们对人工智能(AI)能源消耗的担忧,并探讨了这些担忧背后的事实与误解。报告指出,尽管人工智能技术的快速发展引起了对其能源消耗和环境影响的关注,但许多早期关于AI能耗的预测和说法往往夸大其词,误导公众。报告通过详细的数据和案例分析,阐明了AI的真实能源足迹,并提出了政策制定者应如何合理评估和应对AI能源消耗的一系列建议。这份报告不仅为我们提供了一个全面审视AI能源问题的视角,还包含了关于如何平衡技术创新与环境保护目标的丰富内容。
在数字化时代,人们对人工智能(AI)的依赖日益增加,随之而来的是对AI能耗及其对环境可能产生影响的担忧。然而,一份由丹尼尔·卡斯特罗撰写的报告《重新思考对人工智能能源使用的担忧》为我们提供了一种不同的视角。该报告由数据创新中心在2024年发布,深入探讨了AI能源使用的实际情况,并对一些广泛传播的误解进行了纠正。
报告指出,过去有关数字技术能耗的预测常常被夸大。例如,20世纪90年代末,一篇福布斯文章曾预测,数字互联网经济将很快占据一半的电网供电。然而,这一预测并未成真。实际上,根据国际能源署(IEA)的估计,现代数据中心和数据传输网络的能耗大约占全球电力使用的1-1.5%。
同样,AI的能源消耗也受到了类似的夸大预测。报告中提到,尽管AI模型的训练确实需要消耗大量能源,但这些数字经常被错误地估计。例如,一项研究错误地估计了训练一个AI模型的碳排放量,而实际上,经过更正后的数据显示,真实的排放量远低于最初的估计。
报告还强调,AI模型的能源效率正在不断提高。随着技术的进步,新模型的训练所需能耗正在降低。例如,Google的GLaM模型,尽管比GPT-3大近7倍,但其训练所需能耗却减少了2.8倍。此外,使用不同能源混合的数据中心也会对AI模型的碳排放产生影响。
在实际应用中,AI模型的“推理”过程,即模型根据给定输入得出结果的过程,其能耗占据了AI系统总能耗的大部分。例如,亚马逊网络服务估计,AI模型的成本中有90%来自于推理过程。这表明,随着AI技术的普及,其在运行过程中的能源消耗将成为我们关注的重点。
值得注意的是,AI技术的发展并非孤立于社会经济之外。报告指出,AI的能源使用受到经济考虑的限制。建设和运营数据中心的成本非常高,企业不会长期提供成本高于收入的服务。此外,AI的性能提升速度将随着时间推移而减慢,因为某些领域的改进空间已经变得有限。这也意味着,开发者将更加关注模型的优化,而不是追求边际性能提升。
技术创新也将在提高AI能效方面发挥关键作用。过去十年中,全球数据中心的需求大幅增加,但数据中心的能效却通过硬件、虚拟化和数据中心设计方面的改进而提高了。类似地,AI领域的创新,如更高效的GPU和更紧凑的AI模型,将继续推动能效的提升。
报告还提到,AI的能源足迹分析往往忽略了替代效应。数字技术通过替代实体活动来帮助减少碳排放,AI也将通过提高许多活动的数字化水平和效率来产生类似的影响。例如,使用AI撰写文本或创建图像的碳排放量远远低于人类执行相同任务的碳排放量。
总而言之,AI在应对全球气候变化方面具有重要作用。它可以支持清洁能源技术,优化工业流程,减少浪费,并提高能源使用效率。大型科技公司已经做出了减少碳足迹的承诺,并且在开发和部署AI时也在考虑能效。
政策制定者在考虑AI的能源使用时,应该采取合理的措施,确保AI成为解决方案的一部分,而不是问题的一部分。这包括制定AI模型的能源透明度标准,寻求在能源透明度方面的自愿承诺,以及使用AI来帮助政府运营脱碳。
这篇文章的灵感来自于《重新思考对人工智能能源使用的担忧》这份报告。除了这份报告,还有一些同类型的报告,也非常有价值,推荐阅读,这些报告我们都收录在同名星球,可以自行获取。
以上为节选样张,关注公众号【蝉鸣报告】回复领取PDF完整电子版(无广告)。
【蝉鸣报告】每日更新最新硬核报告,覆盖产业报告、全球化、经济报告、趋势等全领域。