【写在能源边上】ChatGPT的环境成本有多大
ChatGPT的环境成本有多大?
文/本刊记者 赵卉寒
从2022年11月至今,5个月过去了,但以ChatGPT为代表的大语言模型生成式AI 产品的热度依旧不减。
3月15日,ChatGPT的母公司OpenAI又发布了更为强大的“王炸”级产品——GPT-4。据悉,与此前的GPT系列模型相比,GPT-4 最大的看点之一是在文本之外还能够处理图像内容。在官方演示中,GPT-4只花了1~2秒的时间,便识别了手绘网站图片,并根据要求实时生成了网页代码制作出的几乎与手绘版一样的网站。
随后,3月22日,智能芯片设计公司英伟达宣布,将面向商业客户开放用于开发ChatGPT等人工智能技术的超级计算机。此外,英伟达还发布了新的芯片和软件,以降低聊天机器人等产品的日常运营成本。据悉,传统计算芯片需要两周时间才能完成计算任务,英伟达的智能芯片和软件只需要一晚就可以完成,并将所需电力从35兆瓦降至5兆瓦。
这场横扫全球的AI盛宴,让人们看到了人工智能的巨大爆发力。《纽约时报》称其为“有史以来最好的面向大众的人工智能聊天机器人”。埃隆·马斯克也表明:“ChatGPT好得吓人,我们离危险且强大的人工智能不远了。”
不过,以ChatGPT为代表的智能、高效的AI产品有一个无法忽视的问题——碳排放。越来越多的科学家和环境学家开始担心大语言模型生成产品的盛行,将付出巨大的环境代价。
这似乎是一个伪命题,人工智能的高效本就代表着节能,为何又成为新的“吞能兽”?先来看一组数据。
中国电子云超融合总架构师陈沙克在接受媒体采访时表示,OpenAI没有正式公布过Chatgpt的训练过程,但根据英伟达的统计,完全训练1000张A100GPU芯片需要一个月的时间,期间约耗电130万千瓦时、碳排放约520吨。
数据中心耗能“凶猛”早已是不争的事实。根据国际能源机构(IEA)的数据,数据中心是全球最大的能源消耗者之一,2021年全球数据中心用电量为220~320太瓦时,约占全球最终电力需求的0.9%~1.3%,而这还不包括用于加密货币挖矿的能源消耗。
相比数据中心,大语言模型产品所需的算力则更为巨大。有业内人士指出,以ChatGPT为代表的大语言模型之所以比此前的聊天机器人更智能,是因为它背后有着海量的数据支撑,“投喂”的数据越多,人工智能的“深度学习”效果越好,数据在其内部也才能更好地进行碰撞、对抗、反馈和消化。据资料显示,AI在学习或工作中推理和处理占算力消耗的80%~90%。随着大语言模型技术的开启,云计算需求增长,能耗将继续上升。
因此,通过使用绿色电力来降低碳排放,对于科技公司来说显得尤为重要。目前,全球已有不少大型科技公司,如苹果、谷歌、微软等都已宣布通过购买可再生能源来实现二氧化碳的净零排放。我国也有不少企业通过碳交易或购买绿电开启了低碳用能之路。
在供能方面,我国也在拓展更多的绿色能源。根据国家能源局的数据,2022年,我国风电、光伏发电新增装机容量突破1.2亿千瓦,达到1.25亿千瓦,连续三年突破1亿千瓦,再创历史新高。全年可再生能源新增装机容量1.52亿千瓦,占全国新增发电装机容量的76.2%,已成为我国电力新增装机的主体。
对于如何降低人工智能的碳排放,不少业内专家也给出了答案,例如通过提高硬件和应用的能效比、优化算法和模型结构等。不过,相比优化算法,更多地使用可再生能源或许才是未来解决人工智能碳排放的根本途径。