一个能沉默OpenAI的问题:人工智能究竟有多耗能?

  • 一个能沉默OpenAI的问题:人工智能究竟有多耗能?已关闭评论
  • A+
所属分类:娱乐生活

  【御龙天下科技】众所周知,机器学习消耗大量的能量。所有这些能够制作视频的人工智能模型都在消耗每小时兆瓦数的电量。但似乎没有人——甚至是开发这项技术的公司——能确切地说出成本是多少。

  有专家表示,这些数字只是人工智能总消耗量的一小部分。这是因为机器学习模型是非常可变的,能够以极大地改变其功耗的方式进行配置。此外,Meta、微软和OpenAI等公司根本不愿分享相关信息。

一个能沉默OpenAI的问题:人工智能究竟有多耗能?

  训练大模型需要大量的能源,比传统的数据中心活动消耗更多的电力。例如,训练像GPT-3这样的大型语言模型,估计要使用不到1300兆瓦时(MWh)的电力;大约相当于130个美国家庭每年消耗的电量。相比之下,流媒体一小时需要大约0.8千瓦时(0.0008兆瓦时)的电力。这意味着你必须观看162.5万小时才能消耗与训练GPT-3相同的能量。

  但很难说这样的数字如何适用于当前最先进的系统。能源消耗可能会更大,因为人工智能模型的规模多年来一直在稳步上升,而更大的模型需要更多的能源。另一方面,公司可能会使用一些经过验证的方法使这些系统更节能,这将抑制能源成本的上升趋势。

人工智能不是免费的

  人工智能公司hug Face的研究员Sasha Luccioni表示,随着人工智能变得有利可图,很多公司变得更加保密。回到几年前,像OpenAI这样的公司会公布他们训练制度的细节——什么硬件,多长时间。但Luccioni说,ChatGPT和GPT-4等最新型号根本不存在同样的信息。

  Luccioni认为这种保密部分是由于公司之间的竞争,另一部分是为了转移批评。人工智能的能源使用统计数据——尤其是它最无聊的用例——自然会让人把它与加密货币的浪费进行比较。“人们越来越意识到,所有这些都不是免费的,”她说。

一个能沉默OpenAI的问题:人工智能究竟有多耗能?

  去年12月,Luccioni和同事尝试对各种人工智能模型的推理能耗做出评估。他们在88个不同的模型上进行了测试,涵盖了一系列用例,从回答问题到识别物体和生成图像。在每种情况下,他们都运行了1000次任务,并估计了能量消耗。他们测试的大多数任务使用少量的能量,比如0.002千瓦时用于分类书面样本,0.047千瓦时用于生成文本。

  如果我们用我们在Netflix上观看一个小时的流媒体作为比较,它们分别相当于观看9秒或3.5分钟所消耗的能量。图像生成模型的数据明显更大,每1000个推论平均使用2.907千瓦时。智能手机的平均充电消耗0.012千瓦时,因此使用人工智能生成一张图像所消耗的能量几乎与给智能手机充电所消耗的能量一样多。

  Luccioni和她的同事测试了十种不同的系统,从生成64 x 64像素的微型图像的小型模型到生成4K图像的大型模型。研究人员还对所使用的硬件进行了标准化,以便更好地比较不同的人工智能模型。但实际上,软件和硬件通常都是针对能源效率进行优化的。

  Luccioni说:“这当然不能代表每个人的用例,但现在至少我们有了一些数字。”

生成式人工智能革命的全球成本

  这项研究提供了有用的相对数据,尽管不是绝对数字。它表明,人工智能模型在生成输出时需要比对输入进行分类时更多的功率。它还说明,任何涉及图像的东西都比文本更耗能。Luccioni说,尽管这些数据的偶然性可能令人失望,但这本身就说明了一个问题。

  她说:“人工智能革命带来的全球成本是我们完全不知道的,对我来说,这种蔓延尤其具有指示性。”“真正的原因是我们不知道。”

  如果我们想更好地了解地球的成本,还有其他方法可以采取。如果我们不是专注于模型推理,而是缩小范围呢?

一个能沉默OpenAI的问题:人工智能究竟有多耗能?

  这是阿姆斯特丹自由大学(VU Amsterdam)的博士候选人亚历克斯·德弗里斯(Alex de Vries)的方法,他在自己的博客Digiconomist上开始计算比特币的能源消耗,并使用Nvidia gpu(人工智能硬件的黄金标准)来估计该行业的全球能源使用情况。正如德弗里斯去年在《焦耳》(Joule)杂志上发表的评论中所解释的那样,英伟达占据了人工智能市场大约95%的销售额。

  该公司还发布了硬件的能源规格和销售预测,综合这些数据,德弗里斯计算出,到2027年,人工智能行业每年可能消耗85至134太瓦时,这与荷兰每年的能源需求大致相同。

  德弗里斯说,“到2027年,人工智能的用电量可能占全球用电量的0.5%。”这是一个相当重要的数字。

  国际能源署最近的一份报告也提供了类似的估计,表明由于人工智能和加密货币的需求,数据中心的用电量将在不久的将来大幅增加。该机构表示,目前数据中心的能源使用量在2022年约为460太瓦时,到2026年可能会增加到620至1050太瓦时,分别相当于瑞典或德国的能源需求。

  但德弗里斯说,把这些数字放在背景中是很重要的。他指出,在2010年至2018年期间,数据中心的能源使用量相当稳定,约占全球能耗的1%至2%。德弗里斯说,在这段时间里,需求肯定是上升的,但硬件的效率提高了,从而抵消了需求的增长。

大模型越做越大

  他担心的是,人工智能的情况可能会有所不同,因为企业倾向于在任何任务中简单地投入更大的模型和更多的数据。一旦模型或硬件变得更高效,它们就会把这些模型做得更大。

  效率的提高能否抵消不断增长的需求和使用量,这个问题是无法回答的。和卢奇奥尼一样,德弗里斯对缺乏可用数据表示遗憾。

一个能沉默OpenAI的问题:人工智能究竟有多耗能?

  一些搞人工智能的公司声称,技术可以帮助解决这些问题。普里斯特代表微软表示,人工智能“将成为推进可持续发展解决方案的有力工具”,并强调微软正在努力实现“到2030年实现碳负、水正和零浪费的可持续发展目标”。

  但一家公司的目标永远不可能涵盖整个行业的全部需求。可能需要其他方法。

  Luccioni说,她希望看到公司为人工智能模型引入能源之星评级,让消费者可以像比较电器一样比较能源效率。对于德弗里斯来说,我们的方法应该更基本:我们是否需要用人工智能来完成特定的任务?他说:“因为考虑到人工智能的局限性,它可能在很多地方都不是正确的解决方案,我们将浪费大量的时间和资源来找出这个困难的方法。”