人工智能无处不在,但是以什么价格为环境?我们知道,像Chatgpt这样的模型需要巨大的计算能力,因此需要大量的能量。但是,他们真的不仅消耗了对Google的研究吗?这些数字有所不同,辩论是联系的,AI的生态影响是一个燃烧的主题。让我们对其中一些数字的关注点,远非没有兴趣。

IA和能耗:培训的主要需求
大型AI模型(例如Chatgpt)需要巨大的操作。它从他们的训练阶段开始。马萨诸塞大学的一项研究表明,单一的AI模型可能会发出多达626,000公斤的二氧化碳,相当于纽约和北京之间的飞机乘坐125次往返。除此之外,培训往往会联系起来。
一旦对模型进行了培训,它将继续产生影响:发送给chatgpt的每个请求都需要大量的IT资源。与Google搜索不同,在已经索引的巨大数据库中恢复了结果,像chatgpt这样的AI通过依靠数十亿个参数实时生成其响应。
第一个估计是最终估计:CHATGPT请求的消耗能量是Google Research的10倍。但是这些数字最近受到质疑。
根据Epoch AI报告,Chatgpt查询的平均能耗约为0.3瓦小时,几乎与Google Research相同。我们与旧研究中宣布的3个局部相距甚远。这种下降在很大程度上是通过改善数据中心中使用的基础架构和优化跳蚤来解释的。
换句话说,至少在个人规模上提出的问题对Chatgpt提出的问题的影响与经典研究的影响不会有很大不同。

但是真正的问题是数据中心的爆炸
即使对Chatgpt的孤立请求并没有那么多消耗,AI的大规模发展也提出了另一个问题:数据中心的总体消费。
如今,这些基础设施占全球电力消耗的1%至1.5%,但并不是那么大,但是随着AI使用的增加,这个数字可能会飙升。微软和Google已经在新数据中心投资了数十亿美元,因为需求爆炸了。谁说更多的服务器,必然说更多的能量消耗了。
问题在于,这些服务器目前正在运行,通常是通过化石燃料的电力来放大碳足迹。很多,但是过渡可能需要时间。这也是为什么有些人转向法国建立新基础设施的原因之一:我们的大量核车队。

绿色AI的解决方案?
面对这些挑战,探索了几条轨道,以限制AI的环境影响:
优化基础架构:使用更有效的跳蚤并改善服务器冷却以减少能耗。
转到可再生能源:几个科技巨头(,微软,…)已经投资解决方案,以太阳能或风能供应其数据中心。
鼓励透明度:强加公司发布其能耗并采用标准以比较不同AI的碳足迹。

那么,我们是否应该避免使用AI来保存地球?
AI具有不可否认的优势,但其生态影响是真实的。幸运的是,技术正在进步并限制其能耗。
那么,对Chatgpt的要求是针对环境的犯罪吗?显然,只不过是Google搜索。但是,随着用途的爆炸和AI在我们日常生活中的繁殖,这是数据中心的总体消费,这成为一个关键问题。
简而言之,每次您问一个问题时,都不需要感到内gui。但是,如果科技巨头没有使他们的基础设施清洁剂,那么它仍然可能成为一个真正的问题...