kaiyun中国官方网站再证据输出与预期的相反反复协调参数-kaiyun下载
kaiyun下载 首页 关于我们 产品中心 新闻资讯 在线招聘 联系我们
  • 首页
  • 关于我们
  • 产品中心
  • 新闻资讯
  • 在线招聘
  • 联系我们
  • kaiyun中国官方网站再证据输出与预期的相反反复协调参数-kaiyun下载
    发布日期:2024-07-01 04:12    点击次数:113

    kaiyun中国官方网站再证据输出与预期的相反反复协调参数-kaiyun下载

    最近kaiyun中国官方网站,一则对于AI能耗的数据引起了平素宽恕:只是是GPT-4的GPU磨砺,一次就需要赔本2.4亿度电。这一惊东谈主的数字不仅泛动了科技界,也激发了公众对AI时代能耗问题的深刻反念念。本文将带你深入探讨AI为什么如斯耗电,它们用掉的电都跑到那里去了,以及能否回收这些电鼎新成的能量。

    AI的电力赔本:弘大的数据中心

    咱们所说的AI,主要指的是生成式东谈主工智能(Generative AI),而其中一大部分是基于大讲话模子(Large Language Models, LLM)的生成式AI。为了磨砺和运行这些模子,必须依赖大范围的数据中心。这些数据中心由浩瀚干事器组成,而干事器赔本的电能绝大部分会鼎新为热能,最终通过水冷系统开释出来。因此,不错说AI的数据中心是一个巨大的“电沸水器”。

    这一比方听起来简略有些奇怪,因为干事器处理的是信息,可是信息处理也需要赔本能量。

    信息处理与能量赔本

    1961年,IBM公司的物理学家拉尔夫·兰谈尔(Rolf Landauer)提议了“兰谈尔旨趣”(Landauer's Principle)。这一表面指出,诡计机中存储的信息发生不可逆变化时,会向环境荒疏热量,这个热量与诡计机的温度筹办。温度越高,荒疏的热量越多。

    兰谈尔旨趣将信息处理与热力学第二定律筹办起来。不可逆的信息处理操作会导致物理天下中熵的增多,从而赔本能量。这一表面尽管在提议之初遇到质疑,但连年来已被实考证明。2012年,《当然》杂志发表了一篇著述,盘考团队初度测量到一“位”数据被删除时开释的微量热量,随后几次寂然本质也考证了这一表面。

    AI大模子的诡计赔本

    AI大模子的责任经由不错分为磨砺和推理两个阶段。在磨砺阶段,领先需要集合和预处理浩瀚文本数据,然后在相宜的模子架构中开动化模子参数,处理输入数据,生成输出,再证据输出与预期的相反反复协调参数,直到模子性能不再权臣进步。在推理阶段,需要加载磨砺好的模子参数,预处理需要推理的文本数据,并证据学习到的讲话功令生成输出。

    岂论是磨砺照旧推理,都是一连串的信息重组经由,相同除名兰谈尔旨趣。模子参数越多,需要处理的数据越多,所需的诡计量和赔本的能量也就越大,开释的热量也随之增多。

    焦耳定律与更“大头”的能耗

    除了信息处理自己的能耗,更大的赔本来自于电流产生的热能。今天的电子诡计机建筑在集成电路基础上,每个芯片中包含很多晶体管。这些晶体管通过改换电压齐全逻辑运算,改换电压则需要电子流入或流出,而电子流动就组成了电流。由于电路中存在电阻,电流会产生热量。焦耳定律告诉咱们,热量与电流平方成正比,与导体电阻成正比,与通电时代成正比。

    跟着集成电路时代的发展,芯片中的晶体管变得极其微弱,单个晶体管产生的热量并未几,但芯片上的晶体管数目已达到惊东谈主的范围。举例,IBM的等效2纳米制程芯片中,每平方毫米有3.3亿个晶体管,再小的热量乘以这个范围,限定也相配可不雅。

    今天的芯片单元体积功率,比太阳中枢卓绝好几个数目级。典型的CPU芯片功率大要是每立方厘米100瓦,即每立方米1亿瓦;而太阳中枢的功率只消每立方米不到300瓦。

    GPT-4的能耗实例

    在OpenAI磨砺大讲话模子GPT-4时,完成一次磨砺需要约三个月时代,使用大要25000块英伟达A100 GPU。每块A100 GPU领有540亿个晶体管,功耗400瓦,每秒可进行19.5万亿次单精度浮点数运算。这么诡计下来,仅这些GPU一次磨砺就用了2.4亿度电,这些电能险些一王人鼎新为热能。这些能量不错将约200万立方米的冰水——十分于1000个奥运会要领游池塘的水量——加热到隆盛。

    AI的范围与能耗

    AI模子的范围越大,所需的诡计和能耗也就越大。GPT-3模子领有1750亿参数,而GPT-4领有1.8万亿参数,是GPT-3的十倍。要磨砺这种范围的模子,需要在大范围数据集上反复迭代,每次迭代都需要诡计和协调数十亿、数百亿乃至数千亿个参数的值,这些诡计最终确以为晶体管的开关和电流——以及热量。

    能量鼎新与环境问题

    能量无法创造也无法消释,它只可从一种阵势鼎新成另一种阵势。对于电子诡计机来说,最主要的能量鼎新神态即是从电能鼎新成热能。大讲话模子亦然如斯。它对电能和冷却水的需求,带来越来越严重的环境问题。

    回收“电沸水器”中的热量

    微软的工程师暗示,为了磨砺GPT-6,微软和OpenAI建造了巨大的数据中心,将会使用10万块英伟达H100 GPU。可是,这些GPU不可放在归拢个州,不然会导致电网负荷过大而崩溃。AI发展带来的动力衰退问题还是着手暴露。

    在本年的达沃斯天下经济论坛上,OpenAI的CEO山姆·阿尔特曼(Sam Altman)以为,核聚变可能是动力的发展场所,但开导出确凿可用的核聚变时代还需要一些时代。

    与此同期,科技巨头们的用水量也在大幅增长。2023年6月,微软发布了2022年度环境可抓续发展叙述,叙述顶用水量权臣增长,谷歌公司也靠近近似情况。盘考者以为,AI的发展是这些企业用水量剧增的主要原因。为冷却高热的芯片,水冷系统是最常见的选拔。

    一些企业还是着手探索热回收时代,将数据中心的废热用于提供民用沸水或冬季采暖。举例,中国出动哈尔滨数据中心和阿里巴巴千岛湖数据中心。这种技艺固然有用,但并不可从压根上处置问题。

    改日的挑战与但愿

    AI产业的发展速率之快前所未有。均衡AI时代的发展与环境的可抓续性,将是改日几年的庞大议题之一。时代跳动与动力赔本之间的复杂关系,从未如斯急迫地出当今东谈主类眼前。

    处置这一问题需要多方面的尽力,包括进步诡计后果、发展新的动力时代以及有用哄骗和回收废热。跟着科技的不断跳动,咱们故意义坚信,改日的AI发展将会找到与环境可抓续性和平共处的最好道路。

    回来

    AI时代的发展为咱们带来了前所未有的契机kaiyun中国官方网站,但也带来了巨大的动力挑战。从磨砺大讲话模子所需的弘大电力,到冷却数据中心所需的水资源,AI对动力的需求正变得越来越进军。通过深远AI的能耗机制,咱们不错更好地搪塞这些挑战,并寻找可抓续发展的处置有筹算。改日,科技与环境的合营发展将是咱们共同的筹算。#深度好文议论#



    上一篇:kaiyun将年会的每一个精彩短暂齐纪录下来-kaiyun下载
    下一篇:kaiyun中国官方网站企业在肯求UL认证时-kaiyun下载