(原标题:这项技能,大幅提高AI处理器成果)
若是您但愿不错经常碰面,接待标星储藏哦~
开首:本色来自techspot ,谢谢。
跟着东谈主工智能和高性能忖度抓续推动对更刚劲数据中心的需求,总计这个词行业正濒临一个日益严峻的挑战:如安在不破钞不能抓续的动力和水资源的情况下,为日益密集的做事器机架进行冷却。传统的空气冷却系统仍是足以莽撞早期的做事器硬件,但如今在当代AI基础体式带来的刚劲热负载眼前已濒临极限。
这一瞥变在英伟达的最新家具中推崇得尤为彰着。该公司的GB200 NVL72和GB300 NVL72机架级系统在忖度密度上终光显要紧飞跃,每个机架内集成了数十个GPU和CPU,以兴隆万亿参数AI模子和大限制推理任务的性能需求。
但这种性能水平也带来了巧妙代价。典型的数据中神思架功耗在7至20千瓦之间(高端GPU机架平均为40至60千瓦),而英伟达的新系统每个机架则需要120至140千瓦——是传统架构功耗的七倍以上。
如斯剧增的功率密度使得传统的空气冷却神气对这种高性能集群而言已统统不再适用。空气压根无法满盈快地带走热量,杰出是在机架日益紧凑的布景下。
为了贬责这一问题,英伟达接管了直触式液冷系统——冷却液通过径直装配在GPU和CPU等最热部件上的冷板轮回流动。这种神气的热传导成果远高于空气冷却,使得终了更密集、更刚劲的成立成为可能。
与传统挥发式冷却(需要多数水来冷却空气或水轮回)不同,英伟达的神气使用了阻滞回路的液体冷却系统。在这种系统中,冷却液不断轮回,不发生挥发,从而确实阻绝了水的损耗,大大提高了用水成果。
据英伟达称,其液冷贪图比传统冷却模范的能效高达25倍,用水成果更是逾越300倍——这一见解在运营老本与环境可抓续性方面具有紧迫意旨。
这些系统背后的架构也异常复杂。冷却液继承的热量通过机架级的液-液换热器(即冷却液分拨单位,p2p理财CDU)周折到数据中心的举座冷却系统中。
这些由CoolIT、Motivair等配合资伴斥地的CDU不错营救高达2兆瓦的冷却容量,足以莽撞高密度机架产生的强大热负载。此外,温水冷却还减少了对机械式冷水机的依赖,进一步缩小了动力破钞和用水量。
但是,向直触式液冷系统的过渡也带来了挑战。传统数据中心强调模块化和易爱戴性,接管热插拔部件以便于快速维修。而全阻滞液冷系统则使这一时势更为复杂,因为翻开密封轮回更换做事器或GPU会有损坏总计这个词冷却回路的风险。
为缓解这些问题,直触式系统接管了防滴漏的快速断开计划,在保险可人戴性的同期缩小泄露风险。不外,大限制部署液冷系统经常仍需对数据中心的物理基础体式进行大幅雠校,前期进入显贵。
尽管存在这些羁系,英伟达基于Blackwell架构的系统所带来的性能擢升,仍使得运营商纷纷激动液冷雠校。英伟达已与施耐德电气配合斥地参考架构,加快高密度液冷集群的部署。这些贪图集成了CDU与先进的热料理系统,可营救每个机架高达132千瓦的负载。
https://www.techspot.com/news/107680-closed-loop-liquid-cooling-powers-nvidia-push-greener.html
半导体极品公众号保举
专注半导体规模更多原创本色
神气各人半导体产业动向与趋势
*免责声明:本文由作家原创。著述本色系作家个东谈主不雅点,半导体行业不雅察转载仅为了传达一种不同的不雅点,不代表半导体行业不雅察对该不雅点赞同或营救,若是有任何异议,接待有关半导体行业不雅察。
今天是《半导体行业不雅察》为您共享的第4015期本色,接待神气。
『半导体第一垂直媒体』
及时 专科 原创 深度
公众号ID:icbank
可爱咱们的本色就点“在看”共享给小伙伴哦