在数据中心浸没式液冷方案中,主设备浸没在特殊的液体中,使用传统的光模块或者有源光缆,经过长时间的浸没,液体可能会渗入光路中,从而使通信中断。 大成鹏通信隆重推出CIPanel浸没式液冷数据互联解决方案,不同于传统注胶AOC的解决方案,该解决方案是将主设备的接口通过铜缆延长扩展到液上,而后再通过传统光模块、有源光缆AOC、无源铜缆DAC实现数据互连 2、 快捷部署:液上固定面板,快速连接至液下主设备端口,一次连接永久固定。3、 便捷维护:液上固定面板接口可以使用不同形式的互联产品,包括光模块、AOC、DAC产品,可以随时更换。 四:总结 大成鹏通信浸没式液冷数据互联解决方案CIPanel,完全避免了传统光互联产品可能因液体侵入而导致的阻塞光路从而中断通信的问题,极大提高可靠性的同时,兼顾便捷部署、维护、美观等特点
浸没式液冷的优点包括:(1)由于冷却液直接接触设备,散热能力更强,器件超温风险更低;(2)浸没式液冷设备无需风扇,设备震动更少,硬件设备的使用寿命更长;(3)浸没式液冷的机房侧冷冻水供液温度高,室外侧更易散热 综合来看,两种散热方式各有优劣,浸没式液冷略胜一筹。 浸没式液冷交换机研发经验 近年来,各大公司在浸没式液冷数据中心方案上展开探索,锐捷网络在研发浸没式液冷交换机中也积累了较多经验,主要体现在浸没式液冷交换机的结构外观、风扇剪裁、材质兼容、SI特性(信号完整性 3.材质兼容 由于浸没式液冷的冷却液主要分为氟碳化合物和多种油类,交换机就要注意以下两点:(1)使用的光器件材料是否密封,如果未密封导致漏液,可能导致光路污染引发信号衰减和交换机故障;(2) 所有器件是否会和冷却液发生物理或化学反应 2022年,锐捷网络开始布局100/200/400G浸没式液冷交换机及冷板式液冷交换机。 锐捷网络目前推出了2款商用浸没式液冷交换机,分别是32口100G数据中心接入交换机和48口1G的管理网交换机。
浸没式液冷系统通过直接将发热器件浸入不导电的冷却液中实现高效散热。 按照冷却液在循环散热过程中是否发生相变,可以分为单相浸没式液冷和双相浸没式液冷。单相浸没式液冷技术在交换过程中冷却液温度发生变化而不存在相态转变,过程中完全依靠物质的显热变化传递热量,即利用液体受热后体积膨胀密度减小 长期看,浸没式液冷凭借其良好的导热性能、高效的余热回收能力和支持更高机柜功率的优势,会更适合未来数据中心冷却需求的演变,尤其是在机柜单元功率不断增加的情况下,浸没式液冷可以提供更高效的冷却解决方案,并且助力降低数据中心的总体能源使用效率 海外用户浸没式发展优于冷板式,以美国公司为首,如英特尔、Google、Meta等互联网大公司在AI加持下更多的推动浸没式液冷的快速发展。 浸没式液冷技术可能面临的问题冷却液选择冷却液是液冷技术的关键原材料之一,具备较高技术壁垒。
(LPO)与浸没式液冷光学解决方案的技术突破,为AI时代数据中心的高效运行提供了关键支撑。 这些挑战成为制约浸没式液冷规模化应用的关键瓶颈,也推动着光学通信与材料技术的针对性创新。 三、核心技术突破:LPO与浸没式光学解决方案的协同赋能 针对AI数据中心的功耗与冷却痛点,Formerica推出了以线性驱动可插拔光学(LPO)技术与浸没式液冷光学解决方案为核心的组合拳 (二)浸没式液冷光学解决方案:突破场景适配瓶颈 针对浸没式液冷的核心挑战,Formerica通过系统性测试与设计优化,构建了成熟的浸没式光学解决方案,关键突破集中在材料兼容性与信号完整性两大维度 从传统空冷到冷板液冷,再到浸没式液冷,冷却技术的演进核心是追求更高的散热效率与更低的TCO;而LPO技术与浸没式光学解决方案的创新,则为高功耗、高密度场景提供了关键的通信支撑。
目前,对于浸没液冷技术国内外很多厂商都都进行了研究,例如,IBM公司从20世纪70年代开始浸没液冷的研究,具有30多项机架式浸没液冷专利。美国的GRC开发了高沸点单相浸没的碳氢溶剂制冷系统。 3M公司从2009年倡导使用低沸点氟化液的两相式蒸发浸没冷却系统。日本利用3M公司一种高沸点氟化液FC43开发的单相浸没超算系统。 相变冷却:利用低沸点氟化液或其他绝缘易蒸发液体的气化过程带走热量,称为相变冷却式服务器或蒸发冷却式服务器。 据了解,目前机房浸没液冷技术主要运用在比特币矿机和超算中心等高密度环境。 对于GPU本身来说,单个芯片的功耗可以达到300瓦以上,这样对于整个服务器来说,它的散热问题将是一个非常严峻而且有待解决的问题,而全浸没式的液冷技术则恰恰很好的解决了这个问题。 全浸没式的液冷技术能够很好的解决芯片的散热问题,同时提高芯片的性能。
液冷方式分为冷板液冷和浸没式液冷,浸没式液冷方式又可分为相变浸没式液冷和非相变浸没式液冷。 冷板式液冷为间接接触型,浸没式液冷为直接接触型。 浸没式液冷是直接接触式液冷的一种,将服务器等有散热要求的IT设备完全浸没在冷却液中,通过液体的循环或相变进行冷却。 两相浸没式液冷的能耗低于单相浸没式液冷。数据中心浸没式液冷技术的能耗主要是由水泵和室外冷却设备驱动液体循环产生的,根据冷却液热交换过程中是否发生相变,可分为单相浸入液冷却和两相浸入液冷。 其中,两相浸没式液冷的循环是被动的,因此两相浸没式液冷的能耗普遍低于单相浸没式液冷。由于浸没式液冷的室外侧通常是高温水,其室外冷却设备往往可以使用自然冷源,不受场地面积的限制,达到节能减排的目的。 在浸没式液冷方案的供给端,国内外均有企业在积极布局。
液冷算力机房温湿度监控系统方案设计添加图片注释,不超过 140 字(可选)液冷算力机房(含冷板式、浸没式、喷淋式等)因高密度算力设备(单机柜功率常达 40-100kW)依赖液体介质高效散热,其温湿度环境呈现 2. 宽温域适配:传感器在 - 30℃~90℃范围内保持精度(传统传感器在<0℃时精度下降至 ±2℃),适配浸没式液冷的低温环境(冷却液温度常为 15-25℃)。3. 液冷系统协同:与冷源机组实时交互数据(如冷却液进口温度设定值),通过温湿度反馈动态优化机组运行策略,某浸没式液冷机房案例显示,可降低冷源能耗 12%。 四、实施案例参考(某 1000 机柜浸没式液冷智算中心)添加图片注释,不超过 140 字(可选)• 部署规模:800 个机柜内传感器(监测出液温度)、40 个冷源区传感器、60 个环境温湿度传感器,合计 安装规范:机柜内传感器需远离冷却液喷射方向(距离≥15cm),采用磁吸 / 卡扣式安装(避免打孔破坏液冷密封);环境传感器避开冷源出风口直吹。2.
在解决实践中,基于浸没相变液冷技术和高密度刀片系统,产业界已经将单机柜功率做到了160KW,未来高密度数据中心或将加速采用液冷。 为满足低PUE值的要求,市面出现了两种主流方案: 一种是将数据中心迁移到常年低温的高纬度地区,利用自然冷源降低散热系统的耗电量; 一种是用液冷取代传统风冷,并衍生出了冷板液冷、浸没相变液冷等多种散热方案 其中,如曙光浸没相变液冷技术,可让数据中心PUE最低降至1.04;风冷虽然散热效率偏低,但若自然散热环境优越,也可保证较低PUE值。 曙光浸没式相变液冷技术(运行局部) 如今液冷数据中心正展现出如风冷一样的高可靠性,采用曙光液冷技术建设的国内首个标准化液冷数据中心,已持续稳定运行近2700天。 且相较于传统的风冷散热,采用曙光液冷技术建设的众多液冷数据中心年节电量已达2亿度,相当于减少2.45万吨标准煤燃烧或6.6万吨二氧化碳排放。
功率密度需求的提升正推动设施采用企业级液冷方案。据高盛预测,数据中心目前消耗全球总电力的1-2%,到2030年这一比例将上升至3-4%。 目前,多种液冷方案正在快速发展,主要包括以下类型: 其中,浸没式和冷板式又分别分为机柜式和机架式。 • 技术特点:采用水/乙二醇溶液或介电流体,通过冷板直接接触热源 • 优势:局部散热效率提升300%,支持100kW+功率密度 • 挑战:需设备定制化设计,标准化程度低 浸没式液冷 • 技术特点:整机浸入介电流体 目前,直接液冷和浸没式冷却主要应用于HPC环境,如大型AI企业和部分加密货币矿场的数据中心。 随着硅处理器继续遵循摩尔定律发展,其能耗持续增加。今天的高性能标准很快将成为企业级的新常态。 最后,面对液冷技术的普及,电信工程师需构建三大新型能力矩阵: 流体系统工程能力:掌握管路设计、泵阀控制等传统市政工程知识,确保冷却系统99.999%可用性; 特种设备维护技能:熟练进行浸没式设备的拆装清洗
作为阿里巴巴绿色数据中心节能理念的核心“黑科技”,3M氟化冷却液助力浸没式液冷服务器集群,全程见证、并经受住了阿里巴巴2018年双11巨大的考验。 为解决服务器高功耗下的计算环境问题,3M从2015年初开始,便与阿里巴巴展开合作,利用氟化液的高绝缘性特点,将服务器发热器件完全浸没于氟化液中,通过氟化液直接接触和循环传热,来给服务器高效散热。 在阿里巴巴冬奥云数据中心使用3M氟化冷却液的浸没式液冷服务器集群,可以不再依赖风扇、空调这些低效方式散热,节能70%以上,使得数据中心的PUE值达到1.07,逼近了理论极限值1.0,大大提升了能源使用效率 作为全球精细氟化工的杰出企业,3M基于自身超过半个世纪的氟化液生产应用经验,不但对液体安全和环境特性有着详尽的考量,也为阿里巴巴IT基础设施提供完善的液体选择和使用指南,保证浸没冷却应用符合职业安全及环保的要求 据悉,阿里巴巴已经联手全球几十家合作伙伴,从芯片到主板到服务器整机,从光模块到箱体及运营管理,形成全球互联网行业的大规模商用液冷集群。
其实“液冷”技术的原理并不复杂,简单来说就是利用矿物油、氟化液等绝缘低沸点的冷却液作为冷媒,通过热交换将服务器的热量排出,并演变出了冷板式、喷淋式、浸没式等多种散热方案。 一个直接的例子就是普渡大学的Bell集群,10个机架的戴尔PowerEdge C6525 服务器直接浸没在冷却液中,运行时产生的热量直接被冷却液吸收,PUE最低可以降到1.05左右,散热所需的功耗比传统方案降低了 然而和很多新技术一样,液冷方案同样存在天然短板:冷却液的价格堪比茅台,无形中增加了散热的硬性成本;液冷技术对数据中心的机房环境要求苛刻,重新改造的成本较高;液冷技术降低了PUE,运营成本却难言优势…… 而对于CPU功率超过150w的需求,戴尔科技针对不同的场景提供了冷板式和浸没式两种液冷技术:前者对应的例子有Triton液体冷却系统,将冷却液直接放入服务器sled冷却CPU,不仅带来了最高的冷却效率, 04 写在最后 根据赛迪顾问的预测,2025年中国浸没式液冷数据中心的市场规模将超过526亿元,市场份额有望突破40%。 站在行业的立场上,液冷散热的高速普及不失为一个好消息。
为了应对这一挑战,业界积极投身于低功耗可插拔光模块技术的研究,主要聚焦于LPO(线性驱动光模块)、LRO(线性接收光模块)以及适配浸没式冷却的光模块方案。 2. 三、液冷光模块方案 (一)技术优势 - 能效提升:双相浸没式冷却相较于空气冷却,能够显著降低数据中心的PUE。光模块直接浸没于冷却液中,通过液体相变进行散热,进一步优化了系统级能效。 (二)实测验证 - OFC 2025演示:基于Celestica DS 5000交换机搭建了浸没式测试平台,通过环回菊花链模拟网络负载。含DSP的光模块在50°C冷却液中运行时,可以看到沸腾气泡。 (三)应用挑战与展望 目前,浸没式光模块的插拔操作仍建议在非浸没环境下进行,例如水箱外或隔离区域,以避免液体渗入光学路径。
常见的三种液冷方式:冷板式(Direct-to-Chip):冷却液直接贴着CPU/GPU流浸没式液冷:服务器直接“泡澡”后门换热(RearDoorHX):给风冷打补丁我个人的看法很明确:未来十年,真正的主流是 “冷板式+部分浸没”。 2️⃣液冷为什么突然“火”了?不是因为它多先进,而是因为:风冷真的快到物理极限了AIHPC大模型太吃功耗了PUE再压不下来,账就算不过来一句话总结:不是液冷多香,是风冷已经不行了。 2️⃣AI调度真正多看了什么? energy_score+0.3*thermal_score+0.3*load_score)returnmax(scores,key=scores.get)这段代码不复杂,但背后代表一个思想:调度决策,开始显式地把
液冷散热技术 相变浸没液冷:曙光数创的相变浸没液冷系统,将服务器完全浸没在电子氟化液中,通过汽化潜热吸收并带走服务器内热量。 直接液冷:直接将冷却液输送到发热部件,如CPU、GPU等,进行直接冷却,相比传统的风冷散热方式,能更有效地带走热量,提高散热效率,降低硬件因过热而导致的性能下降和能耗增加。
以下是该计划中一些关键技术的具体实施方式:两相冷却技术COOLERCHIPS计划中包括开发高效的两相冷却系统,例如NVIDIA的模块化数据中心冷却系统,结合了直接到芯片的两相冷却和单相浸没冷却。 浸没式冷却技术浸没式冷却技术是COOLERCHIPS计划的重点之一。例如,Intel Federal正在开发珊瑚形浸没式冷却散热器,结合3D蒸汽腔和创新的沸腾增强涂层,以降低热阻并提高散热效率。 模块化与预制数据中心Flexnode正在开发预制的模块化液冷边缘数据中心,结合新型微通道散热器和混合浸没冷却技术。这种模块化设计不仅提高了冷却效率,还降低了部署成本。 以下是不同类型的模块化数据中心的部署时间范围:微模块数据中心微模块数据中心的部署时间通常为2-3个月。这种数据中心采用预制化设计,大部分组件在工厂完成预组装和测试,现场安装时间大幅减少。 仓储式数据中心仓储式数据中心的部署时间通常为12-18个月。这种数据中心通常利用现有建筑进行改造,采用微模块或集装箱形式进行部署,部署速度较快。
密度上限低:空气低热容特性导致机架密度超过30kW后效率骤降,即使主动式后门冷却也难以突破75kW/机架; 2. 能耗高:需大功率风扇驱动海量气流,噪音与能耗同步增加; 3. (二)浸没式冷却:高密度场景的终极方案 浸没式冷却将服务器或组件直接浸入绝缘冷却液中,彻底摆脱对空气的依赖,分为单相和两相两种技术路径,是超高密度场景(如 AI、HPC)的终极冷却选择。 2. 对于规划数据中心扩张的企业,尤其是 AI、HPC 领域,液体 / 浸没式冷却已不再是 “可选方案”,而是保障运营效率、控制成本、实现可持续目标的 “战略必需”。 未来需进一步推动液冷系统标准化(如冷却液选型、泄漏检测)、降低初期成本,加速技术落地与产业升级。
根据数据显示,2021年全国数据中心总用电量为2166亿千瓦时,占全国总用电量的2.6%,相当于2个三峡水电站的年发电量,1.8个北京地区的总用电量。 所以,捣鼓数据中心的节能减排,思路就在两点: 1、减少主设备的功耗 2、减少散热和照明方面的功耗(主要是散热) █ 主设备的功耗挑战 说起主设备,大家马上就想到了服务器。 有的液冷数据中心,甚至可以将PUE干到1.1左右,接近1的极限值。 液冷,是不是把整个设备全部浸没在液体里呢? 不一定。 液冷的方案,一般包括两种,分别是浸没式和冷板式。 浸没式,也叫直接式,是将主设备里发热量大的元器件,全部浸入冷却液中,进行散热。 冷板式,也称间接式,是将主要散热部件与一块金属板贴合,然后金属板里有冷媒液体流动,把热量带走。 那款51.2T硅光NPO冷板式液冷交换机,高度不变,将NPO模组从1.6T升级到了3.2T,前面板支持64个800G连接器,每个连接器还可以分成2个400G端口,实现向前兼容。
从具体的净系统销售细分来看,2023年四季度,ASML销售了13个EUV系统,29个浸没式DUV系统(ArFi),10个ArFdry系统,还有54个KrF系统,18个i-Line系统。 营收占比方面,EUV系统占比高达40%,浸没式DUV系统占比38%。 从终端应用来看,2023年四季度,ASML的营收63%来自于逻辑芯片制造领域,37%来自于存储芯片制造领域。 在已安装的设备维护方面,由于升级业务减少,ASML该客户群业务营收同比下降了2%至56亿欧元。 这些新的出口管制条例主要针对的对象为先进的芯片制造技术,包括先进的沉积设备和浸没式光刻系统。这也使得ASML无法向中国大陆出口NXT:2000i及以上浸没式DUV设备。 此外,Roger Dassen还进一步指出,“个别中国先进芯片制造晶圆厂将无法获得发运NXT:1970i 和 NXT:1980i 浸没式DUV设备的许可证。”
云趋势与预测: 边缘计算、分布式云、液冷、6G 大会主论坛围绕“云趋势与预测”,以工业互联网与边缘计算、分布式云的效率革命及应用场景、全球企业级云服务市场趋势、浸没式液冷方案逻辑及价值、生物科技领域的商业生态 分布式云可以在三级中心、区域、边缘提供统一的服务,当面向混合多云场景的时候,分布式云也会帮助用户解决跨环境、跨云的管理应用问题。 同时,分布式云也会深刻影响国内IT和云计算的格局。 在整个社会数字化转型的背景下,分布式云会成为推动数字化转型加速的里程碑技术。 浸没式液冷可以使得数据中心的绝对能耗大幅度下降,整体的绝对功耗比同算力的风冷数据中心更低,同样电力情况下算力可以提升44%以上。 同时,基于浸没式液冷的高功率密度优势,实际使用时几乎可以达到100%的网络利用率,使得整个算力得到大幅度提升,数据中心更容易实现零碳的概念。重构整个数据中心,将是未来必然的发展趋势。
,网络&存储性能提升了2倍,数据分析性能提升了3倍,科学计算性能提升了3.7倍。 2、第四代至强还内置了英特尔动态负载均衡器(DLB),可以根据系统负载的变化而动态地在多个CPU内核上分配网络数据,能提供高效的硬件负载均衡。 此外,第四代至强内置的面向vRAN的英特尔高级矢量扩展512(英特尔AVX-512)能够在相同的功率下把vRAN工作负载的密度提高至前一代的两倍2。 值得一提的是,目前浸没式液冷方案也已经成为了服务器厂商节能减排的一大技术方向。此前,英特尔主导了第一版的浸没式液冷液体规范。 在今天的发布会上,英特尔还宣布针对英特尔第三及第四代至强可扩展处理器的浸没式液冷方案设计提供一年的保修服务。这也是业界首家面向浸没式液冷方案设计提供保修服务的服务器芯片厂商。