华为携手三大大学发布并开源AI容器技术:AI - 新
作者:365bet网页版 日期:2025/11/26 10:49 浏览:
新京报贝壳财经讯(记者魏博雅)11月21日,在上海举办的AI容器应用实施与发展论坛上,华为正式发布AI容器技术Flex:AI,并联合上海交通大学、西安交通大学、厦门大学宣布产学合作成果全面开放。目前,AI产业的快速发展催生了对海量算力的需求,但算力供需不匹配的问题众所周知:小模型任务独占全卡,导致资源无关,大模型任务无法单机算力支撑,大量缺乏GPU/NPU的通用服务器处于算力“多寡”状态。供需不匹配造成资源严重浪费。 Flex:本次发布的AI XPU Pooling及调度软件s时代,开源的构建在Kubernetes容器编排平台的基础上。通过对GPU、NPU等智能计算资源的精细化管理和智能调度,实现AI工作负载与计算资源的精准匹配,从而提高算力利用率。为了解决小型培训和推广中的资源浪费问题,华为与上海交通大学联合开发了XPU Pooling Framework,将单个GPU/NPU卡精确划分为多个虚拟计算单元。可以实现计算单元的按需分区,使该场景下整体算力的平均使用率提高30%。面对通用服务器无法承载AI工作负载的痛点,华为与厦门大学合作推出跨节点远程虚拟化技术,将集群中闲置的XPU算力聚合起来,形成“共享计算中心”。一方面,为算力要求较高的AI工作负载提供充足的资源支撑;另一方面,不具备智能计算能力的通用服务器,可以通过高速网络将AI卡转GPU/NPU计算卡传至远程“资源池”执行,从而促进通用算力与智能计算资源的融合。面对计算集群中多品牌、多规格的异构计算资源统一调度的困难,华为与西安交通大学联合打造了HI计算池。调度器 智能调度器,能够自动了解集群和资源的负载状况,结合优先级需求、AI算力等多维度参数,对本地和远程虚拟化GPU、NPU资源进行全局优化调度,实现AI工作负载的资源分时复用。在负载波动频繁的场景下,可以保证AI工作负载的平稳运行,发挥算力的最佳性能。吴兴发校对