新京报贝壳财经讯(记者魏博雅)11月21日,在上海举办的AI容器应用部署发展论坛上,华为联合上海交通大学、西安交通大学、厦门大学,正式推出Flex:ai人工智能容器技术,并宣布这一产学合作成果完全开源。当前,人工智能产业的快速发展正在创造对算力的巨大需求,但算力供需不匹配的问题也很重要。小模型任务独占整卡,导致资源空闲,大模型任务无法单机算力支撑,大量通用服务器缺乏GPU/NPU“休眠”算力。供需不匹配造成资源严重浪费。最近发布的开源XPU调度和集群软件Flex:ai基于在 Kubernetes 容器编排平台上。通过对GPU、NPU等智能计算资源的精细管理和智能调度,可以实现AI工作负载与计算资源的精准匹配,显着提高算力利用率。为了解决小规模模型训练和推广过程中的资源浪费问题,华为与上海交通大学联合开发了XPU池化框架,可以将单个GPU/NPU卡精确划分为多个虚拟计算单元。分割的粒度精度为10%。允许对计算驱动器进行按需分区,在此类场景下可以将利用率 pAverage 整体计算能力提高 30%。面对通用服务器无法处理AI工作负载的问题,华为与厦门大学合作推出跨节点远程虚拟化技术,将闲置的XPU算力聚合在集群中,形成“共享计算”。另一方面,不具备智能计算能力的通用服务器可以将AI工作负载卸载到远程“资源池”中的GPU/NPU算力卡上,通过高速网络执行,有利于通用算力和智能计算资源的融合。面对计算集群中多品牌、多规格的异构计算资源集成和编程的挑战,华为与西安交通大学联合开发了智能算力池。调度器,Hi Scheduler自动检测集群负载和资源状态,结合AI工作负载优先级、算力需求等多维度参数,对本地和远程虚拟化GPU、NPU资源进行全局优化调度,实现AI的时分资源复用。工作负载。在负载频繁波动的场景下,您可以保证AI工作负载平稳运行,充分发挥算力。吴兴修正