4月9日,在2020浪潮云数据中心合作伙伴大会(ipf2020)上,浪潮发布了业界首款ai开放加速计算系统mx1。mx1可在同一ai服务器上支持多种符合oam(ocpaccelerator module)规范的ai芯片,并支持构建数量达32颗芯片的大型计算系统,实现超大规模神经网络模型并行计算。
目前,全球已有上百家公司投入新型ai芯片的研发与设计,ai计算芯片多元化趋势愈发明显。但因为各厂商在ai开发中采用了不同的技术路线,导致芯片的接口、互联、协议上互不兼容,导致数据中心用户在ai计算基础设施建设中不得不面临硬件分裂化和生态割裂化的重大挑战。为此,浪潮作为人工智能计算领域的领军企业,正在通过推动智算中心建设,加速ai开放计算系统的多元化支持和技术普惠。
浪潮集团高级副总裁彭震表示:“浪潮致力于与业界领导者共同推进ai行业规范的建立,希望通过推动智算中心建设,形成开放共识的ai基础设施规范,促进ai芯片乃至ai产业的良性发展,这一愿景也与全球开放计算ocp社区形成高度共识。mx1作为智算中心在ai算力生产领域的首个开放标准产品,将有力的推动开放计算与人工智能的融合,加快多种ai芯片在智算中心落地,促进产业ai的生态繁荣。”
同时,浪潮积极参与oam规范的开发,并率先设计开发全球首款符合oai标准的ai开放加速计算系统mx1。mx1支持多厂商的oam接口ai芯片,大幅缩短了从ai芯片到ai系统的开发部署周期。在性能表现上, mx1支持高速互联技术,搭载高速互联ai芯片,当前支持互联带宽可达224gbps,理论支持互联带宽最高可达896gbps,可扩展构建高达32颗芯片的大型计算系统,实现超大规模神经网络模型并行计算,充分释放算力。同时,mx1提供全互联 (fully-connected) 和混合立体互联hcm (hybrid cube mesh)两种拓扑,并具备解耦设计,可灵活配置扩展通用cpu节点和ai加速节点。此外,针对不同ai芯片的功耗差异,mx1设有12v和54v两套独立的供电方案,可支持最大功耗不超过450w的各类高功耗ai加速器。
随着数据中心用户对ai计算力需求的不断攀升,未来有望占据80%以上的计算需求,承载这种需求的就是ai算力中心,即智算中心。具体来说,浪潮围绕ai算力的四大关键作业环节持续创新,即生产算力、聚合算力、调度算力、释放算力,实现ai计算力的全流程、一体化的高效交付,通过ai计算生产方式的变革促进人工智能应用的效率变革,进一步加速智慧新基建建设。
目前,浪潮ai服务器的中国市场份额保持在50%以上,并与人工智能领先科技公司保持在系统与应用方面的深入紧密合作,帮助ai客户在语音、语义、图像、视频、搜索、网络等方面取得数量级的应用性能提升。
来源:中国idc圈