首页 > 科技 >

科大讯飞:华为昇腾 910B 能力基本可对标英伟达 A100

发布时间:2023-10-22 20:48:47来源:

10 月 22 日消息,今年第三季度,科大讯飞实现净利润 2579 万元,同比降落 81.86%;前三季度净利润 9936 万元,同比降落 76.36%。

查询公开材料发现,海思昇腾 910宣布于 2019 年,同时还推出了与之配套的新一代 AI 开源盘算框架 MindSpore,而 MindSpore 也已经于 2020 年完成开源。

目前,华为昇腾社区已公开 Atlas 300T 产品有三个型号,分离对应昇腾 910A、910B、910 Pro B,最大 300W 功耗,前两者 AI 算力均为 256 TFLOPS,而 910B Pro 可达 280 TFLOPS(FP16)。







作为对照,NVIDIAA100 宣布于 2020 年,采取双精度 Tensor Core,基于 Ampere 架构,功耗到达了 400W,FP32 浮点性能 19.5TFLOPS,FP16 Tensor Core 性能可达 312TFLOPS / 624 TFLOPS(稀少化)。

依照华为官方给出的规格,昇腾 910 Pro B 要比 A100 慢 18% 左右,如果是斟酌到稀少化的话,那就是慢 59% 左右。


说到这里也顺便提一下 A800 芯片。这颗芯片是为懂得决去年的美国商务部的半导体出口规定特意推出的一款型号,算力等参数完整不变,只是传输速率为从每秒 600GB 降至 400GB,所以美国本周宣布的半导体出口新规封堵了这一破绽。

依据知乎上 AI 从业者的反馈,哪怕昇腾 910B 目前还有不少小问题、单卡性能落伍于 A800、Arm 生态有所欠缺(应当是指 Mindspore 对照 CUDA),但随着英伟达先进产品被禁,后续国内厂商只能被迫选择昇腾,信任昇腾产品会更加完美,并且国产厂商还可以通过堆量、增添算力集群范围的方法完成调换,至少在大模型训练范畴整体差距不大。


值得一提的是,PyTorch 基金会本周三正式发布华为作为 Premier 会员参加基金会,这也是中国首个、全球第十个 PyTorch 基金会最高等别会员。

除此之外,PyTorch 最新的 2.1 版本已同步支撑昇腾 NPU,并在华为的推进下更新了更加完美的第三方装备接入机制。基于该特征,三方 AI 算力装备无需对原有框架代码进行修正就能对接 PyTorch 框架,昇腾也供给了官方认证的 Torch NPU 参考实现,可以领导三方装备便捷接入。

基于新版本,用户可以在昇腾 NPU 上直接享受原生 PyTorch 的开发体验,获得高效运行在昇腾算力装备上的模型和运用。

(责编: )

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。