|
本帖最后由 爱国者999 于 2025-7-1 21:29 编辑
华为盘古大模型:正式开源
2025年7月1日 新浪财经
自四年前盘古大模型首次亮相以来,AI大模型行业风云变幻,不少AI大模型厂商加入开源大军。一直坚持闭源大模型的华为,如今也终于决定打开盘古的大门了。
6月30日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。

这是华为首次开源盘古大模型。
华为方面表示,此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。
据悉,盘古Pro MoE 72B模型权重、基础推理代码,基于昇腾的超大规模MoE模型推理代码,已正式上线开源平台;盘古7B相关模型权重与推理代码将于近期上线开源平台。
此外,华为此次还开源了基于昇腾的模型推理技术,昇腾这一层级对应的则是华为瞄准的AI算力市场。
众所周知,华为的野心在于要做AI时代的“黑土地”,其昇腾生态战略是华为围绕昇腾 AI 计算平台构建的全方位生态发展策略,旨在推动 AI 技术普及应用、促进产业创新、实现各方共赢,涵盖技术创新、生态构建、开源开放、人才培养等多个关键层面。
开源盘古大模型,有利于吸引开发者基于盘古大模型开发行业应用,形成 “模型 - 应用 - 硬件”的昇腾生态闭环。
在6月20日召开的华为开发者大会2025上,华为常务董事、华为云计算CEO张平安在发布盘古大模型5.5的同时,还正式宣布基于CloudMatrix 384超节点的新一代昇腾AI云服务全面上线,为大模型应用提供澎湃算力。
据悉,华为云新一代昇腾AI云服务基于CloudMatrix 384超节点,首创将384颗昇腾NPU和192颗鲲鹏CPU通过全新高速网络MatrixLink全对等互联,形成一台超级“AI服务器”,单卡推理吞吐量跃升到2300 Tokens/s,与非超节点相比提升近4倍。
值得一提的是,超节点架构能更好地支持混合多专家MoE大模型的推理,可以实现“一卡一专家”,一个超节点可以支持384个专家并行推理,极大提升效率;同时,超节点还可以支持“一卡一算子任务”,灵活分配资源,提升任务并行处理,减少等待,将算力有效使用率(MFU)提升50%以上。
盘古大模型基于昇腾云的全栈软硬件训练,因此,华为开源盘古大模型的本质,也是在为昇腾生态引流。
2025年已是开源模型快速进步的一年,华为如今加入开源大军,无疑将让其在全球AI竞争中占据战略主动。

【中国科技核心资产-“十姐妹”】-Huawei、Tencent、BYD、SICARRIER、Alibaba、DJI、DouYin、Pxwsemi、大模型三剑客-[Pangu+Hunyuan+DeepSeek]、SwaySure
【美国科技核心资产-“十姐妹”】-Apple、Google、Amazon、Microsoft、Meta、Tesla、Nvidia、Intel、大模型三剑客-[OpenAI+xAI+Meta Llama]、Qualcomm
Global Technology Center:
【Shenzhen】-Guangdong-Hong Kong-Macao Greater Bay Area,【Silicon Valley】-San Francisco Greater Bay Area
深圳-粤港澳大湾区,硅谷-旧金山大湾区 |
|