华为正式开源盘古大模型,推动AI技术创新与应用发展
华为在近期的一次重要宣布中,正式揭开了其在大模型技术领域的又一里程碑。此次,华为不仅推出了盘古70亿参数的稠密模型,还带来了盘古Pro MoE这一拥有720亿参数的混合专家模型,并配套发布了基于昇腾的模型推理技术。
这一系列的开源举措,被视为华为在推动昇腾生态战略实施过程中的又一重要步骤。通过这些努力,华为旨在加速大模型技术的创新与发展,进一步拓宽人工智能技术在各行各业的应用边界,从而创造更大的价值。

目前,盘古Pro MoE 72B模型的权重和基础推理代码已经成功上线至开源平台,供全球开发者免费下载和使用。与此同时,基于昇腾的超大规模MoE模型推理代码也已同步上线,为开发者提供了强大的推理能力支持。
值得注意的是,盘古7B的相关模型权重与推理代码也即将在近期上线开源平台。这意味着,开发者将能够拥有更多选择,根据实际需求选用不同规模和性能的模型。
在华为此次推出的模型中,盘古Embedded 7B模型以其独特的双系统框架和元认知能力脱颖而出。该模型能够根据任务复杂度自动切换推理模式,从而在保证推理速度的同时,兼顾推理深度。在多项复杂推理基准测试中,盘古Embedded 7B模型的表现甚至超越了同量级的Qwen3-8B和GLM4-9B等模型。

而盘古Pro MoE 72B模型则采用了分组混合专家(MoGE)架构,总参数量高达720亿,但激活参数量仅为160亿。这一设计有效解决了专家负载不均的问题,提高了模型的部署效率。同时,针对昇腾硬件的深度优化,使得该模型在推理速度上达到了新的高度,最高单卡可达1528 tokens/s。在多项公开基准测试中,盘古Pro MoE 72B模型均表现出色,性能优于同规模的稠密模型。
华为官方表示,他们诚挚邀请全球的开发者、企业伙伴及研究人员下载并使用这些模型,同时期待收到大家的宝贵反馈,以便共同完善和提升这些技术。
本文链接:http://knowith.com/news-1-11777.html华为正式开源盘古大模型,推动AI技术创新与应用发展
声明:本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。
通辽人才?通辽市实验小学是市教育局直属吗
贺州学院硕士(贺州学院出来有前途吗)
莆田研究生考试地点 莆田学院考研成功率高吗
英语比较好的培训机构 渭南师范学院研究生有哪些专业
编导生考研都考什么(编导生考研都考什么科目)
2014考研:经济学名词解释荟萃(第8辑)
长沙最出名的考研培训机构,岳塘区哪家医院好
考研复试考试时间(考研复试考试时间一般是什么时候)
在职教育从哪里报名 在职教育从哪里报名高考
中科院也受不了知网的涨价?没那么简单!
价格公开印度瑞戈非尼(28粒)多少钱一盒价格一览表!瑞戈非尼价格在1500元一盒(2025更新中)哪里买印度瑞戈非尼购买几种方法
羊小咩便荔卡额度30000怎么套取出来?全网最轻松: