联系我们

公司地址:

销售热线:

联 系 人:

娱乐网址:

集团邮箱:

您现在的位置:主页 > 关于新闻 >

李彦宏出手!百度大模型终于开源

时间:2025-06-30作者:admin浏览:

摘要:蓝狮注册 此次百度一口气开源了10款模型,涵盖47B、3B激活参数的混合专家(MoE)模型,0.3B参数的稠密型模型等,并实现预训练权重和推理代码的完全开源。 目前,文心大模型4.5开源系

  蓝狮注册

李彦宏出手!百度大模型终于开源

  此次百度一口气开源了10款模型,涵盖47B、3B激活参数的混合专家(MoE)模型,0.3B参数的稠密型模型等,并实现预训练权重和推理代码的完全开源。

  目前,文心大模型4.5开源系列已可在飞桨星河社区、Hugging Face等平台下载部署使用,同时开源模型API服务也可在百度智能云千帆大模型平台使用。

  自此,百度成为国内继腾讯、阿里、字节之后的又一家开源大厂,这也是百度面向大模型进入应用爆发黄金时期的最新举措。

  早在今年2月,百度就已预告了文心大模型4.5系列的推出计划,并明确将于6月30日起正式开源。不过百度这次的开源列表没有其升级版文心大模型4.5 Turbo系列。

  二、原生多模态基础大模型,多项评测超Qwen3、DeepSeek-V3

  其图片理解涵盖照片、电影截图、网络梗图、漫画、图标等多种形态,也能理解音视频中的场景、画面、人物等特征,并且在生成名人、物品等方面更具线、DeepSeek-V3基准测试比较

  百度官方公众号提到,文心4.5系列模型均使用飞桨深度学习框架进行高效训练、推理和部署。在大语言模型的预训练中,模型FLOPs利用率(MFU)达到47%。实验结果显示,该系列模型在多个文本和多模态基准测试中达到SOTA水平,在指令遵循、世界知识记忆、视觉理解和多模态推理任务上效果突出。模型权重按照Apache 2.0协议开源,支持开展学术研究和产业应用。此外,基于飞桨提供开源的产业级开发套件,广泛兼容多种芯片,降低后训练和部署门槛。

  ,3月初,百度创始人、CEO李彦宏在人民网发表的署名文章就提到:“原生多模态大模型,打破之前先训练单模态模型再拼接的方式,通过统一架构实现文本、图像、音频、视频等多模态数据的‌原生级融合,实现对复杂世界的统一理解,这是迈向通用人工智能(

  :其模型基于文本和视觉模态进行联合训练,可捕捉多模态信息的细微差别,并提升文本理解与生成、图像理解以及跨模态推理等任务的性能。

  为了实现这一目标,避免一种模态阻碍另一种模态的学习,百度研究人员设计了一种异构MoE结构,并引入了模态隔离路由,采用了路由器正交损失和多模态标记平衡损失。这些架构选择可以确保两种模态都得到有效表示,从而在训练过程中实现相互强化。

  :百度提出异构混合并行和分层负载均衡策略,以实现ERNIE 4.5模型的高效训练。研究人员通过采用节点内专家并行、内存高效的流水线混合精度训练和细粒度重计算方法,实现了预训练吞吐量提升。

  在推理方面,研究人员提出多专家并行协作方法和卷积码量化算法,以实现4位/2位无损量化。此外还引入具有动态角色切换的PD分解,提升ERNIE 4.5 MoE模型的推理性能。基于PaddlePaddle构建的ERNIE 4.5可在各种硬件平台上提供高性能推理。

  :为了满足实际应用的多样化需求,百度针对特定模态对预训练模型的变体进行了微调。其大模型针对通用语言理解和生成进行了优化。

  VLM专注于视觉语言理解,并支持思考和非思考模式,每个模型都结合使用了监督微调(SFT)、直接偏好优化(DPO)或统一偏好优化(UPO)的改进强化学习方法进行后训练。

  在视觉-语言模型的微调阶段,视觉与语言的深度融合对模型在理解、推理和生成等复杂任务中的表现起着决定性的作用。为了提升模型在多模态任务上的泛化能力和适应性,研究人员围绕图像理解、任务定向微调和多模态思路推理三大核心能力,进行了系统性的数据构建和训练策略优化。此外,其利用可验证奖励强化学习(RLVR)进一步提升模型对齐和性能。

  针对百度此次开源,南加州大学计算机科学副教授、三星年度人工智能研究员Sean Ren在接受外媒采访时提到:“每当一个大型实验室开源一个强大的模型时,它都会提高整个行业的标准。百度的举动给OpenAI和Anthropic等闭源模型的提供商带来了压力,迫使它们证明API和高价的合理性。”

  作为国内最先入局大模型研发的巨头之一,百度已经形成了文心大模型4.0 Turbo、性能强劲的轻量模型ERNIE Speed Pro和ERNIE Lite Pro到当下的文心大模型4.5、文心大模型X1,以及升级版文心大模型4.5 Turbo等模型系列,其模型数量稳步递增,模型类型愈发多元。到2024年,文心大模型的日均调用量达到16.5亿,而2023年同期这一数字仅为5000万次,增长达到33倍。

  Sean Ren认为虽然大多数消费者并不关心模型代码是否开源,但他们确实在意更低的成本、更好的性能以及对其语言或地区的支持。这些好处通常来自于开源模型,它为开发人员和研究人员提供了更大的自由度,可以更快地进行迭代、定制和部署。”


友情链接 : 百度百科 百度百科