AI大模型下半场,百度凭借文心大模型4.5不下牌桌
来源:广搜网 日期:2025/3/31 20:14:35 浏览次数: 我要收藏
AI大模型下半场,百度凭借文心大模型4.5不下牌桌
和讯网
2月28日,百度官方宣布文心大模型4.5将于3月16日发布,并透露这一代在基础模型能力上有大幅提升,且具备原生多模态、深度思考等能力。据悉这也将是百度最强的下一代大模型。
时至今日,大模型已行至两周年,行业正在向着更开放、普惠的阶段走去,这场更具效率的AI革命,标志着大模型的核心聚焦点已发生了深刻的变化,模型效率和质量取代绝对性能,成为核心竞争力。
同时,全球AI格局和秩序正在被重构,美国不再是“一家独大”的存在,以百度、DeepSeek为代表的中国AI玩家,共同走入大模型下半场的竞争中。
文心大模型4.5,是何雏形
两年前的3月16日,百度正式发布了文心一言,这是全球大厂中首个发布的生成式AI产品。
两年时间里,在AI上的不断创新一度让百度重回互联网科技公司的前排位置。尤其是政企市场的AI军备竞赛里,百度很早便确定,将AI运用于具体商业场景,解决企业和用户的痛点,提升效率,并悄然间筑起了护城河。
斯坦福教授吴恩达说过一句透彻的话:“未来AI的竞争不是比谁模型大,而是比谁能把技术塞进企业工作流。”
2025年1月,国内大模型招投标市场中标金额12.67亿元,百度一家独揽4.17亿。沈阳的智慧城市大脑、上海的金融风控平台、国家电网的智能巡检系统,这些订单中不乏国央企的身影。
百度创始人李彦宏就曾强调,基础模型只有在大规模解决现实问题时,才具备真实价值。这也让行业更加好奇,下一代文心大模型将是何雏形,我们可以从过往的产品中,管中窥豹。
实际上,作为全球最早对标GPT的LLM大模型,百度文心大模型强调准确性,聚焦消除大模型惯有的“幻觉”难题。
在从文心一言发布之初,百度就强调检索增强,这一价值,现在已成为业界共识。百度研发了理解-检索-生成协同优化的检索增强技术,显著提升了大模型技术及应用的效果。
在理解阶段,基于大模型理解用户需求,对知识点进行拆解;检索阶段,面向大模型进行搜索排序优化,并将搜索返回的异构信息统一表示,送给大模型;生成阶段,综合不同来源的信息做出判断,并基于大模型逻辑推理能力,解决信息冲突等问题,从而生成准确率高、时效性好的答案。
例如在测试中,即使是春节档电影细节、春晚节目等内容,文心一言都能准确回答;相比之下,OpenAI虽能检索到信源,却无法生成准确回答。检索增强是衡量大模型优劣的重要维度,百度基于搜索技术的积累在RAG上具备明显优势。
大模型的“幻觉”难题曾让行业遭受无数调侃,AI生图必须真实还原,否则可能带来信息误导,尤其在部分场景中,对信息真实、可靠性有很高的要求。比如你想生成一张贝克汉姆的照片,AI却给你生成了梅西,这显然是错误的。
为了解决这一难题,百度自研iRAG(image based RAG),检索增强的文生图技术,百度搜索收录了海量特定事物的可信图片资源,大模型的生成能力与这个“外挂知识库”相结合,iRAG就可以做到在生成特定物品、特定人物以及特定人物与任意背景结合的图像时,可以提高生成图像的准确率,减少幻觉,且没有“AI味儿“。预计在文心大模型4.5,这些能力将得到再进化。
正因为前瞻性地看到了AI大有可为,可贵的先发时间让百度构筑了技术高墙。比如在整体层面,百度AI建立了同行里少有的全栈自研的体系。近日,百度智能云成功点亮昆仑芯三代万卡集群,这也是国内首个正式点亮的自研万卡集群。而昆仑芯在性能上的优势,是能够在更少的计算资源下运行大规模模型。这使得大模型的推理和训练所需的计算量减少,从而直接降低算力成本。
得益于百度四层技术栈的独特优势,芯片、框架、大模型和终端应用场景能够形成高效的反馈闭环,帮助大模型不断调优迭代。自发布以来,百度不断降低文心大模型的推理成本。在不久前的百度Q4财报电话会中,李彦宏表示,会持续投入AI基础设施,以训练下一代模型。对于企业和开发者来说,基于文心大模型开发原生应用、做二次开发,都能够拥有更低的推理成本和更高的训练效率,这都让文心大模型4.5备受行业瞩目。
迈向下半场竞争
春节期间,DeepSeek以小博大降本出圈,刚开年,百度也顺势而为,打出连续开放的“组合拳”,AI行业的头部玩家打出先手招,将开源+免费带动成为行业的新趋势。
以百度为例,2月13日,百度宣布文心一言将于4月1日0时起全面免费,所有PC端和APP端用户均可体验文心系列最新模型,以及超长文档处理、专业检索增强、高级AI绘画、多语种对话等功能。同时,文心一言上线深度搜索功能,该功能具备更强大的思考规划和工具调用能力,可为用户提供专家级内容回复,并处理多场景任务,实现多模态输入与输出。截至目前,文心一言用户规模达到4.3亿,文心大模型日均调用量超过16.5亿次。
2月14日,百度称将在未来几个月中陆续推出文心大模型4.5系列,并于6月30日起正式开源。随着文心大模型的迭代升级,其训练和推理成本正在迅速下降。不久前,百度创始人李彦宏在迪拜AI峰会上表示,当前的创新速度比以往快得多,大模型的推理成本每年能降低90%以上,并表示将持续投入AI基础设施,以打造下一代大模型。据外媒爆料称,百度计划在今年发布多款模型,并于今年下半年推出文心大模型5.0。
前有DeepSeek爆火,后有数周以来百度密集放出模型新动作,在中国的竞争压力下,OpenAI也加速了模型发布的周期,放开开源的脚步,被“卷”到了墙角。
1月31日,OpenAI放出推理模型o3-mini。2月3日,搜索网页提炼文献的深度研究(Deep Research)上线。2月5日晚间,OpenAI宣布向所有用户开放ChatGPT搜索功能,无需注册。
2月28日凌晨,OpenAI官方发布了GPT-4.5大模型,根据官方介绍,该模型为“迄今为止最大、知识最丰富的聊天模型”,在用户企盼的性能方面,由于并非前沿模型,在编程、数学等多个维度的性能不如o3-mini,因此直播人员主要进行了和“情商”相关的演示,大有一丝仓促发布的意味。
OpenAI和百度齐齐从闭源转向开源和免费不难理解,二者都是人工智能模型领域的先行者,一起看到了开源模式的商业价值和影响力,当产业格局发生变化,生态开放的冲击力不可小觑,一个崭新的AI技术“民主化”时代加速到来,竞争也来到下半场。
实际上,开源与闭源并非完全站在对立面,相反两者可以开放并存,谁能在未来平衡驾驭二者,更能将大模型一以贯之,当门槛拉到极致,无疑会助推大模型应用的全面爆发。
想要占据大模型下半场的绝对主动权,更强大的基础大模型仍然是护城河,目前来看,前有DeepSeek被广泛接入,后有百度文心大模型4.5箭在弦上,OpenAI被“逼出”GPT-4.5的背后,是中国AI蓬勃发展与竞争加剧,不断提升能力并肩美国,一场新的行业比拼正在发生。