9月26日,在第六届人工智能计算大会(AICC2025)开幕式上,北京智源人工智能研究院(以下简称“智源研究院”)携手全球生态伙伴,在北京市科委、中关村管委会,北京市发展改革委,海淀区政府的共同见证下,正式发布“大模型全栈开源技术基座众智FlagOS1.5”,Linux基金会、PyTorch基金会等机构,以及产业链上下游企业代表参会。
本次众智FlagOS1.5的发布,不仅是一次技术升级,更是对开放计算理念的深化实践。它正汇聚全球力量,为AI产业搭建开放高效的底层基座,为全球AI可持续发展注入中国智慧。
破解AI算力碎片化困境,担起“开放计算”时代使命
当前,全球AI芯片种类繁多,但各厂商多构建独立软件生态,形成“一芯一栈”的“烟囱式”开发模式。这导致开发者面对模型跨芯片迁移需数月重写适配代码,用户被绑定单一硬件丧失选择权,开发者精力耗于底层适配而难推进算法创新。众智FlagOS1.5秉承“开放计算”理念,旨在通过统一软件层解耦AI模型与异构硬件,实现“一次开发,处处运行”,进一步打破了芯片技术壁垒,为全球AI产业打造开放协同的创新底座。
全栈能力飞跃,四大维度定义AI系统新标杆
历经两年打磨,众智FlagOS1.5在全面性、自动化、性能、场景四大维度实现关键突破。全面性上,芯片适配覆盖全球20余款主流AI芯片,涵盖寒武纪、昆仑芯、摩尔线程、清微智能、华为昇腾、英伟达等17家厂商,兼容性居全球前列。核心组件中,FlagGems算子库是全球最大Triton语言算子库(超200个核心算子),支持16家芯片企业25余款产品,且唯一纳入PyTorch官方生态;FlagTree编译器适配12家厂商20余款芯片,关键算子性能接近CUDA算子最佳表现;FlagCX通信库集成于百度飞桨3.0,相关标准推进国标立项与ITU国际标准审批。自动化层面,推出全球首个AI算子自动生成工具Triton-Copilot,让无经验开发者1-2小时完成专家1-2天的工作;FlagRelease结合AI Agent,将大模型跨芯片迁移效率提升4倍,支持Qwen3、Ernie4.5等主流开源模型自动适配。性能上,FlagScale框架实现千卡千亿参数大模型国产芯片高效训练,训练加速36.8%、推理加速20%,端到端推理性能达CUDA平台90%以上,部分模型提升近3倍;FlagCX通信库Pipeline优化较前版本提升2.32倍。场景拓展上,首次打通具身“大脑”(RoboBrain)与“小脑”(VLA)端云协同路径,支持RWKV、Diffusion等新型模型,完成浪潮、海光超节点架构部署验证,赋能AI机器人领域。
生态共筑,人才与协作夯实发展根基
生态建设是FlagOS持续发展的核心,随着中国电子技术标准化研究院、苏州大学、CSDN等新伙伴加入,FlagOS开源生态社区核心共建单位超60家。在AICC分论坛智源研究院组织的FlagOS开放计算开发者大会上,智源发布《FlagOS具身方向工作计划》,华为等企业分享大规模智能体训练等实践,圆桌论坛探讨“AI模型-系统-机器人”融合路径,推动技术对接产业需求。人才培养方面,智源启动“AI高校公益行”,联合清华、北大等十余所高校,以《AI高性能计算软件编程》课程构建“理论-实践”培养体系;同时与Kaggle等合作举办“FlagOS全球大赛”,以实战发掘人才。
相关人物