【AI 核心摘要】
讯飞星火X2-Flash正式发布并开放API,采用MoE架构,总参数30B,支持256K上下文,在智能体和代码能力上大幅提升。该模型基于华为昇腾910B集群训练完成,证明国产大模型在本土算力上可高效低成本运行。实测显示,星火X2-Flash在复杂任务效果上接近万亿级参数模型,但token消耗成本降至约三分之一,显著降低开发者构建Agent应用的成本。技术层面,通过数据、模型结构和训练推理系统的协同优化,包括智能体数据自动合成、DSA与MTP结合的长文本训练、采样解码效率提升等,实现了性能提升与成本下降。目前,该模型已兼容主流Agent框架,并提供开发者专属福利。
了解更多详细信息,请访问原文:科大讯飞推出MoE架构大语言模型星火X2-Flash
数据来源:AI Bot
© 版权声明
文章版权归作者所有,未经允许请勿转载。

