【AI 核心摘要】

讯飞星火X2-Flash正式发布并开放API,采用MoE架构,总参数30B,支持256K上下文,在智能体和代码能力上大幅提升。该模型基于华为昇腾910B集群训练完成,证明国产大模型在本土算力上可高效低成本运行。实测显示,星火X2-Flash在复杂任务效果上接近万亿级参数模型,但token消耗成本降至约三分之一,显著降低开发者构建Agent应用的成本。技术层面,通过数据、模型结构和训练推理系统的协同优化,包括智能体数据自动合成、DSA与MTP结合的长文本训练、采样解码效率提升等,实现了性能提升与成本下降。目前,该模型已兼容主流Agent框架,并提供开发者专属福利。


了解更多详细信息,请访问原文:科大讯飞推出MoE架构大语言模型星火X2-Flash

数据来源:AI Bot

文章版权声明 1 本网站名称:凉西西小圈
2 本站永久网址:https://www.xcxybbs.cn
3 本网站的文章部分内容可能来源于网络,仅供大家学习与参考,如有侵权,请联系站长 QQ418005852进行删除处理。
4 本站一切资源不代表本站立场,并不代表本站赞同其观点和对其真实性负责。
5 本站一律禁止以任何方式发布或转载任何违法的相关信息,访客发现请向站长举报
6 本站资源大多存储在云盘,如发现链接失效,请联系我们我们会第一时间更新。
© 版权声明