财中社12月30日电财通证券发布计算机行业报告。
DeepSeek-V3正式发布,性能对齐海外头部模型:12月26日,深度求索DeepSeek发布了其DeepSeek-V3模型。该模型是一款强大的混合专家(MoE)语言模型,拥有671B参数,激活37B,在14.8T token上进行了预训练。在多种任务中表现卓越,训练高效且成本效益显著。DeepSeek-V3在多项基准测试中表现优异,比肩世界顶级模型。
国内头部自研开源模型,创新引入训练新策略:DeepSeek-V3的基础架构仍在Transformer架构内,同时采用了多头潜在注意力(MLA)和DeepSeekMOE(DeepSeek混合专家)机制,以实现更高效推理和更具经济性价比的训练。DeepSeek-V3本次创新在于额外引入了无辅助损失的负载均衡策略(auxiliary-loss-free load balancing strategy)和多token预测策略(MTP),两者对模型训练过程进行了创新性的优化。在DeepSeek-V3后训练过程中,DeepSeek结合了监督微调(SFT)和强化学习(RL),使得模型可以更好的与人类偏好对齐,增强其泛化能力,并更好地处理未见过的数据和任务。
完整训练仅需278.8万H800GPU小时,高性价比追求普惠AGI:DeepSeek-V3的完整训练仅需278.8万H800GPU小时,包含预训练、上下文长度扩展和后训练。同时,DeepSeek-V3采用了FP8混合精度训练框架,这是首次在超大规模模型上验证FP8训练的可行性和有效性。综合评估表明,DeepSeek-V3是目前最强的开源模型,性能可与闭源模型如GPT-4o-0513和Claude-3.5-Sonnet-1022相媲美。另外,随着性能更强、速度更快的DeepSeekV3更新上线,DeepSeek-V3模型API服务定价也将调整为每百万输入tokens 0.5元(缓存命中)/ 2元(缓存未命中),每百万输出tokens 8元,是当前模型性能/价格比最优的模型服务。