DeepSeek系列核心技术与贡献总结

模型演进路径:从DeepSeek V1到V3及R1

DeepSeek V1(DeepSeek-MoE):DeepSeek系列的首个版本以Mixture-of-Experts稀疏架构奠定基础,标志着参数规模扩张的新思路。相比传统Transformer全参数参与计算的稠密模型,DeepSeek V1通过MoE机制仅激活部分“专家”子网络参与计算,大幅提升了参数总量而计算开销较小。据报道,DeepSeek早期的ChatGPT竞品模型在中英双语语料上训练了约2万亿Token,展示了强大的预训练实力。V1模型在设计上解决了MoE常见的专家知识重叠和负载不均问题。一方面,通过精细划分专家,将每个大型全连接层拆分为多个更小的专家,使每个专家更专注于特定知识领域,同时一次激活更多专家以弥补拆分后的容量。另一方面,引入共享专家机制,从所有专家中独立出一部分“共享专家”专门学习通用知识,每个Token无论怎样路由都会固定经过这些共享专家,从而减少各路由专家重复学习常识的冗余。为避免MoE路由中出现专家塌陷(模型总是选择少数几个专家,导致其他专家训练不足)以及设备间负载不均等问题,DeepSeek V1还在训练中加入了专家级和平局级的负载均

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Chaos_Wang_

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值