西风 发自 凹非寺量子位 | 公众号 QbitAI DeepSeek MoE“变体”来了,200美元以内,内存需求减少17.6-42%!
机器之心授权发布作者:王子涵我们都知道,DeepSeek-R1 的训练过程使用了一种名为专家混合模型(Mixture-of-Experts, MoE)的技术,而当前的 MoE ...
在AI浪潮席卷之际,阿里巴巴达摩院的资深技术专家李春强近日在采访中表示,DeepSeek模型的崛起正为RISC-V架构带来前所未有的发展机遇。李春强指出,基于MOE技术,DeepSeek有效降低了激活参数比例,使得在保持相同效果的基础上,所需的计算能力大幅度减少。这一进步无疑为芯片设计领域设定了一个新的平衡点。
格隆汇3月4日|据21财经,阿里巴巴达摩院资深技术专家李春强在采访时表示,DeepSeek模型的火爆为RISC-V架构带来了新的发展机遇。“DeepSeek通过MOE技术大幅降低了激活参数比,使得模型在同等效果下所需算力显著减少,这一变化为芯片设计提供了新的平衡点。”李春强说道。RISC-V是一款开源且免费的CPU指令集架构。与x86和ARM等传统指令集架构相比,RISC-V不仅完全免费开放,还支 ...