此次发布的亮点在于Llama 4系列首次引入了混合专家(MoE)架构,这一创新设计通过将复杂任务分解给多个专业子模型处理,极大提升了模型训练和推理的效率。这些“专家”子模型各司其职,共同协作,使得Llama 4系列在处理多任务时更加游刃有余。