“残差神经网络发明人”、麻省理工学院副教授何恺明与图灵奖得主、“卷积网络之父”Yann LeCun的最新合作论文提出“无需归一化的Transformer”,目前已入选CVPR 2025,该发现有望进一步改进AI模型性能,给开发者们带来新思路。
来自Meta AI的华人科学家刘壮团队,联合AI大神何恺明, 图灵奖得住Yann LeCun等大牛搞了个大新闻——他们的最新论文证明了:Transformer ...
过去十年,归一化层已经巩固了其作为现代神经网络最基本组件之一的地位。这一切可以追溯到 2015 年批归一化(batch ...
在最新突破性研究中,何恺明与Yann LeCun这对神级搭档惊艳世界,他们通过仅仅9行代码成功去除了Transformer模型中的归一化层,且模型性能非但没有下降,反而得到了提升。这一创新成果来自于纽约大学、Meta、麻省理工学院等多家顶尖学术机构的共同努力,研发出一种不依赖于传统归一化层的新型技术。
在AI领域,归一化层长久以来被视为现代神经网络的基石之一,然而,最新研究却颠覆了这一传统观念。知名科学家何恺明和Yann LeCun合作带来了令人振奋的突破——通过引入名为DyT(动态Tanh)的新型模块,仅用9行PyTorch代码便能完全取代LayerNorm或RMSNorm,且不仅保留了相同的性能,还在训练和推理效率上实现了大幅提升。这项研究成果已经成功入选2025年CVPR会议。
当前正在显示可能无法访问的结果。
隐藏无法访问的结果