媒体风向变化太快,让人目不暇接。早上还在夸Deepseek成本低,性价比高,预训练Scaling Law死了,不需要太多机器和GPU卡,性价比优先,英伟达休矣;中午Grok 3一出来,说是用了10万张英伟达H100卡,效果力压OpenAI o3 mini和Deepseek R1,就转向说Scaling ...
【编者按】2月18日,埃隆·马斯克旗下的人工智能公司 xAI 发布了 Grok 3 系列模型,使用 20 万 GPU,并被马斯克誉为“地球上最聪明的AI”。对此,也引申出一个话题,那就是预训练阶段的 Scaling Law ...