近日,HPC-AI Tech 宣布推出 Open-Sora2.0,这是一款突破性的视频 AI 系统,仅需约十分之一的典型训练成本即可实现商业级质量。这一进展标志着在资源密集型的视频 AI 领域可能出现范式转变,堪比语言模型中出现的效率提升。
具体来讲,xLSTM 7B 模型基于 DCLM 数据集,使用 128 块 H100 GPU,在 8192 上下文长度下训练了 2.3 万亿 token。研究者对原始 xLSTM 架构进行了改进,确保训练效率和稳定性,同时保持任务性能。新架构依靠 ...
法国创业公司Mistral AI宣布推出最新的人工智能模型Mistral Small 3.1,根据官方公布的基准测试数据,Mistral Small 3.1的整体性能表现,尤其在视觉理解及长上下文处理方面,明显优于Google日前发布的Gemma ...
随着人工智能技术的飞速发展,越来越多的模型应用于各种场景。近日,Mistral AI公司发布了最新模型Mistral Small 3.1,引起了广泛关注。这款模型凭借其强大的性能和灵活的部署方式,成为了业内关注的焦点。 首先,Mistral ...
3 月 19 日消息,Mistral AI 公司于 3 月 17 日发布博文,推出最新 Mistral Small 3.1 模型,240 亿参数,128K 上下文,不仅能在本地运行,降低成本,而且部分性能超过 OpenAI 的 GPT-4o mini ...
3月19日消息,MistralAI公司在3月17日的博文中大放异彩,正式推出其最新的Mistral Small 3.1模型。这个拥有240亿参数的AI系统,不仅支持128K上下文长度,令人振奋的是,它在本地运行的效率极高,成本还可大幅降低,甚至在某些性能指标上超越了OpenAI的GPT-4o-mini。 Mistral Small 3.1的设计初衷是高效与经济并存,适合在单张RTX 4090显卡的 ...
IT之家 3 月 19 日消息,Mistral AI 公司于 3 月 17 日发布博文,推出最新 Mistral Small 3.1 模型,240 亿参数,128K 上下文,不仅能在本地运行,降低成本,而且部分性能超过 OpenAI 的 GPT-4o mini。
加利福尼亚州圣何塞 - 半导体行业领军企业英伟达(NASDAQ: NVDA)与Alphabet ...
机器之心报道编辑:张倩多模态,性能超 GPT-4o Mini、Gemma 3,还能在单个 RTX 4090 上运行,这个小模型值得一试。小模型正在变得越来越好,而且越来越便宜。刚刚,法国 AI 创企 Mistral AI 开源了一个 24B ...
AMD近期揭晓了其锐龙AI MAX+ 395 “Strix Halo” APU在DeepSeek R1 AI基准测试中的卓越表现,这一成绩远超NVIDIA RTX 5080桌面版显卡,性能提升幅度超过3倍。
近日,Roblox宣布推出并开源Cube3D,这是该公司首个用于生成3D对象的基础AI模型。根据Roblox的新闻稿,Cube3D旨在提高3D创作效率,让开发者能够快速探索创作方向并提升生产力。
Investing.com -- 今日,重量级AI模型Mistral Small 3.1发布。该模型是Mistral Small 3的升级版本,带来了增强的文本处理性能、多模态理解能力,以及扩展至128k tokens的上下文窗口。其性能超越了同类模型如Gemma 3和GPT-4o Mini,同时提供每秒150个token的推理速度。 Mistral Small 3.1采用Apache 2.0许可 ...