资讯

好消息来了!谷歌刚刚发布了Gemma 3的QAT(量化感知训练)版本,通过一些巧妙的技术优化,让27B的大模型也能在NVIDIA RTX 3090这样的消费级显卡上跑起来。这不仅让更多人能体验到强大的AI功能,还为开发者们带来了前所未有的便利。
比如经过 QAT 优化后,Gemma 3 27B 的 VRAM 占用量可以从 54GB 大幅降至 14.1GB,使其完全可以在 NVIDIA RTX 3090 等消费级 GPU 上本地运行! Chatbot Arena Elo ...
IT之家 4 月 19 日消息,谷歌公司昨日(4 月 18 日)发布博文,发布了量化感知训练(QAT)优化版 Gemma 3 模型,在保持高质量的同时,降低内存需求。 谷歌上月推出 Gemma 3 开源模型,能在单台 NVIDIA H100 GPU ...
以 int4 量化为例,Gemma 3 27B 显存需求 从 54GB 锐减至 14.1GB ,Gemma 3 12B 则从 24GB 降至 6.6GB;Gemma 3 1B 仅需 0.5GB 显存。
帕金森病(PD)神经精神波动影响患者生活质量,临床评估存在困难。研究人员分析 33 名 PD 患者在 ON 和 OFF 药物状态下的自发言语内容,使用机器学习和大语言模型(LLMs)预测药物状态和神经精神状态评分。LLMs 的 Gemma-2(9B)表现最佳,这为 PD 治疗效果评估和远程监测提供了新方法。
杰玛·加尔加尼 (Gemma Galgani) 的新骑士引发了她与蒂娜·西波拉里 (Tina Cipollari) 之间的紧张关系。 杰玛·加尔加尼的新开始 春天带来了一股清新的空气,对于 Gemma Galgani 来说,这似乎是重新发现幸福的时刻 ...
微软研究院近期揭晓了其最新的大型语言模型(LLM)成果——BitNet b1.58 2B4T,这款模型凭借独特的1.58位低精度架构设计,成功将模型大小压缩至仅0.4GB,引起了业界的广泛关注。 BitNet b1.58 ...
【太平洋科技快讯】近日,微软研究院宣布推出一款大型语言模型(LLM)——BitNet b1.58 2B4T,这款模型采用1.58 位低精度架构,内存仅占0.4GB。BitNet b1.58 2B4T 拥有 20 亿参数,其核心创新在于采用了原生 ...
与此同时,微软还在搭载高通芯片的 Copilot Plus PC 上更新了“语音访问”(Voice Access)功能。这是一项辅助功能,旨在帮助用户通过语音控制电脑。微软表示,使用高通芯片设备的语音访问用户现在将能够“使用更具描述性和灵活性的语言与他们的电脑进行交流”。此外,本次更新还新增了将 27 种语言翻译成简体中文的功能。微软方面透露,计划在未来将这两项语音访问的更新推广到搭载英特尔和 ...
微软研究院的研究团队近日发布了一项突破性成果——BitNet b1.58 ...