27B 显存需求 54 → 14.1GB:谷歌发布 Gemma 3 QAT AI 模型,RTX 3090 显卡可运行

内容摘要IT之家 4 月 19 日消息,谷歌公司昨日(4 月 18 日)发布博文,发布了量化感知训练(QAT)优化版 Gemma 3 模型,在保持高质量的同时,降低内存需求。谷歌上月推出 Gemma 3 开源模型,能在单台 NVIDIA H100

联系电话:400-962-3929

IT之家 4 月 19 日消息,谷歌公司昨日(4 月 18 日)发布博文,发布了量化感知训练(QAT)优化版 Gemma 3 模型,在保持高质量的同时,降低内存需求。

谷歌上月推出 Gemma 3 开源模型,能在单台 NVIDIA H100 GPU 上以 BFloat16(BF16)精度高效运行。

IT之家援引博文介绍,谷歌为响应用户需求,致力于让 Gemma 3 的强大性能适配普通硬件。量化技术是关键,通过降低模型参数的数值精度(如从 BF16 的 16 位降至 int4 的 4 位),类似图像压缩减少颜色数量,大幅减少数据存储量。

以 int4 量化为例,Gemma 3 27B 显存需求从 54GB 锐减至 14.1GB,Gemma 3 12B 则从 24GB 降至 6.6GB;Gemma 3 1B 仅需 0.5GB 显存。

这意味着用户可在桌面(NVIDIA RTX 3090)或笔记本(NVIDIA RTX 4060 Laptop GPU)上运行强大 AI 模型,甚至手机也能支持小型模型。

为避免量化导致性能下降,谷歌采用量化感知训练(QAT)技术,在训练过程中模拟低精度运算,确保模型在压缩后仍保持高准确性。Gemma 3 QAT 模型在约 5000 步训练中,将困惑度下降减少了 54%。

Ollama、LM Studio 和 llama.cpp 等主流平台已集成该模型,用户可通过 Hugging Face 和 Kaggle 获取官方 int4 和 Q4_0 模型,轻松在 Apple Silicon 或 CPU 上运行。此外,Gemmaverse 社区提供了更多量化选项,满足不同需求。

 
举报 收藏 打赏 评论 0
今日推荐
浙ICP备19001410号-1

免责声明

本网站(以下简称“本站”)提供的内容来源于互联网收集或转载,仅供用户参考,不代表本站立场。本站不对内容的准确性、真实性或合法性承担责任。我们致力于保护知识产权,尊重所有合法权益,但由于互联网内容的开放性,本站无法核实所有资料,请用户自行判断其可靠性。

如您认为本站内容侵犯您的合法权益,请通过电子邮件与我们联系:675867094@qq.com。请提供相关证明材料,以便核实处理。收到投诉后,我们将尽快审查并在必要时采取适当措施(包括但不限于删除侵权内容)。本站内容均为互联网整理汇编,观点仅供参考,本站不承担任何责任。请谨慎决策,如发现涉嫌侵权或违法内容,请及时联系我们,核实后本站将立即处理。感谢您的理解与配合。

合作联系方式

如有合作或其他相关事宜,欢迎通过以下方式与我们联系: