Google 推出超小杯 AI:Gemma 3 270M!可进手机和浏览器

大模型机器学习算法

270M 参数,电池用量不到 1%,却能在手机上跑出不错的效果。

Google 发布了 Gemma 3 家族的最小版本——Gemma 3 270M,专门用于任务特定的微调。这是一个 2.7 亿参数的模型,看起来很小,但设计思路挺有意思。

核心参数

  • 总参数量 : 2.7 亿(1.7 亿嵌入参数 + 1 亿变换器参数)
  • 词汇表 : 25.6 万 tokens,能处理特定和稀有词汇
  • 能耗 : 在 Pixel 9 Pro 上,INT4 量化版本进行 25 次对话只用了 0.75% 的电量
  • 性能 : IFEval 基准测试中,在同规模模型中表现突出

picture.image

设计理念:够用就行

Google 在文档里用了一个比喻:你不会用大锤子挂画框。这个模型就是这个思路的体现——不追求大而全,而是专注于做好特定任务。

270M 不是为了复杂对话设计的,而是作为基础模型,通过微调变成某个领域的专家。比如文本分类、数据提取、情感分析这些高频但明确的任务,微调后的 270M 可能比大模型更高效。

实际应用场景

适合的场景:

  • 高频、明确定义的任务(情感分析、实体提取、查询路由)
  • 需要控制推理成本的生产环境
  • 快速迭代和部署(几小时而非几天)
  • 隐私敏感应用(完全本地运行)
  • 多个专用模型组合使用

真实案例:

SK Telecom 和 Adaptive ML 合作,微调 Gemma 3 4B 处理多语言内容审核,效果超过了更大的专有模型。270M 版本让这种专门化更进一步。

还有人用它做了个睡前故事生成器,完全在浏览器里跑。

部署和工具

模型已经在多个平台发布:

  • 下载 : Hugging Face、Ollama、Kaggle、LM Studio、Docker
  • 试用 : Vertex AI、llama.cpp、Gemma.cpp、LiteRT、Keras、MLX
  • 微调 : Hugging Face、UnSloth、JAX
  • 部署 : 本地环境到 Google Cloud Run

量化感知训练(QAT)版本已经就绪,INT4 精度下性能损失很小。

小结

这个发布时间点有点意思。当大家都在比拼大模型参数量的时候,Google 反过来做小模型。

270M 的设计理念很清晰:与其用大模型做所有事情,不如用小模型做专门的事情。对于很多实际应用场景,这个思路可能更合理——成本低、速度快、隐私好。

不过这也意味着你需要更清楚地定义问题。如果你的需求变来变去,还是大模型省事。但如果你有明确的、高频的任务,270M 可能是个不错的选择。

Gemma 下载量已经超过 2 亿次,看起来开源策略还是有效果的。270M 这个版本可能会在移动端和边缘计算场景找到自己的位置。

关注公众号回复“进群”入群讨论。

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
字节跳动 XR 技术的探索与实践
火山引擎开发者社区技术大讲堂第二期邀请到了火山引擎 XR 技术负责人和火山引擎创作 CV 技术负责人,为大家分享字节跳动积累的前沿视觉技术及内外部的应用实践,揭秘现代炫酷的视觉效果背后的技术实现。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论