谷歌发布 Gemma 3n 端侧多模态模型,2GB 内存也能玩转 AI

内容摘要IT之家 5 月 21 日消息,今天召开的 2025 年 I/O 开发者大会上,谷歌推出了 Gemma 3n 端侧多模态 AI 模型,可以在手机、平板和笔记本电脑上本地运行,处理音频、文本、图片和视频多种数据类型。Gemma 产品经理 Gu

联系电话:400-962-3929

IT之家 5 月 21 日消息,今天召开的 2025 年 I/O 开发者大会上,谷歌推出了 Gemma 3n 端侧多模态 AI 模型,可以在手机、平板和笔记本电脑上本地运行,处理音频、文本、图片和视频多种数据类型。

Gemma 产品经理 Gus Martins 透露,Gemma 3n 可以在内存小于 2GB 的设备上运行,采用 Gemini Nano 同款架构,但性能表现更出色。他强调:“Gemma 3n 为设备端 AI 应用带来了惊人的表现力。”

IT之家援引博文介绍,Gemma 3n 的最大亮点在于采用了谷歌 DeepMind 开发的 Per-Layer Embeddings(PLE)技术,显著降低了模型的内存需求。尽管其参数量分别为 5B 和 8B,但内存占用仅相当于 2B 和 4B 模型。

谷歌宣称,Gemma 3n 的内存占用分别低至 2GB 和 3GB。此外,通过 PLE、KVC 共享和高级激活量化等技术,Gemma 3n 在移动设备上的响应速度提升 1.5 倍,质量也优于 Gemma 3 4B 版本。

Gemma 3n 在非英语语言处理上也有突破,尤其在日语、德语、韩语、西班牙语和法语中表现优异,在多语言基准测试 WMT24++ 中,该模型得分高达 50.1%。

用户无需任何设置,目前可通过 Google AI Studio 直接在浏览器中使用 Gemma 3n;开发者则可通过 Google AI Edge 集成本地功能,支持文本和图像理解与生成,未来还将扩展更多能力。

2025 谷歌 I/O 开发者大会专题
 
举报 收藏 打赏 评论 0
今日推荐
浙ICP备19001410号-1

免责声明

本网站(以下简称“本站”)提供的内容来源于互联网收集或转载,仅供用户参考,不代表本站立场。本站不对内容的准确性、真实性或合法性承担责任。我们致力于保护知识产权,尊重所有合法权益,但由于互联网内容的开放性,本站无法核实所有资料,请用户自行判断其可靠性。

如您认为本站内容侵犯您的合法权益,请通过电子邮件与我们联系:675867094@qq.com。请提供相关证明材料,以便核实处理。收到投诉后,我们将尽快审查并在必要时采取适当措施(包括但不限于删除侵权内容)。本站内容均为互联网整理汇编,观点仅供参考,本站不承担任何责任。请谨慎决策,如发现涉嫌侵权或违法内容,请及时联系我们,核实后本站将立即处理。感谢您的理解与配合。

合作联系方式

如有合作或其他相关事宜,欢迎通过以下方式与我们联系: