
Google推出全新多模态开源AI模型Gemma 3n,最大卖点是仅需2GB内存便能在智能手机上本地运行。Gemma 3n不但支持文本输入,也兼容声音、图像与视频数据处理,让开发者可在移动设备上实现完整AI应用体验。
Gemma 3n属Google Gemma模型家族一员,开发方针一贯强调开放与自订性。这次正式发布的E4B主模型与E2B子模型,均已上架Hugging Face及Kaggle平台,开发者可随时下载应用。Gemma 3n以“MatFormer”技术训练模型架构,实现如俄罗斯套娃般的结构,E2B作为E4B的小型副本,可独立运行。
主打流动平台的E2B模型拥有5B参数,内存使用量压缩至仅2GB,内存压缩关键在于使用称为“Per-Layer Embeddings(PLE)”的设计。这种方式大幅降低模型执行时所需数据访问负担,令原本内存需求高的模型也可在智能手机内顺畅运行。
Gemma 3n E4B模型则拥有8B参数,实测显示其内存消耗与传统4B模型相约,运行时只需3GB内存。即使在性能方面,Gemma 3n E4B也超越GPT 4.1-nano,并压倒Llama 4 Maverick 17B-128E及Phi-4等体积较大模型。
Gemma 3n现在支持多个执行环境,包括Hugging Face Transformers、llama.cpp、Google AI Edge、Ollama、MLX等,还可通过Pixel 8 Pro等移动设备安装“Google AI Edge Gallery”应用程序作本地运行。用户更可于Google AI Studio测试其聊天功能。
Google通过Gemma 3n展示AI模型与硬件门槛不再挂钩,开放下载配合低内存门槛,有望推动智能手机与物联网设备加速导入多模态AI应用。
数据源:Google
联丰优配官网提示:文章来自网络,不代表本站观点。