最能代表这一愿景的,是 Google 稍早前刚刚展示的 AI 眼镜。它的外观看起来像一副普通眼镜,但眼镜里内嵌了摄像头、扬声器和麦克风,以及微型显示器和 Gemini 系统支持。举个例子,你只需要看一眼菜单,眼镜便能帮你识别菜名、推荐更健康的选择;又或者你走在陌生城市街头,轻声一句「这是什么建筑」,就能实时获取语音解说。
这款眼镜不是为了炫技,而是代表了 Google 对「AI 眼镜」这一设备形态的真实押注——不需要沉浸,也不强调娱乐,而是想成为你生活中那个随时在旁边、能听、能看、能回应的 AI 助手。
第三,是 Gemini 的开发接口正变得越来越开放。Google 这次 I/O 将正式推出新版 Gemini API 和 Gemini Nano(边缘端侧模型)工具链——一个面向 AI 原生应用开发者的全套体系。从文本生成到图像理解,从数据总结到多轮对话,开发者可以像调用网络接口一样调用模型能力,真正进入「AI as a platform」时代。
图/ Google
尤其对于手机、眼镜、可穿戴设备这样的边缘终端来说,这意味着 AI 不再只是云端特权,而是可以走进本地,常驻用户日常。
总之,对普通用户而言,Gemini 本身的变化可能不会显得那么剧烈,但影响却无处不在。而作为 Google 的 AI 策略核心,Gemini 无疑是 Google 面向下一代平台——AI 原生、多设备协同、空间计算的第一张王牌。
它不只是一种模型架构,而是一种能力分发机制,一种交互范式的重建,更是 Google 重新定义生态主导权的绝佳机会。而 Google I/O 2025,将是它一次全面爆发的舞台。
写在最后
过去两年,整个科技世界和 Google I/O 都在发生了巨大的变化,AI 毋庸置疑正是这种变化的核心推动力。今年的趋势还要更加明显,Google I/O 2025 的主角显然不只是某一款手机、某一项功能,而是那个更大的问题: