计算平台的演进遵循 “交互方式革新 - 硬件形态迭代” 的逻辑:从 PC 互联网时代的键盘鼠标,到移动互联网时代的多点触屏,如今空间计算时代正以 “手动、眼动、虚实结合” 的自然交互重塑人机界面。
区别于 VR 纯虚拟渲染,MR(混合现实)与 AR(增强现实)的核心差异在于虚实融合方式 —— 前者通过摄像头采集真实世界(VST ,Video See-Through),后者依赖光学叠加,但 “未来两者的界限将因技术进步而模糊,基于 VST 的轻量化设备有望兼具 AR 的便携与 MR 的沉浸式体验。”在 4 月 16 日芯原股份举办的可穿戴专题技术论坛上,万有引力(宁波)电子科技有限公司联合创始人、芯片研发负责人陈一敏在题为《AI 驱动智能视觉:AR 眼镜的未来之路》的演讲中说道。
万有引力(宁波)电子科技有限公司联合创始人、芯片研发负责人陈一敏
陈一敏深度解析了 AR 眼镜从概念迈向现实的关键技术路径,以及专用芯片如何突破传统架构,实现全天候智能助手的核心愿景。"AR眼镜的最大价值在于成为全天候捕捉视觉、听觉、位置与环境信息的实时智能助手,但实现这一愿景的核心矛盾在于——如何在超低功耗条件下,让芯片具备全天候AI算力支撑。"
突破硬件瓶颈:专用芯片重构 AR 眼镜技术架构
陈一敏将AR眼镜的进化路径被清晰划分为三个阶段:
- 基础功能期:当前市面产品仅满足语音交互、图像采集等初级需求;
- 多模态交互期:通过手势识别、眼动追踪等技术实现主动服务;
- 空间管家期:依托全天候AI实现"无感交互",如自动识别物品、场景预判用户需求等。
"真正的革命性突破在于芯片能否支持'AIWays-ON'模式。"陈一敏强调,"这意味着芯片需要在毫瓦级功耗下,持续进行视觉信息采集、ROI区域裁剪、多模态数据处理,并通过Gating Model智能筛选有效信息。"他以现场演示的视频为例,当用户询问"钥匙忘在哪"时,系统需调用红外摄像头、IMU传感器等多源数据,通过时空关联分析还原物品轨迹——这对芯片的异构计算架构提出极高要求。
针对行业痛点,万有引力提出了 “专用芯片 + 定制化架构” 的解决方案。陈一敏强调:“真正的难点不是实现 AI 功能 —— 这些在手机上早已成熟 —— 而是让 50 克级设备续航一整天,这需要颠覆传统通用芯片设计。”
产品布局
据介绍,万有引力已构建覆盖 MR、AR 场景的芯片产品体系:
- 5nm X100 芯片:对标苹果 Vision Pro 的 R1 芯片,作为全功能空间计算协处理器,支持 12 摄像头、5 传感器的超高实时数据输入,实现 12 毫秒级图像流式传输,以双芯片架构(M2+R1 模式)破解 “空间感知 + 通用计算” 的算力平衡难题,助力 MR 设备突破 “大头显” 形态,向 100g 墨镜式轻量化演进。
- 反向透视芯片EB100:采用独特的光学设计,实现裸眼3D效果。该芯片已应用于人形机器人"灵犀"头部显示模块,能在5cm距离投射与面部完美贴合的动态影像,为AR眼镜的微显示技术提供新思路。
- 12nm VX100 AI/AR 专用芯片:聚焦轻量化场景,具备三大核心优势:
-小型化设计:采用扁长形封装,单边尺寸仅 4mm,可嵌入眼镜鼻梁处或镜腿,支持镜框镜腿可拆卸结构,为工业设计释放空间。
-极致低功耗:自研第二代 ISP 实现 “260mW 录像功耗、mW 级待机功耗”,搭配专用 CV 数据通路,在 50 克级设备上实现 1080p30fps 拍摄与全天候 AI 唤醒。
-全天候智能感知:集成 NPU 算力,支持 “基于物体识别的主动式 ROI(Region of Interest)” 技术,通过动态裁剪 / 缩放图像区域,在功耗与算力间达成最优平衡。典型场景如 “寻找钥匙”:芯片以毫瓦级功耗持续监测环境,仅对关键物体触发高清拍摄与识别,避免全时段高负荷运算。
在场景定义芯片方面,陈一敏强调需要从 “功能堆砌” 过渡到 “需求驱动”。因为AR 眼镜的核心价值在于 “成为实时智能管家”,而非简单的 “AI 助手”。因此芯片设计需围绕三大核心场景深度优化:
- 视觉体验:支持 4 摄空间视频拍摄,实现手机级画质与超快抓拍,同时通过动态显示增强技术缓解渲染压力,助力 8K/120Hz 高清输出。
- 自然交互:集成手眼追踪专用硬件通路,支持 6DoF 定位与眼动追踪,配合自研算法实现 “0 延迟” 交互响应。
- 虚实社交:通过灵活算力分配,支持实时视频透视与虚拟形象叠加,打造无眩晕的 MR 混合体验,目标超越 Meta Orion 等竞品性能。
生态协同:芯原 IP 助力打造差异化竞争力
面对芯片设计的复杂挑战,万有引力选择与芯原股份深度合作,构建技术护城河:“成熟的工具链、可靠的客户支持、灵活的定制化能力,是我们选择芯原 IP 的关键。尤其在 XR 领域,芯原的市场影响力为我们提供了强大背书,客户对‘芯原 IP 赋能’的认可直接转化为产品竞争力。”
双方联合优化的 VX100 芯片,在 ISP 图像处理、低功耗 AI 模块等关键环节实现突破,既保障了高画质拍摄与低码率回传的平衡,又为客户算法部署提供了开放灵活的平台。
X100方案则可将MR设备体积压缩至墨镜形态,且支持4K分辨率下的120Hz刷新率,预计年内量产。几款芯片均瞄准 2024-2025 年发布的智能 AR 眼镜产品。
行业展望:从 “设备即入口” 到 “场景即服务”
随着 Meta Ray-Ban 眼镜实现 300 万出货量,AR 眼镜已从 “概念验证” 进入 “规模商用” 阶段。展望未来,陈一敏认为,2025 年国内市场将迎来 “百镜大战”,竞争焦点从硬件参数转向 “场景定义能力”—— 芯片需成为 “场景翻译器”,将用户的视觉、听觉、位置等多模态数据转化为主动式服务,例如实时翻译、商品信息识别、健康监测等。
AR 眼镜的终极形态,是让技术‘隐形’:用户无需刻意操作,设备即可通过 AI 驱动的场景感知与意图理解,成为全天候无缝协作的智能伙伴。而这一切的基础,是像 VX100 这样专为极致场景设计的专用芯片,它们是打开下一代计算平台的钥匙。
