三星MX事业部执行副总裁Jay Kim在接受外媒CNBC专访时,首次披露了其智能眼镜项目的核心设计理念与技术架构。这款设备采用独特的摄像头布局方案,将镜头置于与用户视线平齐的位置,通过捕捉第一视角画面实现环境感知功能。系统高度依赖智能手机进行数据处理,所有复杂计算任务均由手机端完成,眼镜本体仅承担基础信息采集功能。
该技术方案支持三大核心功能:实时场景识别、物体特征分析以及AI智能建议。由于摄像头与用户视线保持同步,系统能够精准获取用户正在观察的物体信息,并通过无线传输将数据发送至手机进行深度分析。这种设计既保证了设备轻量化,又通过手机算力弥补了眼镜本体的性能限制,形成独特的软硬件协同模式。
关于交互方式,Jay Kim虽未明确确认是否配备显示屏,但透露用户可能需要通过智能手机或智能手表获取反馈信息。这种设计暗示产品可能采用语音指令、触觉反馈或手机端界面作为主要交互渠道,避免在眼镜上集成复杂显示组件带来的重量问题。
在技术合作层面,三星与高通、谷歌建立了三方联盟。高通负责提供专用芯片解决方案,谷歌则开放其系统平台资源,三方共同开发适配混合现实场景的芯片架构与硬件标准。特别值得注意的是,此次合作将深度整合Android XR平台,为开发者提供统一的开发环境。
据供应链消息显示,三星智能眼镜项目包含两条产品线:无屏基础款计划于年内上市,而配备显示屏的增强版预计推迟至2027年发布。这种产品策略既满足初期市场探索需求,又为技术迭代预留充足时间。公司内部人士透露,可发布版本已完成核心功能验证,目前正进行最后的环境适应性测试。











