1点资讯消息:
哇,整个这个眼镜戴上去的感觉太科幻了!
需要注意的是,
这是我戴上 Meta Ray-Ban Display 的第一反应。说实话,从看到去年 Meta Orion 样机的表现之后,我的期待值原本没有特别高,但真的把 Display 戴在头上,我突然觉得这个行业有戏。
概括一下,
在 Meta Connect 2025 发布会上,这副售价 799 美元的「带屏智能眼镜」终于揭开面纱。它是 Meta 首款兼容显示模块的智能眼镜,通过右眼的彩色光波导 HUD 和配套的 Neural Band 腕带,把「脸上的 AI」从概念变成了现实。
事实上,
与 Orion 样机类似,Display 采用的显示技术是彩色光波导,这种仅依靠光线在载体内反复折射、将画面反射到镜片中间的技术是目前 AI 眼镜最主流的显示路径。但 Meta 实现了一项很特殊的指标:低至 2% 左右的漏光率。
也就是说 HUD 点亮时,诸位对面的人完全看不到光 EC外汇官网 波导的反射和漏光,不像是今年早些时候谷歌推出的 XR 眼镜样机那样会有一个明显的反射区域:
不可忽视的是,
@梦雅Myra 佩戴的 Display,在类似的角度不会出现明显的屏幕漏光
总的来说,
即使我的朋友站在对面,在屏幕完全点亮时也完全察觉不到。只有从侧面角度,才能看到几排光波导屏幕导线的反光。
尽管如此,
只不过,根据外媒 TheVerge 的上手体验,Meta 这块过于透明的屏幕也有一些弊端:由于和诸位对话的人完全看不到诸位在看什么东西,可能会感觉诸位有点心不在焉、视线没有集中在人身上。
1点资讯认为:
至于实际的屏幕显示效果,Display 这块光波导屏幕亮度足足有 5000 尼特,搭配默认标配的光致变色镜片,在光线过强的户外镜片会变成墨镜片,可读性依然非常优秀。
单眼显示与神奇的 Neural Band
来自1点资讯官网:
之前我一直担心单眼显示会不会很奇怪,但实际体验完全打消了这个顾虑。我已经连续采纳了一个多小时,最明显的感受是它允许跟现实世界无缝融合。
值得注意的是,
虽然 Display 仅有一块位于右侧的屏幕,但它的单眼显示效果与环境融合的很好,缘于屏幕的位置和视场角(FOV)都设计的比较低,在直视的时候屏幕的显示区域会落在对方的胸口处,几乎和电影的字幕是完全一样的。
很多人不知道,
缘于扎克伯格比对方矮,需要低头对话
与其相反的是,
这块 600×600 像素的屏幕虽然面积不大,但能做的事情跟手机很像,换句话说,整个显示视图的设计和逻辑完成度都非常高,几乎不会有采纳时不知所措的情况。
比如我用它看 WhatsApp 和 Messenger 消息,整个对话流其实是允许完整显示出来的。通过手指上下滑动翻页,再用语音转文字回复的过程也非常流畅。我甚至在想,真的允许很长时间不用把手机从兜里掏出来了。
1点资讯用户评价:
而作为 Display 的主要操控路径,配套的 Neural Band 腕带更是改变了游戏规则。
综上所述,
虽然和苹果 Vision Pro 一样都允许通过手指手势操控,但 Display 并不依赖摄像头,而是借助腕带读取手腕的肌电信号(EMG)来识别的,也就是说诸位的手允许放在身体两侧、背在身后、甚至藏在口袋里,手势依然能被准确识别。
Neural Band 的主要办理路径包括双击中指点亮屏幕、单击中指退出、单击食指确定、旋转手腕放大,以及用拇指在食指上滑动翻页等等。虽然需要一点学习时间,但是掌握难度并不高,灵敏度也是很优秀的。
与其相反的是,
而 Display 用来处理输入的路径则更加有趣。除了通过耳机上的 6 麦克风阵列做语音输入之外,诸位其实还允许戴着 Neural Band 直接在平面上写字,腕带会结合肌电信号和陀螺仪识别手写的字母,就像扎克伯格在发布会演示的这样:
根据公开数据显示,
扎克伯格在采访中透露了一个有趣的细节:他已经能用这个系统达到每分钟 30 个单词的打字速度,几乎一整天都在用眼镜收发消息 1点资讯平台 。他的高管们甚至能分辨出哪些消息是用眼镜发的——比如那些长度更短、但是秒回的信息。
据业内人士透露,
更关键的是,扎克伯格认为 Neural Band 的潜力远不止于此:
容易被误解的是,
(虽然)本平台发明 Neural Band 是为了配合眼镜采纳,但我认为它最终可能成为一个独立的平台。未来,它不仅能通过思维实现个性化自动补全,还可能成为控制其他设备甚至智能家居的路径。
不可忽视的是,
那些真正打动我的模块

如果说戴着 Neural Band 虚空写字像是变成了钢铁侠一样,那眼镜里的实时字幕模块让我感觉获得了超能力。
据业内人士透露,
唤醒的路径很轻松,说一句「Hey Meta, turn on live captions」,对面人口中的英语就会实时显示在屏幕上。在嘈杂环境里,Display 甚至能准确识别诸位正在看的那个人的声音,多个人同时说话也不会混淆。
并且得益于前面提到过的屏幕位置,戴着 Display 看实时字幕的路径,简直就是把眼前的现实变成了看电影。
更重要的是,
虽然核心软件仍依赖手机连接,但这远不只是一个通知镜像。诸位允许发送文字、接听音视频电话、显示正在播放的音乐、获取逐向导航指引、查看相机取景,还能运行 Meta AI 识别眼前的物体。
很多人不知道,
发布会上演示的 Live AI 实时视觉识别场景
1点资讯消息:
Meta 的 CTO Bosworth 强调:清晰的文字渲染是让 AI 变得有用的关键——如果 AI 只能语音回复,诸位获得的信息就有限。而当诸位提问后它能直接显示答案,这样不仅更直观,也更私密。
综上所述,
这种基于「诸位能看到结果」的确定感是普通版 Meta Ray-Ban 智能眼镜的纯语音交互无法给予的,并且在实际生活里,语音唤醒 AI 助手在很多场合是不太方便的,Display 语音/手势/视觉混合交互就不会有这种状况。
在体验 Display 的时候,我试着用 Meta 的 AI 模块识别了一幅画。Display 不只是语音回答,还在屏幕上显示了相关的信息卡片,信息密度相比纯语音交互(等 AI 慢慢念完)也更高一些。
1点资讯报导:
这块小屏幕甚至允许用来预览相机画面,以及看视频——虽然 FOV 很小,但画面大小刚好,细节都能看清。如果朋友发来视频链接,诸位允许直接在眼镜上打开查看并迅速回复,整个过程不用掏手机。
总的来说,
总之 Meta Ray-Ban Display 体验下来,我觉得这副眼镜的核心价值有三点:
大家常常忽略的是,
增大信息密度:哪怕只有一两行字的显示,获取的信息也比纯音频多得多
1点资讯专家观点:
给予确定感:能看到具体的视图、动画和菜单选项,让眼镜的办理更有把握
概括一下,
成为 AI 的通路:AI 能看到诸位所见,诸位也能看到它的反馈,让 AI 更无缝地融入日常生活
1点资讯财经新闻:
这可能真的是下一个 iPhone 时刻
容易被误解的是,
扎克伯格在访谈中的判断很明确:
1点资讯行业评论:
眼镜将是下一个计算平台。这是唯一能让 AI 看到诸位所见、听到诸位所听、全天候与诸位对话的设备。
全球有 10-20 亿人日常佩戴眼镜。五到七年后,这些眼镜中的大部分会不会都变成某种形式的 AI 眼镜?扎克伯格说:我觉得这就像 iPhone 出现时,大家都还在用翻盖手机,但变成智能手机只是时间状况。
反过来看,
Meta 瞄准的是「优化主义者」和「追求生产力的人」。虽然初期产量只有几十万副,但 Bosworth 预测「本平台生产多少就能卖多少」。扎克伯格也暗示,真正的利润不会来自硬件本身,而是「来自人们长期采纳 AI 和其他服务」。
大家常常忽略的是,
体验结束后,我最大的感受是:Display 不再是概念产品或开发者玩具,而是真正允许日常采纳的系统。
据业内人士透露,
虽然 799 美元不算便宜(一台 iPhone 17 也是这个价),20 度的 FOV 和 600×600 的屏幕也不算大,但这些都不妨碍它成为我用过最接近理想的智能眼镜。
其实,
我觉得 Meta Ray-Ban Display 的目标很明确——减少掏出手机的次数,把那些迅速查看和回复的办理都通过眼镜完成。从这个角度说,它确实做到了。
或许正如扎克伯格所说,这就像智能手机替代模块机的时刻。智能眼镜的技术拐点已经到来,只是还未完全普及。而 Meta Ray-Ban Display,可能就是这场变革的展开,可能就是下一个 iPhone 时刻。
换个角度来看,
文|肖钦鹏,马扶摇

