小火箭吧 ios
眼镜是最热门的答案。但光帆科技创始人董红光给出了一个反直觉的方案:一对单耳仅11克重、却装了摄像头的AI耳机。
作为小米第89号员工、MIUI 早期核心成员,光帆科技创始人董红光他在过去十多年里深度参与了移动互联网交互规则的构建——图形界面、触控操作、APP生态,这些今天看来理所当然的东西,都是那一代人一行行代码写出来的。但从手机到AI硬件的跨越中,董红光第一次发现,自己熟悉的规则全都要推倒重来。
这期对话围绕几个核心问题展开:为什么是耳机而非眼镜?从图形界面到意图感知,交互逻辑发生了什么根本变化?一个越用越懂你的AI助手,跟纯工具有何不同?以及,为什么通用硬件的价值一定大于专用硬件?
董红光是智能眼镜的狂热爱好者,但放弃眼镜这个形态来自冷静的判断:眼镜的重量、光机显示效果、续航、对妆容的影响——这些问题短期内难以解决。更关键的是,新品类需要用户付出佩戴成本,而收益是否足够覆盖成本?
耳机已经是成熟的可穿戴大品类,董红光说,用户的佩戴成本已经被听音乐、打电话这些功能解决了。在这基础上增加AI能力,就像当年iPhone——在旧有品类之上叠加智能化,用户的购买决策成本和使用成本都更低。
这套逻辑和当年苹果做iPhone的策略如出一辙。苹果当时同步推出了iPhone和iPod Touch,两者几乎一模一样,但不能打电话的Touch销量惨淡。原因很简单:手机是成熟大品类,用户本来就要带一个出门,在这个基础上叠加智能化,门槛几乎为零。
至于为什么不选择吊坠或胸针?答案很直接:摄像头应该到头部位置。胸前挂件适合记录,像执法记录仪一样;但感知类应用需要摄像头与眼睛齐平。你看什么,就想让它看什么。如果放在胸前,你为了让它看到,就得调整身体姿态——这不符合人的直觉。
而且耳机天然占据了离嘴巴和耳朵最近的位置,是语音交互的第一界面。扎克伯格最近也说,AI硬件交互的第一界面应该是音频,他们甚至打算在下一代尝试不带显示屏的AI眼镜。
AI时代有个关键前置条件:算力必须在云端。大模型无法在端侧跑出好效果,这意味着交互与计算解耦。既然云端是大脑,它长出来的身体就不必只有一个。
眼镜想集成麦克风、扬声器、摄像头、显示屏于一身,技术难度极高。光帆把功能拆解:耳机负责听、说、看(摄像头);手表负责屏幕显示、触控交互、GPS定位和生物传感。手表还能放独立联网模块,分担计算和连接任务,减轻耳机的散热和续航压力。
这是一个在当下更务实的方案——用多设备的物理组合替代单一设备的工程难题,在眼镜技术完全成熟之前,提供一套最接近全能AI助理的落地体验。
最大的挑战是:没有一颗芯片能同时搞定通信、耳机功能和摄像头。这就需要塞好几个芯片,体积和重量都会暴增,功耗变大,电池也得更大,最后导致佩戴舒适性全面崩溃。
最让人意外的难点是:摄像头前面的弧线造型。我们希望把摄像头隐藏起来,因为一颗摄像头盯着你会让人很不舒服。
但弧面会让光线产生干涉,AI就看不清东西了。为了保证弧面效果又让AI能看清,整个结构设计极其复杂:中间是标准圆形,然后过渡成椭圆形。而且不能用玻璃,只能用高透光率的树脂材料,还得耐摔、耐磨。这件事大家很容易忽略,但我们花了巨大精力。
最痛苦的取舍是摄像头像素。一开始想搞1200万或800万像素的高清摄像头,能拍照录像。但那样体积大、功耗大、重量大、电池也得大——为了三五天用不了一次的功能,牺牲平时一直佩戴的体验。
最后选择了200万像素。这颗摄像头的使命是看懂、是感知,不是拍照。它是理解环境,不是记录世界。
董红光的回答很坦诚:大公司能力很强,我毫不怀疑他们能做得更好。但我们想得更早,动手更快。创业第一天就在想是否有更好的形态,而大公司可能更想先探索现有形态并做优化。
更重要的是团队基因——做操作系统需要软硬结合,需要在软件、硬件之间反复推导。做操作系统的人对这些逻辑更敏感。
在最早期阶段,光帆就吸引了宁德时代、韶音、兆易创新等产业链头部公司的投资——基本上聚集了可穿戴领域全产业链的阵容。这些产业方深耕多年,对趋势极其敏感。当董红光展示方案时,一位产业大佬连说三次我看到了未来。
今天无论是Windows还是Android,都没办法支持AI助理的形态。它们还是以图形交互为主,不是以调度大模型、用语音和视觉方式交互为核心的。
传统手机OS超过一半的代码是图形代码——怎么操作GPU,在屏幕上画东西,抽象成按钮、下拉框、列表。但AI操作系统不需要这些,它更多是:怎么编排语言?怎么调动传感器?什么时候开摄像头?什么时候用语音告诉你?什么时候用手表屏幕显示?
光帆的操作系统采用云端+端侧双层架构:云端运行核心操作系统,负责调度大模型、编排任务、处理意图理解,这是大脑所在;端侧运行实时操作系统,负责管理连接、传感器数据采集和即时反馈小火箭吧 ios,相当于神经末梢。
这套系统的核心是多模态交互系统——操作系统充当司令官,决定何时开启摄像头(视觉感知)、何时调用麦克风(听觉)、何时通过耳机播报或手表屏幕显示。
手机交互是被动的、工具化的。比如出行要打网约车,用户脑子里有需求,必须一步步点击操作——解锁、找APP、输入地址、确认车型、支付。这是人适应机器的工具逻辑。
AI交互是主动的、代理式的。用户只需直接表达最终需求——帮我打车回家,AI负责在后台理解意图、拆解步骤、调用服务。这是机器适应人的代理逻辑。
董红光举了个例子:很多有钱人都有助理,但有钱人自己不会打车吗?当然会。但当旁边跟着助理时,他就会经常说帮我打个车回家。AI更像是这样一个助理,能帮你把事情干了。
首先是主动式触发。系统知道用户的机票信息、航班时间、航站楼,通过GPS知道当前位置,结合实时路况计算,会主动在耳边提醒:晚上7点你有个飞机,我看了一下路况,你现在差不多该出发了,要不要我帮你叫个车?
用户说好,它就去叫车。叫车之前,还会在手表上显示上车点——因为用户得看一下具体在哪里上车。打完车后,耳机播报车打到了,白色丰田,手表同步显示车牌号。
看这套东西看起来好像很简单,但实际上调度了各个应用的数据(日历、机票、打车),调度了各个器件(GPS、耳机扬声器、手表显示)。手机上完成同样的事情,至少需要十几次点击。而且手机是被动的——用户自己脑子里一直得想着这事,掏出手机操作半天发现还早,过一会儿再掏,再操作。
理想的AI体验是让用户忘掉硬件的存在——在后台悄无声息处理琐碎意图,仅在必要时打扰用户,让用户尽快回归现实生活。
光帆的摄像头有两类触发方式。第一类是事件性触发:用户明确说帮我看一下这是什么,摄像头就开了,识别完就关。第二类更有意思——预判性触发。
比如系统要主动跟你闲聊,或者要播报一条消息,它会先开一下摄像头,看你忙不忙。如果发现你正在跟别人聊天,它就不打扰了。
博物馆的讲解器、商场的导览机,都是工具,不需要知道使用者是谁。但AI助理必须深度了解用户,才能做到主动服务。
这些记忆会做权重处理。比如用户每天早上都跑步,慢慢跑步场景权重就高了;偶尔进一次城,这个陌生地区的权重就比较低。慢慢地构建出精准的用户画像。
比如去故宫,有的人第一次去,我就给你讲解讲解。但有的人是故宫发烧友,天天去跑,我就没必要讲了。这种差异化体验完全依赖用户画像的积累。
这也造成了迁移成本。用户使用得越多,留下的记忆片段越多,AI就越懂用户。换到一个从零开始的新设备会很难受——就像换了一个助理,什么都得重新教。
好消息是,记忆存储在云端,不在端侧。换设备时记忆跟着走,未来出二代产品也不用重新招助理。理论上,这些记忆甚至可以打包带走。
博物馆是光帆的核心场景之一。传统的博物馆讲解器需要租借设备、走到特定位置才能触发讲解。很多打车的AI产品也在推博物馆讲解功能,但需要用户详细描述我在某博物馆看到了某个东西——如果用户自己也不认识,还怎么描述?
光帆的解法是:因为有GPS,自然知道用户在哪个馆;因为有视觉识别,自然知道这是什么作品。用户只需要看着展品,手表上轻轻一划(支持息屏触摸),就能听到讲解——不用说话。
旅游场景更有想象空间。名山大川不一定需要纯视觉感知,基于地理位置就能触发。走到虎跳峡了,我觉得你这个地点应该欣赏些什么样的美景,给你大概说一说。
更实用的是餐厅推荐。用户在街头说我想吃个清淡一点的,系统不用用户描述周围有什么,直接开摄像头扫一下前方几个餐厅,优选出清淡的那家。
单旅游场景就足够吸引非常多人了。甚至应该成为核心的出货渠道——博物馆、艺术展、名山大川、异地翻译,所有需要讲解和解释的场景。
最后是灵感记录。董红光自己天天在用的功能:开车时有个灵感,轻轻一敲耳机就说,不用掏手机。过去你得掏手机、选应用——日程输到日历,待办输到Todo,有些事输到备忘录,有些发到微信——到处输,到处找。现在就是碎碎念,AI帮你整理。回头可以直接问我那天记了个什么事,它就给你找到了。
专用AI硬件像MP3、数码相机、功能手机,一个设备上就两三个功能。这种情况下,操作系统可有可无,硬件直接对接功能,中间一层薄薄的小系统就够了。
但通用AI硬件要做AI助手,不可能只干一两件事。需要接入海量应用和服务——旅游、打车、日程、外卖、博物馆讲解——只有操作系统才能把复杂硬件和多传感器穿起来,把海量应用接进来。
专用硬件像是只做一件事的工具,只需简单指令集。通用AI硬件要成为具备感知、记忆和决策能力的智能体,需要操作系统来统筹云端大脑、端侧感官以及海量服务生态。
这也是为什么光帆一上来就强调操作系统的普适性。就像iOS和Android最初是为手机设计的,后来发现平板、车机、电视都能用——凡是有图形界面的都能用。光帆的思路是:凡是以语音交互为主的AI品类,未来都可以用这套操作系统。
首先,选择的两个品类本身就是成熟大品类。开放式耳机用户本来就会天天佩戴——听歌、接电话。手表用户本来就会每天戴——看时间、运动健康。即便不用AI功能,这两个设备依然有极高的日常实用价值。
即使用户不使用AI功能,这两个设备依然是好用的耳机和手表。这就解决了吃灰问题——设备一直在用户身上,AI就有机会在合适的场景被唤醒。
其次,在刚需场景和高频场景之间平衡。博物馆讲解是刚需但低频,消息提醒是高频——重要消息在耳边提醒,下一个会什么时候开,到家提醒取快递,到超市提醒买东西。高频场景让用户持续佩戴,低频刚需场景在需要时正好派上用场。
光帆这个名字来自科幻领域的星际推进技术——不携带燃料,靠光压持续加速。在有限燃料下,传统火箭只能做短途旅行。但光帆可以做得很轻,一点一点往前走,慢慢提升速度,接近光速,走得很远。
AI一定能改变人的生活。今天虽然大模型离很多人都很远,但它可以离人很近,只是工程和产品上还没有落地。这件事是确定的。
在用户每一次不再掏出手机的那个瞬间,AI硬件的价值才真正显现。光帆选择了自研OS,选择了给耳机装上摄像头这个反直觉的方案,正是在确定的方向上,做不确定的探索。

