智能专业的airpods将很长一段时间

苹果仍将积极地在新一代配备红外传感器的Airpods上工作。这种变化可能会改变用户与环境互动的方式,并在AI时代进一步加强Apple生态系统(如果可以弥补的话)。

这个想法是库比蒂诺策略的一部分将视觉智能直接整合到其产品中。在iPhone 16上引入照片按钮(相机控件)之后 - 不仅可以拍摄照片,而且可以分析和解释我们看到的内容 - 现在想要将这些能力携带到AirPods。

根据马克·古尔曼(Mark Gurman)的说法),遥远AirPods的一代将能够使用红外传感器来了解外界。目标是提供更身临其境和直观的体验,而不必从口袋里拿出iPhone。然后,只需携带他的airpods,就可以问西里一个关于周围什么的问题(我们已经应该拥有Siri智能的,所以不会在2026年之前...)。

苹果会演奏渐进式融合的卡。 CES airpods聪明的可以识别用户周围的对象和空间,并通过SIRI或音频通知提供相关信息。一些分析师认为这是为计划于2027年计划的未来连接眼镜准备地形的方式,不要求客户现在大幅度改变习惯。

改善了空间的音频体验

新一代的Airpods不限于视觉分析。的确,明奇(Ming-Chi Kuo)还唤起了专业愿景和未来的苹果头盔的加强融合。感谢ON-板传感器,AirPods可以改善空间音频:如果我们观看带有Pro Vision的视频并转动您的头部,声音可以自动调整以对应于我们所在的方向。

苹果甚至可以通过添加进一步空气中的手势控制(请参阅USPTO发表的问题上的许多专利),这是一种简单地通过手动移动来管理音频阅读或呼叫的方法,而无需触摸耳机。

郊游,但...不是2027年之前

但是我们不应该期望看到这些airpods很快到达(那时是第4代)。后彭博,,,,苹果不打算在2027年之前推出它们,可能与其第一个连接的眼镜(公司花费时间的另一种产品)旁边。

同时,AirPods Pro 3应该在今年首次亮相,并提供更多的经典更新,但是真正的革命似乎是为下一代计划的。在此之前,只有看到苹果打算如何将其耳机转变为AI的真正个人助理以及这项技术可以走多远的真正个人助理。