AirPods作为平台

2021-02-17 18:29:11

技术分析师,风险投资家和类似的Twitter扶手椅专家最喜欢的活动之一是预测下一个大型技术平台可能是什么。

这些对话中常见的可疑对象是VR / AR,加密,智能扬声器和类似的IoT设备。在这些辩论中,我最近看到的一位新参赛者是Apple的AirPods。

将AirPods称为“下一个大型平台”很有趣,因为目前它们甚至都不是小型平台。它们根本不是平台。它们只是硬件。

平台的核心是其他人可以建立的平台。一个典型的例子就是像iOS这样的操作系统:通过提供一组API,Apple为开发人员创建了一个操场,供开发人员在其上构建和运行应用程序。实际上,开发人员可以使用触摸屏,陀螺仪传感器和摄像头等新的输入功能来创建以前无法实现的独特应用程序。

平台会受到网络的影响:更多的应用程序吸引了更多的用户使用该平台,而更多的用户又吸引了更多开发更多应用程序的开发人员。

这是经典的飞轮效果,可产生强大的赢家通吃的动力。这就解释了为什么只有两种(有意义的)移动操作系统– iOS和Android。

这也解释了为什么每个人都对即将推出的平台如此感兴趣,以及为什么苹果公司可能对将AirPods成为平台感兴趣。

按照目前的形式,AirPods并非平台。它们没有提供开发人员可以利用的任何独特的输入或输出功能。主动降噪和透明模式很简洁,但不是新增功能或Airpods独有的功能-其他耳机提供的功能完全相同。无论哪种情况,开发人员都无法对其进行控制,因此无法构建使用这些功能的应用程序。

有人说,AirPods将“不断出现”,因此会带来更多的音频应用程序,这反过来又会带来更多(也许是新形式的)音频内容。可能是事实–内容提供商一直在寻找替代途径来吸引消费者的注意力–但是,同样,它并没有使AirPods成为平台。您也可以使用任何其他耳机来使用这些音频应用程序。

如果Apple希望将AirPods打造为平台,则需要向开发人员开放一部分AirPods体验,以便他们可以在其之上构建新事物。

这里最明显的选择是Siri,它已经集成到每对AirPods中。

与Alexa和Google Assistant等其他语音助手相比,Apple从未真正为第三方开发人员开放Siri。如果他们这样做,它将创建一个新平台,该平台可以拥有自己的应用程序和开发人员生态系统。

但是我不相信这是苹果的最佳选择。让我解释一下原因。

打开Siri并不会使AirPods成为平台,而是使Siri成为平台。这听起来像是一种技术,但我认为这是一个重要的区别。正如扬·科尼格(JanKönig)在本文中精彩总结的那样,语音不是一个设备的界面,而是跨设备的界面。它更多是一个元层,应将不同的产品结合在一起以实现多设备体验。

这意味着苹果对将Siri打造为AirPods独家产品没有兴趣。基于语音的计算无处不在。这是触及范围,而不是排他性。这是Google和Amazon擅长此方面的部分原因。

目前,Siri的功能大大落后于Google Assistant和Alexa。同样,这并不令人感到意外:Google和Amazon的主要工作是找到用户问题的正确答案。这两家公司的核心竞争力是智能助手所需的ML功能。

但是,就连缺乏突破性的第三方语音应用程序也表明,甚至亚马逊和谷歌都还没有真正弄清平台部分。似乎这两个平台仍在寻找适合其产品市场的产品,而不仅仅是价格便宜的扬声器,您也可以用自己的声音来控制。

部分原因是,上述语音作为跨设备层的用例并不是开发人员可以使用当前API组构建的。

我看到的另一个重要原因是人们误以语音代替其他界面。像“她”这样的电影描绘了人机交互主要通过语音驱动的智能助手进行的未来,但实际上,语音作为主要或独立接口并不出色。它最适合作为*其他*输入/输出通道,可增强您正在执行的其他操作。

让我举个例子:说“嘿,Google,调高音量”所花的时间比仅按手机上的调高音量按钮要长10倍。仅当您的手忙于做其他事情时才有意义(例如,厨房工作)。

迄今为止,我见过的最令人信服的语音应用程序是在黑客马拉松上,一个团队使用StarCraft API来构建启用语音的游戏命令。不是取代您的鼠标和键盘,而是为您提供了额外的输入机制。实际的多任务处理。

我不反对Apple为开发人员开放Siri。相反,鉴于AirPods始终需要佩戴,因此针对需要多任务处理的情况的语音界面实际上是一个好主意。但是语音输入应该仍然是例外情况。它不应该使AirPods成为平台。

除了语音之外,我还希望看到其他输入机制,这些机制可以使开发人员建立新的方式供用户与他们消费的音频内容进行交互。

当前市场上的大多数头戴式耳机通过单击一个(或多次)物理按钮即可提供以下操作:

这些输入是很久以前发明的,此后几乎没有创新。为什么没有人考虑允许用户与实际内容进行交互的其他按钮或单击机制?

例如,在收听播客时,我经常发现自己想为正在谈论的事情添加书签。如果我可以简单地点击耳机上的按钮,这将为我的播客应用的书签部分添加时间戳,那将是惊人的。 (甚至更好的是,在我按下按钮之前,记录约15秒的内容,然后通过Apple快捷方式将其自动添加到我的笔记应用中。)

是的,您可以使用语音来建立与输入机制相同的功能,但是正如我们前面所讨论的那样,说:“嘿,Siri,请为此添加书签!”只是看起来不太方便。

虽然播客应用程序可能使用附加按钮作为书签功能,但Spotify可以使其成为“赞”按钮,以将歌曲快速添加到“收藏夹”播放列表中。其他开发人员可以构建全新的应用程序:例如,考虑交互式有声读物或类似的双向音频体验。

这就是平台的魅力:您只需为开发人员提供一套工具,他们就会提出您甚至没有想到的用例。众包创造价值。

(1)我描述的输入机制不必是物理按钮。实际上,基于手势的输入可能更加方便。如果AirPods具有内置的加速度计,则用户可以通过点头或摇头来与音频内容进行交互。诸如Google的Motion Sense之类的基于雷达的传感器还可以为音频内容创建一种有趣的新型交互语言。

(2)您也可以考虑将Apple Watch作为主要输入设备。与AirPods相比,Apple从一开始就为开发人员开放了Watch,但是作为一个平台,它并没有真正取得太大的成功。也许将Watch和AirPods结合起来使用自己独特的应用程序创建生态系统的机会更大?

(3)要记住的一件事是,苹果对将AirPods打造为独立平台并没有真正的兴趣。 iPhone(或更确切地说是iOS)将永远是Apple关心的核心平台。与其将iPhone,Watch和AirPods生态系统分开,不如将Apple的战略视为多平台捆绑产品。即使作为平台,AirPods仍将更多地作为附件,从而增加现有iPhone生态系统的粘性。

您对此帖子有任何想法或反馈吗?如果是这样,我很想听听!

感谢JanKönig阅读本文的草稿。