使用树形图比较iPhone OS 1.0和iOS 14

2020-11-24 22:08:05

如果您关注最近的Apple事件,您可能会看到A14和M1模具的图片……这让我开始思考,如果可以在X射线下通过iOS,您会看到什么……

在上一篇关于编程语言从iPhone OS 1.0到iOS 14的演变的文章中,我根据二进制数及其编程语言对iOS进行了分析。正如我在上一篇文章中指出的那样,二进制文件的大小并未考虑在内。在这篇新文章中,我使用树形图从大小的角度介绍了iPhone OS 1.0和iOS 14。

为了生成本文中的图像,我提取了每个主要iOS版本的根文件系统(包括dyld共享缓存):

然后,我创建了树图。您可能对树状图很熟悉,因为它们通常用于可视化文件层次结构,从而为您提供结构的图形化概述。一个关键特征是每个文件都显示为一个矩形,其面积与文件的大小成比例。本文中显示的树图是使用很棒的GrandPerspective创建的,并用Pixelmator进行了注释。

让我们看看如果可以使用X射线扫描iPhone OS 1.0,将会看到什么:

从组件列表中,我们可以清楚地确定iPhone OS 1.0的所有主要功能:

我不会提供每个iOS版本的详细信息,但是您可以检查从iPhone OS 2.0到iOS 13.1的树形图:

请注意,随着每个新的iOS版本的增加,构件的数量也增加了,并且组件也越来越小。

我们现在处于2020年,iOS 14可用。毫不奇怪,iOS 14比iPhone OS 1.0复杂得多:

我们可以注意到,其主要结构仍与原始iPhone OS 1.0版本非常相似:字体,框架,应用程序,库,/ usr等仍然存在。

iOS 14包含大量预装资产和语言数据。据我所知,这些组件用于设备上的机器学习:语言检测器,语音,标记化器,发声器,…

dyld共享缓存是iPhone OS 3.1中引入的一种缓存机制,它使Frameworks和Private Frameworks分为几个区域。 dyld共享缓存已在图中用红色框标记。

iOS 14中的组件太多,以至于识别所有组件都变得更加复杂。尽管如此,我还是尝试了一下:

尽管现在很难列出所有功能,但是有一些明显的趋势:

iOS 14配备了设备上机器学习技术:人脸检测,深度卷积网络,视觉框架,文本识别,神经网络,…

相机和照片与许多组件有关:效果,记忆,视频处理,照片库,…

我们可以确定多年来添加的几个功能:HomeKit,Watch,CarPlay,Spotlight,Emoji🤟,新闻,iWork,Wallet,快捷方式,ARKit,…

尽管自iPhone OS 1.0起,ICU大小增加了3倍以上,但现在约占总数的0.5%

出于可读性考虑,本文中以前的树形图均使用相同的大小显示。如果我们将iPhone OS 1.0紧跟iOS 14并按比例显示,您会发现整个iPhone OS 1.0基本上占据了iOS 14壁纸的大小:

当iPhone OS 1.0在2007年发布时,它以一组有限的核心功能重新定义了智能手机。如今,iOS 14包含大量组件。通过根据它们的大小查看它们,我们可以确定最重要的功能。因此,我们清楚地看到Apple的AI通过诸如图像和视频中的对象检测,语言分析,声音分类和文本识别之类的技术推动了设备上机器学习。