Swift 中 Vision/CoreML 对象识别器的精度



我只是想开始学习苹果为我们提供的令人难以置信的框架,当我浏览网络时,我遇到了一个非常基本的问题,到目前为止还没有人解决:CoreML对象识别器的精度如何?这意味着 CoreML 应用程序可以区分的精确程度?

例如

如果我尝试创建一个汽车模型识别器,它是否能够区分大众高尔夫 3 和大众高尔夫 4?

它是否能够区分不同的直升机(摩托车),它们只是略有不同?

它能分辨出啤酒和普通汽水瓶之间的区别吗?

这完全取决于您设计的模型以及如何训练它。它与Core ML本身没有太大关系,因为Core ML对汽车,摩托车或汽水瓶一无所知。该知识由您的模型捕获。如果你可以训练一个可以做这些事情的模型,那么Core ML可能可以运行它。

找出模型是否可以区分大众高尔夫 3 和 4 的最简单方法是收集两种类型汽车的一大堆图像,并使用 Turi Create(来自 Apple 的开源)来训练这样的模型。

至于这样的模型有多准确,找出答案的唯一方法是建立一个模型并对其进行训练,然后对其进行评估。请注意,ILSVRC挑战中的图像分类器(您在这里谈论的模型类型)的准确率超过95%,这被认为是关于人类水平的表现。

因此,给定足够的数据、精心选择的模型架构和适当的训练程序,您可能可以接近所选问题领域中普通人类专家的准确性水平。

最新更新