Azure Media Analytics vs Cognitive Services Video API



Azure即将推出Azure Media Analytics(AMA(下的新视频分析API,看起来很有希望。与此同时,Azure认知服务还提出了视频API,可以执行AMA中已经存在的一些分析作业。 为什么Microsoft遵循这两个不同的轨道来提出分析解决方案,而不是让一个团队完全查看它?

认知服务旨在为应用程序开发人员提供一系列轻量级的 API 支持认知功能。 除了视频之外,该套件还包括不同形式的AI,例如语音和图像分析。

对于视频 API,这些 API 实际上作为媒体处理器托管在核心的 Azure 媒体服务 (AMS( 平台上。

除了Adarsh上面所说的之外,另一个需要注意的领域是合规性要求。 认知服务(如视频索引器与 Azure 媒体服务(有不同的使用条款。 目前,如果需要完全符合 Azure 服务条款的服务,则应查看 Azure 媒体服务/分析。 如果你对认知服务服务条款感到满意,并且 Azure 缺乏完全合规性,则可以查看 videoindexer.ai。

随着时间的推移,我们还将为视频索引器平台带来更多的合规性,但由于这是一组较新的功能,因此需要一些时间。

我正在寻找几乎相同的问题的答案,但仅与音频转录有关。发现:

Microsoft一直在开发一套语音、人脸和 情感识别在相当长的一段时间内,以前被称为"项目 牛津"。这些服务现在已捆绑在一个 包称为Microsoft认知服务。它的所有组件都是 现在提供给 Azure 媒体服务,并标记为"Azure Media 分析"。它使视频可搜索并更易于用户访问 为其内容编制索引。

据我了解,Azure 媒体服务使用"认知服务"进行分析。

更新:显然,他们也不知道。