用于神经网络训练的视频注释



我想训练一个神经网络,根据视频中的一些物体的形状、颜色等来识别它们。为了训练我的神经网络,我想让它与一些训练视频(我拍摄的MP4)一起运行,这样我就可以进行一些有监督的学习。有没有什么工具可以让我一帧一帧地在视频上绘制,这样我就可以把它导入NN?

假设我们有一个例子,我想让NN识别红色三角形。我想一帧接一帧地浏览,并"突出显示"有红色三角形的区域,这样NN就可以扫描帧,说是/否,有一个红色三角形,它在这里,并检查它是否正确。

欢迎提出任何建议。

mj

更改源图像将训练网络识别您的注释,而不一定是所需的识别对象。如果你想让网络最终处理未注释的图像,这可能不是最好的方法。

我会创建一个单独的文件,其中包含所需的输出数据,这些数据应该从每个帧中提取,并按时间代码或帧号进行索引。如果你只是检测到某个对象的存在,只需列出包含该对象的所有帧就足够了,或者更好的是,开始和停止帧来描绘它何时可见。标准字幕工具应该能很好地完成这项任务。

不过,这并不是一个真正的编程问题。。。。可能在SuperUser上更合适。

最新更新