在YOLACT/YOLACT++中获取预测输出掩码的多边形坐标



我正在使用Yolacthttps://github.com/dbolya/yolact,实例分割算法,该实例分割算法在检测到的对象上输出具有掩模的测试图像。由于输入图像是用annotations.json中输入类周围的多边形坐标给出的,所以我想得到这样的输出。但我不知道如何提取这些轮廓/多边形的坐标。

据我从剧本中了解https://github.com/dbolya/yolact/blob/master/eval.py输出是检测到的对象的张量列表。它包含类、分数、框和评估图像的掩码。eval.py脚本返回包含所有这些信息的已识别图像。识别保存在评估函数的"preds"中(第595行(,预测结果的后处理保存在;def prep_display";(135行(

现在,我如何提取这些多边形坐标并将其保存在.JSON文件或其他文件中?

我也试着看了看这些,但遗憾的是,我想不通!https://github.com/dbolya/yolact/issues/286和https://github.com/dbolya/yolact/issues/256

您需要创建一个针对您的任务的完整后处理管道。以下是可以添加到eval.py中的prep_disply()的小伪代码

with timer.env('Copy'):
if cfg.eval_mask_branch:
# Add the below line to get all the predicted objects as a list
all_objects_mask = t[3][:args.top_k]
# Convert each object mask to binary and then
# Use OpenCV's findContours() method to extract the contour points for each object

相关内容

  • 没有找到相关文章

最新更新