如何使TensorFlow对象检测更快-r CNN模型在Android上起作用



我有一个关于张力流对象检测API的问题。我使用自己的数据集训练了更快的R-CNN Inception V2模型,以进行流量标志分类,我想将其部署到Android,但TensorFlows对象检测Android和/或Tensorflow Lite似乎仅支持SSD模型。

有什么方法可以将更快的R-CNN模型部署到Android?我的意思是,如何将更快的R-CNN的冷冻推理图放入Android API,而不是SSD冻结的推理图?

对于SSD模型,必须使用export_tflite_ssd_graph.py工具。但是:

目前仅支持SSD模型。诸如Quaster_rcnn之类的型号 目前不支持

有关更多信息,请参见本指南。

实现此目的的一种方法是制作 flask api ,它将包含用于对给定图像进行预测的所有代码,并将其发布到远程服务器例如 HEROKU 。您可以通过简单地将图像转换为Android的 base64 或32来调用API,然后将其发送到Heroku上部署的 REST API 。API将计算结果(推断),并将输出映像转换回BASE64,然后将其发送回Android应用。Android应用程序将将Base64转换为Bitmap和Walah!您做出了预测。您可以在Android

中使用 httpConnection library RETROFIT

相关内容

  • 没有找到相关文章

最新更新