我有一个关于张力流对象检测API的问题。我使用自己的数据集训练了更快的R-CNN Inception V2模型,以进行流量标志分类,我想将其部署到Android,但TensorFlows对象检测Android和/或Tensorflow Lite似乎仅支持SSD模型。
有什么方法可以将更快的R-CNN模型部署到Android?我的意思是,如何将更快的R-CNN的冷冻推理图放入Android API,而不是SSD冻结的推理图?
对于SSD模型,必须使用export_tflite_ssd_graph.py
工具。但是:
目前仅支持SSD模型。诸如Quaster_rcnn之类的型号 目前不支持
有关更多信息,请参见本指南。
实现此目的的一种方法是制作 flask api ,它将包含用于对给定图像进行预测的所有代码,并将其发布到远程服务器例如 HEROKU 。您可以通过简单地将图像转换为Android的 base64 或32来调用API,然后将其发送到Heroku上部署的 REST API 。API将计算结果(推断),并将输出映像转换回BASE64,然后将其发送回Android应用。Android应用程序将将Base64转换为Bitmap和Walah!您做出了预测。您可以在Android