我们是否可以使用 TensorflowLite 在 Raspberry Pi3 上运行多个深度学习模型进行推理



我有多个深度学习模型(比如2个(,这些模型的输出是另一个深度学习模型的输入。我想在树莓派 Pi3 上运行它进行推理。

是否可以在设备上同时运行多个模型。我正在使用TensorFlow Lite进行优化和推理。

请提出解决方案。

简短的回答是肯定的。例如,在 TFLite 的lable_image中,输入位图图像被馈送到简单操作(调整大小双线性(中以调整其大小,然后将简单操作的输出设置为指定模型输入的输出。

最新更新