如何在线转换和连接openvino



我想使用openvino进行推理。但我得到了一个错误,而使用openvino。有办法解决吗?enter code here

model = keras.models.load_model('/resnet50.h5')
onnx_model, _ = tf2onnx.convert.from_keras(model, opset=16)
onnx.save(onnx_model, '/t1_model.onnx')
ie = IECore()
net = ie.read_network("/t1_model.onnx")
input_name = list(net.input_info.keys())[0]
output_name = list(net.outputs.keys())[0]
net.input_info[input_name].precision = 'FP32'
net.outputs[output_name].precision = 'FP32'
exec_net = ie.load_network(network=net, device_name='CPU')

我面对这些问题。

RuntimeError: Check 'std::get<0>(valid)' failed at C:jworkspaceprivate-ciiebuild-windows-vs2019@3breposopenvinosrcinferencesrcie_core.cpp:1414:
InferenceEngine::Core::LoadNetwork doesn't support inputs having dynamic shapes. Use ov::Core::compile_model API instead. Dynamic inputs are :{ input:'input_1,input_1', shape={?,256,256,3}} 

input_shape = (None, 256,256,3)

IECore API不支持动态形状,所以你需要在将模型加载到插件之前将其设置为静态。您可以在导入的模型上使用reshape()方法。

作为替代方案,您可以切换到OV的2022.1版本,其中支持动态形状。你必须从IECore切换到Core,read_network->read_model,load_network->compile_model.

最新更新