我在 kubernetes 集群中的一个 GPU 工作节点上运行一个 Nvidia 深流容器,该节点作为作业部署,下面是我的 YAML 文件,
apiVersion: batch/v1
kind: Job
metadata:
name: deepstream-test
spec:
backoffLimit: 1
template:
spec:
containers:
- name: nvidia-deepstream
image: lkkrishna945/deepstream-5.0:test
command: ["deepstream-app","-c","/opt/nvidia/deepstream/deepstream-5.0/samples/configs/deepstream-app/source30_1080p_dec_infer-resnet_tiled_display_int8_edited.txt"]
ports:
- containerPort: 8554
resources:
limits:
nvidia.com/gpu: 1
restartPolicy: Never
在我部署此作业后,它运行良好,但其输出在perm开源kubernetes集群的一个工作节点上运行,但我想流式传输该运行输出,这是一个视频。
这是我的Dockerfile,它是使用基本的Nvidia深流容器构建的,
FROM nvcr.io/nvidia/deepstream:5.0-dp-20.04-triton
ADD source30_1080p_dec_infer-resnet_tiled_display_int8_edited.txt /opt/nvidia/deepstream/deepstream-5.0/samples/configs/deepstream-app/
CMD ["deepstream-app -c /samples/configs/deepstream-app/source30_1080p_dec_infer-resnet_tiled_display_int8_edited.txt"]
任何人都可以为此提供任何建议/解决方案吗?
如果通过 RTSP 流式传输输出,则需要公开要流式传输 RTSP 的端口,然后将 docker 端口映射到主机端口。 然后,您可以点击 RTSP 流。