我正在检查我们如何在Android中使用ffmpeg命令行,例如使用为Android或任何其他Git项目编译的WritingMinds ffmpeg。
我正在尝试设置以下命令:
-日志级跟踪 -f android_camera -camera_index 0 -video_size HD720 -帧率 30 -input_queue_size 2 -我丢弃 -映射 0 -vcodec libx264 -y/SD卡/editor_input/输出.mp4">
但它给出了无法识别的选项"camera_index"。
有一些像"https://github.com/CrazyOrr/FFmpegRecorder"这样的项目,它有录音机应用程序来存储 MP4 文件,但它们似乎使用 FFMPEG API 和代码来获取帧等等,我只想直接使用 ffmpeg 作为命令行,就像我们在 Linux 中使用的那样。
有人可以指导从安卓相机捕获并在UDP上流式传输MPEGTS流的最佳方法吗?
谢谢。
在 React Native 中,您可以使用 react-native-ffmpeg-kit