是否有任何方法可以使用Android.speech模块使用自己的语音识别引擎



我已经实现了我自己的演示语音识别服务。我将其部署在服务器上。现在,我可以使用API( http://192.168.1.100/asr/demospeechtotext (访问服务。我以 wav格式将音频文件和 Language 参数传递给API。API工作正常。

我想将其与Android应用程序集成在一起。我将其作为一个简单的API调用实现,该应用程序在录制语音示例后将被调用。

我想进一步探索以检查将其与 android.speech module(https://developer.android.com/referenc./reference/reference/reference/android/android/package/package-summary.html(进行检查的可能性。(。

所以我的问题是,有什么办法可以从 audio.speech 模块中扩展某些类默认一个?我已经看到了这个:https://developer.android.com/reference/android/speech/speechrecognizer.html,但不知道是否可以与我自己的API一起使用。

RecognitionService的最小扩展是例如。https://github.com/kaljurand/speechdemo1(简单地显示需要扩展哪些类,实际上不会进行任何录制/识别(,更完整的一个是https://github.com/kaljurand/k6nele(记录音频音频并将其流到现有的云服务中,但不支持wav-files(。

最新更新