认知服务-自定义语音C++



我正在尝试在单个函数调用中使用自定义的Speech to Intent,它利用了自定义的声学和语言模型。

我正在关注文档https://learn.microsoft.com/en-us/azure/cognitive-services/speech-service/intent并旨在使用LUIS意图的连续自定义语音。

根据文件,功能

SpeechFactory::FromSubscription

在语音到意图检测的情况下,可以使用LUIS订阅ID(可在LUIS.ai上获得(或来自Speech的自定义Speech订阅ID(注册www.cris.ai后即可获得(。

有一种方法可以使用声学数据模型和自定义语言来训练自定义语音,以进行更高精度的训练。

我已经用自定义语言和声学数据模型训练了语音订阅,我想直接使用这些模型进行语音到意图识别。

我该怎么做?

到目前为止,我已经成功地将自定义语音与STT的声学和语言模型一起使用,或者将LUIS订阅ID用于语音到意图识别,但无法将LUIS语音到意图的自定义模型链接起来。

我使用的是cris.ai和luis.ai的订阅。我对以前的Bing STT SDK不感兴趣,因为我的用例需要这些自定义的声学模型和语言模型。

目前没有直接的方法可以使用单个调用同时使用CRIS和LUIS(IntentRecognizer只支持基本模型(。作为变通方法,您可以调用CRIS来获取语音到文本的反馈,然后调用LUIS来获取意图。

谢谢,

相关内容

  • 没有找到相关文章

最新更新