我正在尝试在单个函数调用中使用自定义的Speech to Intent,它利用了自定义的声学和语言模型。
我正在关注文档https://learn.microsoft.com/en-us/azure/cognitive-services/speech-service/intent并旨在使用LUIS意图的连续自定义语音。
根据文件,功能
SpeechFactory::FromSubscription
在语音到意图检测的情况下,可以使用LUIS订阅ID(可在LUIS.ai上获得(或来自Speech的自定义Speech订阅ID(注册www.cris.ai后即可获得(。
有一种方法可以使用声学数据模型和自定义语言来训练自定义语音,以进行更高精度的训练。
我已经用自定义语言和声学数据模型训练了语音订阅,我想直接使用这些模型进行语音到意图识别。
我该怎么做?
到目前为止,我已经成功地将自定义语音与STT的声学和语言模型一起使用,或者将LUIS订阅ID用于语音到意图识别,但无法将LUIS语音到意图的自定义模型链接起来。
我使用的是cris.ai和luis.ai的订阅。我对以前的Bing STT SDK不感兴趣,因为我的用例需要这些自定义的声学模型和语言模型。
目前没有直接的方法可以使用单个调用同时使用CRIS和LUIS(IntentRecognizer只支持基本模型(。作为变通方法,您可以调用CRIS来获取语音到文本的反馈,然后调用LUIS来获取意图。
谢谢,