在云服务器上托管 RASA NLU 模型



我正在使用RASA NLU开发语音助手,稍后将部署在Android/IOS移动应用程序上。我目前有一个python程序,我在其中调用RASA NLU模型并使用Interpreter类解析传入的输入。

interpreter = Interpreter.load("training_data/models/nlu/default/current/")
interpreter.parse(input)

我得到的答案存储在一个 JSON 对象中,我在其中解析它以获取意图 + 关联实体。稍后,我获取此输出并使用 AIML 解释器为其获取相应的响应。我将所有响应存储在AIML文件中。

我的问题是现在所有这些代码都在我的机器上本地运行。我想在服务器上加载我的 RASA NLU 模型,然后使用某种 API 请求来自模型的响应并将其发送到 AIML 内核(也存储在服务器上(。该模型应始终在服务器上运行,我将从移动应用程序发送请求。 有什么建议吗?

我建议您首先对服务器进行Rasa X部署,如 rasa.com 文档中所述。

一旦你开始工作,然后创建一个自定义连接器,点击Rasa开源的HTTP-API。

最新更新