如何让3D模型化身在a帧上检测到我的声音时说话



我想要的是,在a帧上,当我说话时,我的3D模型化身也会说话。

遵循该指南,https://aframe.io/docs/1.1.0/introduction/models.html#animating-模型,我用这个资源创建了3D模型化身,https://sketchfab.com/3d-models/bake-talking3-e715ab67be934a108d0a952d90c07210

但是这个gltf三维模型一直在说话。每当我说话时,我都需要交互式3D模型。

让我们假设我的语音检测已经实现。

有人能回答这个问题吗?

animation-mixer组件有两种方法可以帮助

  • playAction((,它将播放
  • stopAction((,它将停止

让我们假设我的语音检测已经实现。

然后你的代码可能看起来像这样:

const modelEntity = document.querySelector("[gltf-model]")
const animationComponent = modelEntity.components["animation-mixer"]
mySpeechRecognition.onspeechstart = function() {
animationComponent.playAction();
}
mySpeechRecognition.onspeechend= function() {
animationComponent.stopAction();
}

就像我在这个故障中所做的一样。绿色比赛,红色停止。点击鱼查看来源。

相关内容

  • 没有找到相关文章

最新更新