WatchKit选项仅听写



我使用:

 NSArray* initialPhrases = @[@"Let's do lunch.", @"Can we meet tomorrow?", @"When are you free?"];
    [self presentTextInputControllerWithSuggestions:initialPhrases
                                   allowedInputMode:WKTextInputModePlain
                                         completion:^(NSArray *results) {
                                             if (results && results.count > 0) {
                                                 id aResult = [results objectAtIndex:0];
                                                 // Use the string or image.
                                             }
                                             else {
                                                 // Nothing was selected.
                                             }
                                         }];

这是苹果公司给出的文本输入示例。然而,在我的应用程序中,我希望用户只能选择口述文本。如果我将数组设置为nil,则不存在听写按钮,但如果我不使用数组,则会重新出现听写按钮。有没有办法只通过听写来进行文本输入?

更新:苹果公司确实有文件规定,如果你直接向用户发送听写,不要提供任何回复,而是直接发送到那里。我认为,当首字母短语为零时,我看不到任何东西的原因只是由于模拟器的限制,这是正确的吗?

你是对的。论坛中的开发者宣传者指出,由于缺乏支持,模拟器不会显示任何听写内容。

确保您使用的是WKTextInputModePlain,而suggestions数组是nil,您就可以了。

从WatchOS 2.1和iOS 9开始,我已经能够用两种不同的方式实现您的建议,如果可行,请给我一个绿色勾选和投票!!:

选项1-记录WAV文件并上传到ASR服务器我录制了一个WAV文件并将其保存到apple watch中。在那之后,我将文件上传到了一家付费语音识别提供商,一切都很好!以下是要记录的代码,用您自己的代码替换UI更新代码行(以及调试代码行):

//RECORD AUDIO SAMPLE
    var saveUrl: NSURL? //this var is initialized in the awakeWithContext method//
    func recordAudio(){
        let duration = NSTimeInterval(5)
        let recordOptions =
        [WKAudioRecorderControllerOptionsMaximumDurationKey : duration]
       // print("Recording to: "+(saveUrl?.description)!)
        //CONSTRUCT AUDIO FILE URL
        let fileManager = NSFileManager.defaultManager()
        let container = fileManager.containerURLForSecurityApplicationGroupIdentifier("group.artivoice.applewatch");
        let fileName = "audio.wav"
        saveUrl = container?.URLByAppendingPathComponent(fileName)
        presentAudioRecorderControllerWithOutputURL(saveUrl!,
            preset: .WideBandSpeech,
            options: recordOptions,
            completion: { saved, error in
                if let err = error {
                    print(err.description)
                    self.sendMessageToPhone("Recording error: "+err.description)
                }
                if saved {
                    self.btnPlay.setEnabled(true)
                    self.sendMessageToPhone("Audio was saved successfully.")
                    print("Audio Saved")
                    self.uploadAudioSample()
                }
        })
    }

选项2-使用iWATCH的母语识别在这种方法中,我采用了原始的本地语音菜单,但是。。。!我没有添加任何按钮选项,只是添加了纯ASR。我启动了空的语音菜单,然后恢复ASR返回的字符串。这是代码,享受:

func launchIWatchVoiceRecognition(){
     //you can see the empty array [], add options if it suits you well
        self.presentTextInputControllerWithSuggestions([], allowedInputMode: WKTextInputMode.Plain, completion:{(results) -> Void in
            let aResult = results?[0] as? String
            if(!(aResult == nil)){
                print(aResult) //print result
                self.sendMessageToPhone("Native ASR says:  "+aResult!)
                dispatch_async(dispatch_get_main_queue()) {
                    self.txtWatch.setText(aResult) //show result on UI
                }
            }//end if
        })//end show voice menu
    }

选项2是闪电般的快,但如果你想做一些高级语音识别功能(自定义词汇、语法…),选项1会更方便。我建议大多数用户使用选项1。哇!!如果你需要额外的提示,请告诉我!

相关内容

  • 没有找到相关文章

最新更新