我使用:
NSArray* initialPhrases = @[@"Let's do lunch.", @"Can we meet tomorrow?", @"When are you free?"];
[self presentTextInputControllerWithSuggestions:initialPhrases
allowedInputMode:WKTextInputModePlain
completion:^(NSArray *results) {
if (results && results.count > 0) {
id aResult = [results objectAtIndex:0];
// Use the string or image.
}
else {
// Nothing was selected.
}
}];
这是苹果公司给出的文本输入示例。然而,在我的应用程序中,我希望用户只能选择口述文本。如果我将数组设置为nil,则不存在听写按钮,但如果我不使用数组,则会重新出现听写按钮。有没有办法只通过听写来进行文本输入?
更新:苹果公司确实有文件规定,如果你直接向用户发送听写,不要提供任何回复,而是直接发送到那里。我认为,当首字母短语为零时,我看不到任何东西的原因只是由于模拟器的限制,这是正确的吗?
你是对的。论坛中的开发者宣传者指出,由于缺乏支持,模拟器不会显示任何听写内容。
确保您使用的是WKTextInputModePlain
,而suggestions
数组是nil
,您就可以了。
从WatchOS 2.1和iOS 9开始,我已经能够用两种不同的方式实现您的建议,如果可行,请给我一个绿色勾选和投票!!:
选项1-记录WAV文件并上传到ASR服务器我录制了一个WAV文件并将其保存到apple watch中。在那之后,我将文件上传到了一家付费语音识别提供商,一切都很好!以下是要记录的代码,用您自己的代码替换UI更新代码行(以及调试代码行):
//RECORD AUDIO SAMPLE
var saveUrl: NSURL? //this var is initialized in the awakeWithContext method//
func recordAudio(){
let duration = NSTimeInterval(5)
let recordOptions =
[WKAudioRecorderControllerOptionsMaximumDurationKey : duration]
// print("Recording to: "+(saveUrl?.description)!)
//CONSTRUCT AUDIO FILE URL
let fileManager = NSFileManager.defaultManager()
let container = fileManager.containerURLForSecurityApplicationGroupIdentifier("group.artivoice.applewatch");
let fileName = "audio.wav"
saveUrl = container?.URLByAppendingPathComponent(fileName)
presentAudioRecorderControllerWithOutputURL(saveUrl!,
preset: .WideBandSpeech,
options: recordOptions,
completion: { saved, error in
if let err = error {
print(err.description)
self.sendMessageToPhone("Recording error: "+err.description)
}
if saved {
self.btnPlay.setEnabled(true)
self.sendMessageToPhone("Audio was saved successfully.")
print("Audio Saved")
self.uploadAudioSample()
}
})
}
选项2-使用iWATCH的母语识别在这种方法中,我采用了原始的本地语音菜单,但是。。。!我没有添加任何按钮选项,只是添加了纯ASR。我启动了空的语音菜单,然后恢复ASR返回的字符串。这是代码,享受:
func launchIWatchVoiceRecognition(){
//you can see the empty array [], add options if it suits you well
self.presentTextInputControllerWithSuggestions([], allowedInputMode: WKTextInputMode.Plain, completion:{(results) -> Void in
let aResult = results?[0] as? String
if(!(aResult == nil)){
print(aResult) //print result
self.sendMessageToPhone("Native ASR says: "+aResult!)
dispatch_async(dispatch_get_main_queue()) {
self.txtWatch.setText(aResult) //show result on UI
}
}//end if
})//end show voice menu
}
选项2是闪电般的快,但如果你想做一些高级语音识别功能(自定义词汇、语法…),选项1会更方便。我建议大多数用户使用选项1。哇!!如果你需要额外的提示,请告诉我!