我的用例如下:用户正在驾驶或他/她无法用他/她的手使用他的智能手机。他/她可以做的所有行动如下:“嘿goole”
我见过Google I / O '18视频,其中他们展示了App Actions(here是演示文稿的可读版本)。基本上应该创建一个action.xml文件,其中创建了sematic意图和android意图之间的映射。因此,当用户说出“魔术词”(语义意图)时,会调用右(android)意图来完成请求。
我的问题是:
注意:要获取Radio内容,我使用第三方库
不幸的是,直接调用Google智能助理(“Hey Google,由Toto播放非洲”)目前不适用于第三方开发者。
但是,您可以使用explicit invocation触发Google智能助理操作,该操作可以向可以与您的Android应用通信的REST API发送HTTP请求。
用户可以在调用结束时包含一个调用短语,直接将它们带到他们正在请求的Google上的操作> Dialogflow> Firebase功能,如下所示: