无屏化
语音助手会在越来越多没有屏幕的设备上出现,或者说语音助手会朝着纯语音(VUI)的交互方式发展。
首先解释一下纯语音交互。纯语音交互指的是我们给语音助手表达命令、确认、打断、纠错等等信息交换的过程完全通过语音来进行,没有点击、滑动等交互。
我们先确认一点,屏幕作为我们现在和智能设备交互的主要渠道,它十分重要。我们也非常习惯这种交互方式。为了更好地和屏幕进行交互,我们发明了 GUI(图形用户界面),我们创造了各种各样的交互,如:点击、滑动、触摸、长按等等。我们太习惯,太喜欢这种交互方式了。甚至看到 App 图标上的小红点就手痒痒,忍不住去点。

所以,当我们面对一个带有语音助手的手机时候,我们会去使用使用语音助手么?太难了!!
Siri 从 07 年开始开发,10 年被苹果收购,满打满算,十年了。十年后的今天,我们做用户调研的时候发现,没有一个受访者每天使用 Siri ,或者更具体是,没有一位受访者是每星期都使用 Siri 的。
原因很简单,屏幕上几乎所有的设计都是在诱惑你去点击、滑动或者完成更复杂的『手指交互』。
而使用语音助手要求在一个满是 GUI 的页面上去使用语音和屏幕进行交互,这样的错位让用户充满了割裂感。这样的割裂感是现在屏幕语音助手无法克服的障碍。
好比说,一个使用屏幕 VUI 的用户在 VUI 上完成一个『任务』后,可能会去 GUI 上完成 1000 个『任务』。这样的使用情景下,用户无法形成 『 与设备对话 』的习惯。
那么 无屏化设备 /弱屏化设备 是最适合语音助手发展的平台,比如屏幕很小的手表、手环。或者连屏幕都没有的音响、家居助手、智能戒指等等...
这些平台的可交互性或许比屏幕低,但是这些平台的语音助手给用户更多的沉浸感。自然地更容易养成『 与设备对话 』这样的用户习惯。
最近几年来,符合这样趋势产品也越来越多了,比如 Alexa、Nest、以及已经被放弃的 Google glass 都属于这类产品。
所以语音助手的无屏化将是趋势之一。
信息去中心化
这写到半途,我的一个好友评论说
其实主要还是因为语音助手不智能,或者说 nlp 做的不好...
这句话其实对了一半,『 不智能 』的确是现状,但却不仅仅是 NLP 这一个方面。而更多的是『 语音助手拥有信息的丰富程度 』。
Hound - Say It. Get it.Hound - Say It. Get it. 是一家语音助手的公司,他们的产品 demo 视频非常精彩,如『 告诉我在西雅图四星到五星的酒店,我想住三个晚上,费用是$150-$250 』这样的长句。这样的句子已经能被机器所能『 理解 』,那剩下的问题是如何向用户提供这些信息?
还是上面的例子,如果需要『 知道 』符合这些条件的酒店信息,首先语音助手得有这些信息。有了信息之后你才能找到『 在西雅图的 』、『四星到五星的』等等符合这些条件的。现在的做法是用 Yelp Api 或者其他的 Api 来获取这些信息。那么一个语音助手拥有多少信息很大程度上依赖于它集成了多少 Api,以及这些 Api 能提供信息的丰富程度。
酒店只是其中一个例子,机票、电影票、日程安排、打车等等所有的这些服务信息几乎都源于『 非语音助手内 』
这样的信息,我们称为『 非中心信息 』。
回到我们关于『 智能 』的讨论,如果今天你问一个语音助手『 帮我找一家酒店 』,回答『 不会 』,有时候并不是语音助手不能理解酒店这个词,而是他们没有接入相关的信息,没有相关的信息可以提供,最后只能去 X 度搜一下。
『 非中心信息 』或者 『 非中心功能 』现在已经是语音助手的大趋势了。Siri 开放 Api 允许部分开发者接入也是不得已的事情,因为它根本没有你微信内、滴滴内的信息,只有开放自己的 Api ,才能为 Siri 获得更多的『 非中心信息 』。更有甚者,像是 Api.ai 这样提供 NLP 的平台直接以 SAAS 让开发者来接入。
所以『 信息去中心化 』是语音助手的另外一个趋势。