根据《华尔街日报》在一篇关于公司如何训练语音助手处理语言障碍用户的声音的文章中分享的新细节,苹果正在研究如何改进 Siri,以便其更好地理解口吃用户的需求。
苹果已建立起一个由口吃用户提供的 2.8 万个音频片段组成的数据库,据苹果发言人表示,这个数据库将用来训练 Siri,提高语音识别系统理解语言障碍用户的能力。
除了提高 Siri 理解语言障碍用户的能力,苹果还为 Siri 添加了 Hold to Talk 功能,用户可以自由控制 Siri 听语音的时间,这样可以防止 Siri 打断有口吃的用户。
通过 iOS 11 中首次推出的 Type to Siri 功能,用户不通过语音也可以使用 Siri。
IT之家了解到,苹果计划在本周发布一份研究报告,阐述其改进 Siri 的工作,该报告将提供更多关于苹果公司在这方面的工作细节。
据悉,谷歌和亚马逊也在努力训练谷歌助手和 Alexa,以更好地理解包括那些具有语言障碍用户在内的声音。谷歌正在收集语言障碍用户的声音数据,亚马逊在 12 月推出了 Alexa 基金,通过建立一种算法来识别语言障碍用户独特的发声模式。