听力损失是一个快速增长的领域科学研究的婴儿潮一代处理听力损失的数量继续增加,因为他们的年龄。
了解听力损失影响人,人员研究语音识别的能力。它是比较困难的人们认识到人类语言如果有混响,一些听力障碍,或重要的背景噪音,如交通噪声或多个扬声器。
因此,助听器通常用来改善人类的语音识别算法。评估这些算法,研究人员执行实验,旨在确定一个特定的信噪比(通常50%)是公认的单词数。然而,这些测试时间,cost-intensive。
在一个研究发表在《美国声学学会杂志》上从德国,研究人员探索人类语音识别模型基于机器学习和神经网络。
的新奇我们的模型是对听力受损的听众提供良好的预测噪声类型有不同的复杂性和显示了低错误和高与测量数据的相关性,”作者说Jana Roßbach,从卡尔·冯·Ossietzky大学。
研究人员计算出多少个单词/句子听众理解使用自动语音识别(ASR)。大多数人都熟悉ASR通过语音识别工具如Alexa和Siri。
研究由八听力正常和20听力受损的听众被暴露于各种复杂的声音,掩盖了演讲。的听力受损的听众被分为三组不同级别的老年性听力损失。
模型允许研究人员预测人类语音识别的性能与不同程度的听力丧失听力受损的听众日益复杂的各种噪声掩蔽器时间调制和相似性真正的演讲。的听力损失一个人可以单独考虑。
“我们最惊讶的是所有的噪声类型的预测效果很好。我们预期模型有问题时使用一个空谈者竞争。然而,事实并非如此,”Roßbach说。
创建的模型预测同时听力。展望未来,研究者将开发一个双耳模型因为演讲是由两个ear影响听力理解。
除了预测语音清晰度,模型也可能被用来预测听力努力或演讲质量为这些主题是非常相关的。