人工智能不仅能让机器听清楚人说了什么,还可以听出“是谁在说”。让机器听声辨人,这项任务称为声纹识别(Speaker Recognition)。从司法鉴定到手机解锁、语音支付,声纹识别正逐步走入我们的现实生活。本节将通过人耳的听觉机制,引出声纹的生理与行为基础;再介绍现代深度学习声纹识别模型的基础架构。随后,通过对比语音识别,认识声纹识别的目标“开放性”特征;最后探讨声纹识别在司法与商业场景中的应用潜力与风险
人耳如何听声辨人
人的听觉系统是个非常精巧的“频率分解器”。声音在传入耳朵后,经过鼓膜、听小骨等结构传到内耳中的耳蜗。耳蜗呈螺旋状,不同部位对不同频率的声音敏感:外部(基部)感知高频,内部(顶端)感知低频。这种“按频率分布”的空间分解让人耳具有强大的频率分析能力。我们能听懂语言、分辨音乐、判断说话人,正是因为这种频率分解。
那么,人们是如何通过声音来判断发音人的呢?语音由声带产生的振动,通过口鼻构成的声道进行传导。不同人的声门和声道存在差异,因此不论是声带的振动还是声道的传导特性,都具有一定的个体差异,最终反映为声音信号的不同频率分布特性。
这些特征主要包括:
基频(Pitch):人声带振动的基本频率,是语音的“音高”,所有其他频率都可视为它的倍频。共振峰(Formants):发音时声道共振形成的特征峰值,不同人发同一个音时的共振峰位置也不同。
语调(Prosody):包含发音节奏、长短、强度、声调变化等,能反映说话人的“说话风格”。
图:耳蜗不同位置感知不同频率(频率分解器)
有趣的是,人的耳朵可以轻松区分这些差异,从而辨认出说话人。图 中,两个人同时说“绿”字,频谱上会出现不同的基频与共振峰分布,被耳蜗中的“频率分解器”捕捉到后,我们就能感知到这是两个不同的声音。
两个不同人说“绿”字的频谱图,基频与共振峰分布不同
研究表明,人耳对熟悉声音的识别尤其敏感。打电话时,我们仅凭一声“喂”就能分辨出亲友;甚至咳嗽声、笑声也可能成为“身份信号”。