在这个万物互联的时代,语音交互以其便捷、自然的特性,正成为人机交互的核心纽带。然而,嘈杂的环境、恼人的回声、重叠的对话,这些因素往往成为流畅语音体验的“拦路虎”。如何让设备在任何环境下都能“听得清、听得懂、反应快”?友杰智新凭借最新研发成果给出了强有力的答案。
技术突破:场景化算法构筑极致语音交互体验
近日,友杰智新宣布在AI语音技术领域取得一系列重大突破,成功研发并开始部署落地多项结合具体应用场景的核心语音处理算法,为智能终端带来前所未有的清晰、稳定与智能的交互体验:
场景化降噪 (Scenario-based Noise Reduction):
结合命令词识别(kws)场景的超轻量化降噪算法,针对不同场景(如办公室,家居,工厂等),不同类型的噪声(比如 风噪,震动噪声,水声等),采用自适应降噪算法,有效过滤干扰噪音,确保语音识别准确。
实际效果:例如,在风扇设备上,该算法能精准过滤、扇叶震动产生的强噪音,确保用户指令在轰鸣中依然能被准确识别。
命令词识别专用回声消除 (AEC for KWS):
专为KWS系统深度优化的回声消除算法。利用深度学习模型对语音特征进行高精度量化分析,在消除回声的同时,最大限度减少语音信息损失 。
实际效果:当智能音箱播放音乐时,该技术可有效消除设备自身播报声对麦克风的干扰,用户无需提高音量或暂停播放,即可随时自然打断并下达语音指令,大幅提升响应速度和用户体验。
高指向性波束成形 (Beamforming):
自研高精度波束成形技术,如同为设备装上“声音聚光灯”。
有效聚焦目标用户语音,强力抑制侧方及后方干扰(抑制能力>12dB)。
实际效果:在家庭聚会或多人交谈的复杂声场中,设备能精准锁定并拾取说话者的声音,过滤背景杂音,确保指令识别准确无误。
强背景音下的盲源分离 (Blind Source Separation):
突破性自研盲源分离算法,深度解析混叠音频流。即使在用户说话时伴随同方向、高强度背景噪音(>65dB SPL)的极端场景下,也能高保真地提取目标语音(分离度>15dB)。
实际效果:在喧闹的会议室中,该技术能有效分离不同与会者的声音,使语音识别系统清晰捕捉并准确转录每个人的发言内容。这些结合场景的算法突破,显著提升了语音识别的准确率、稳定性和用户体验,为各类智能设备打造出近乎“无感”的沉浸式语音交互体验。
场景扩张:加速语音交互“万物互联”版图
友杰智新不仅在技术纵深上持续突破,更在应用场景的广度上加速布局。在稳固照明、小家电、门锁、手表、耳机等成熟领域领先地位的同时,公司正大力拓展语音交互的疆界,将技术赋能至更丰富的智能终端:
音频娱乐与信息入口:智能音箱、平板电脑、AI相框。
视觉与交互融合:IPC摄像头(网络摄像机)、AI眼镜。
创新互动体验:AI玩具(故事机、教育机器人、智能宠物等)。
创新消费领域:AI情趣用品。
普惠通讯与连接:智能体4G功能手机(提供基础语音交互的通讯设备)。
友杰智新此次的技术突破与场景扩张,标志着其在AI语音交互领域的综合实力再上新台阶。通过深入场景的算法创新(降噪、回声消除、波束成形、盲源分离),解决了复杂环境下的语音清晰度难题;同时,积极将技术落地于音箱、平板、AI玩具、眼镜、IPC、相框乃至创新消费电子等广阔新场景。
微信公众号
地址:广东省深圳市南山区招商街道沿山社区沿山路
22号火炬大厦7楼