2026年4月,在2026智能电动汽车发展高层论坛上,瑞声科技高级技术副总裁张松出席论坛并发表主题演讲,以下为演讲全文。
大家好!今天北京是一个非常好的天气,我在这边代表瑞声科技讲一下我们对车载声学这边的理解和探讨。
从车载行业发展趋势看,近两年车载扬声器的搭载数量迎来显著增长,其中16 扬声器配置的渗透率同比提升 52%,为何多扬声器声学配置会迎来爆发式普及?核心源于内容端与传输端的双重底层变革,以手机行业发展规律做类比:苹果 2007 年推出初代 iPhone,真正规模化普及却在 2008 年,关键正是依托 App Store 完善了内容生态。同理,通信技术从 3G、4G 迭代至 5G,为车载端高清音频传输打好了基础,音乐平台全面升级,网易云、QQ 音乐等主流应用,音源从立体声迭代至无损音质,影视内容层面,当下超 99% 的视频资源均适配杜比全景声,而这类沉浸式内容,高度依赖7.1.4 多声道架构才能完整还原,车载扬声器数量大幅增加,本质是内容生态升级和传输技术革新共同驱动的结果。
立足行业趋势,结合瑞声科技对车载声学的研究,未来车载声学将围绕四大核心方向持续演进:
1.更沉浸式体验。以前都是立体声为主,现在是多声道内容,7.1.4是12个声道,需要更多声道来体现。
2.用户需要更私密的空间来享受音乐。
3.如何把音质更好地呈现出来。
4.AI如何跟我们现在的音频进行融合,甚至未来的自动驾驶怎么跟音频进行融合,这都是非常大的课题。
Toyata常规车型仅搭载四到五组扬声器,以基础发声单元为主,而高端车型普遍升级至 12 通道、乃至 24 通道声学架构,两者带来的座舱听觉体验,有着本质差距。多通道声学系统的核心优势,在于更强的空间沉浸感、更扎实的低频表现、更宽的动态范围与更丰富的细节还原。我们聆听音乐的核心诉求,早已不止于单纯发声,而是精准还原创作者的创作初衷,复刻舞台现场的真实听感。如何实现原声还原、构建沉浸式声场,杜比 7.1.4 全景声技术,正是极具价值的核心研究方向。
当下用户的出行体验需求,正在发生全面升级,过去车载声学仅满足听个音响的基础需求;如今,用户追求的是全维度融合式感官体验。无论是极氪9X、尊界 S800,还是全新蔚来 ET9、ES9,行业头部产品均已实现听觉、视觉、触觉、嗅觉与动态行驶体验的深度融合。声学体验不再是单一的声音输出,而是声音律动、氛围光影、座椅反馈的同步联动,全方位拉满体验层次感与氛围感。基于这一行业趋势,瑞声科技立足深度声学理解,结合音乐内容创作逻辑、影视音效逻辑、游戏声场逻辑深度研发:针对枪声、爆破声、环境声等场景化音效,通过精细化调校与技术优化,强化声音的空间包裹感与代入感;同时联动智能座舱、超级座椅等硬件载体,实现声振协同、声色联动,真正为用户打造全场景、高沉浸的一体化感官体验。
第二点,更私密的空间,想要获得优质的聆听体验,前提一定是拥有安静的环境。当下新能源车型本身动力噪音更低,相比传统燃油车,发动机噪音大幅减弱,但也让路噪、胎噪、风噪更加凸显,因此路面噪声抑制已经成为用户的强刚需,即便是20 万级主流车型,消费者对整车静谧性的要求也在持续提升,不止纯电车,油电混动车型同样面临复杂噪声治理难题,发动机启停噪音、动力切换异响的抑制与优化,依旧是行业长期需要攻克的课题。
我们在交互中,如果说来了一个电话,或者打开窗户,进行通话的时候,这个也是一个噪声,我们怎么样把别的噪声消除,而只表达我们或者只透传我们想要的声音,而不是听到背景轰隆的响声,这个也是一个课题,我们进行了研究。
还有一个,现在大家都比较关注的,甚至海外车厂也比较关注的,独立音区的课题。尤其是前后排,后排有后排屏的时候,后排的用户在听歌,前排在听导航,这就要求音乐分区,相互不打扰,如何做到这个?其实它是软硬结合的,也就是说,我们通过头枕振扬声器定向发声,我们通过软件的隔离,怎么样把它隔离到最好。现在瑞声科技Standard isolation已经能达到25db,这样的话几乎听不到隔壁别人的,北京车展的时候大家有机会一起听一下我们的demo。
回归私享体验与音质本身,优质声学表现一定依托于核心材料的底层支撑,就像一道佳肴离不开优质食材,车载Hi-Fi 音质的升级,同样需要从高音、中音、低音全频段单元选材进行升级定制,对比传统车型常规纸盆单元,采用特种复合材质、定制振膜与声学材料的发声单元,在解析力、层次感、音色纯净度上会形成质的差距。行业的核心命题,正是如何把高端家用 Hi-Fi 级音质体验,轻量化、高性价比地落地到车载座舱当中。
音质升级也绝非单一硬件的优化,而是一套完整的系统工程。扬声器、功放、算法融合和调音需要整体考虑,车载声学早已告别单纯堆砌硬件的阶段,不再盲目比拼喇叭数量、功放功率、单元规格。行业发展进入精细化时代,我们不再做简单的硬件叠加,而是聚焦每一项参数、每一组调校对用户真实体验的实际增益,这点是我们值得探讨的。
除此之外,我们还研发了一套独家的软硬结合算法,通过精准预判失真参数,反向进行算法校准与优化,这项技术在业内是独有的核心优势。
接下来,我重点讲一下车载声学的智能化升级方向,主要有这几个核心突破:
第一,我们对AI内容的理解,分轨,一个立体声分成4轨,比如人声、吉他声、鼓声、琴声,我们可以实时分轨。分轨的目的是更好地重现音乐的映射,我们如何把这个映射更好的在车中呈现出来。
第二,随速补偿。随着速度的增加怎么样随速补偿,但这个有一个心理声学的模型我们放在里面,我想讲的是,很多很多东西已经深入到从一个功能的层面深入到体验的层面,我们要从体验的层面把它所有东西量化出来,然后进行一个映射。这样的话我们才能够真正提升整体用户体验,而不是简单的堆砌。
另外还有全局模式自动音量调节功能,由于时间有限,这里就不展开赘述了。
更值得一提的是,我们瑞声科技独有的AST安全声学技术。这项技术早已超越单纯的声学范畴,而是多维度融合安全场景的创新应用。比如在迷雾等恶劣天气下,当ADS高级驾驶辅助系统识别效果不佳时,我们可以通过捕捉车外声音信号,预判潜在安全风险;再比如高速行驶时,用户正在聆听音乐,此时若有警车、救护车等特种车辆靠近,系统能通过声音识别,提前向驾驶者发出提示,告知车辆方位,提醒其及时避让,为行车安全增添一份保障。
最后我想强调的是,我们所有的技术研发,核心出发点都是整体声音体验目标,在此基础上进行系统设计和功能开发,而不是盲目比拼扬声器数量、功放规格、功率大小,未来的核心竞争力,必然聚焦在用户体验的深耕与优化上。
我大概的讲述就是这些,谢谢大家。
【独家稿件及免责声明】本网注明转载文章中的信息仅供用户参考。凡注明来源“运输人网”的作品,未经本网授权均不得转载、摘编或使用。联系邮件:master@yunshuren.com
评论