×
嵌入式 > 技术百科 > 详情

嵌入式产品中语音通信和音乐播放两者的软件架构差别在哪里?看完本文你就会了

发布时间:2020-06-24 发布时间:
|

对于音频产品设计而言,软件方面也尤为需要投入精力。嵌入式产品中语音通信和音乐播放的软件架构是有差别的,本文这里还是把这两种case分开来讲。

1, 语音通信

语音通信的软件架构通常如下:

语音发送时由codec芯片采集到语音的模拟信号转换成PCM数据然后通过I2S总线发送给CPU(这是音频驱动负责的,不同的OS会有不同的驱动架构,会在后面音频采集和播放中详细讲,重点讲linux的)。CPU收到PCM数据后首先做前处理,主要包括回音消除(AEC)/噪声抑制(ANS)/自动增益控制(AGC)/VAD等,然后把PCM数据根据指定的codec编码成码流,再打上RTP包头,根据需要还有可能做FEC/重传语音的RTP包等以补偿网络的丢包。最后把生成的RTP包通过UDP socket发到网络中。

语音接收时首先通过UDP socket收RTP包,根据指定看是否需要做FEC等,然后把RTP包或者RTP包的payload(不同的方案有不同的做法)放进jitter buffer中等待取走。

从jitter buffer取时取走的是payload,也就是码流。然后对码流解码得到PCM数据,还要看是否需要做PLC/CNG等。最后把PCM数据通过I2S总线送给codec芯片再转换成模拟信号播放出来。这样双方就可以通话了。

2,音乐播放

音乐播放分播放本地音乐和播放云端音乐。播放本地音乐相对简单。播放云端音乐通常是边下载边播放,一般用DLNA或者Apple的Airplay等协议实现下载,其他的就跟

播放本地音乐一样了。播放本地音乐的软件架构通常如下:

首先要解析音频文件头得到相关信息,有codec类型,采样率,通道数等。然后根据这些对每一帧音频数据进行解码得到PCM数据,如果有需要的话还要做后处理,比如均衡器,使音乐更美妙动听。处理完后把PCM数据放进ring buffer中。播放线程会定时的从ring buffer中取走需要的PCM通过I2S总线送给codec芯片,codec芯片把PCM数据转换成模拟信号然后播放出来,这样就可以听到动听的音乐了。


『本文转载自网络,版权归原作者所有,如有侵权请联系删除』

热门文章 更多
Keil5(MDK5)在调试(debug)过程中遇到的问题