Android音频开发(1):基础知识

先来点闲言碎语,前段时间我有一段感悟:Android开发,本身并不是一个可以走得多远的方向,它只是一个平台,提供了许多封装好的API,让大家能够快速开发出针对特定业务的应用。


真正有价值的地方就在于Android与具体的业务方向结合,比如:Android与音视频技术,Android与智能硬件交互,Android与前端技术的融合与探索,Android信息安全,Android源码深度定制等等。


我一直比较看好音视频/多媒体方向,希望在此能够深入积累和探索,前段时间我发布了一款Android VoIP网络电话应用“飞鸽电话”,并写了一篇分析其整体架构的文章《PigeonCall:一款Android VoIP网络电话应用架构分析》,欢迎有兴趣的小伙伴们先看一看。


在这个应用的开发过程中学到的东西还蛮多的,因此想写一些文章分享分享,本文作为开篇,主要以问答的形式,介绍一些音频开发的基础常识,非常重要,因为不了解这些常识,很多Android API或者第三方库的参数,你都不知道该怎么配置。


<强> 1。音频开发的主要应用有哪些?


音频播放器,录音机,语音电话,音视频监控应用,音视频直播应用,音频编辑/处理软件,蓝牙耳机/音箱,等等。


<强> 2。音频开发的具体内容有哪些?


(1)音频采集/播放

(2)音频算法处理(去噪、静音检测,回声消除,音效处理,功放/增强,混音/分离,等等)

(3)音频的编解码和格式转换

(4)音频传输协议的开发(A2DP, SIP AVRCP,等等)


<强> 3。音频应用的难点在哪?


延时敏感,卡顿敏感,噪声抑制(降噪),回声消除(AEC)、静音检测(VAD)混音算法,等等。


<强> 4。音频开发基础概念有哪些?


在音频开发中,下面的这几个概念经常会遇到。


(1) 采样率(samplerate)


采样就是把模拟信号数字化的过程,不仅仅是音频需要采样,所有的模拟信号都需要通过采样转换为可以用0101来表示的数字信号,示意图如下所示:


Android音频开发(1):基础知识


蓝色代表模拟音频信号,红色的点代表采样得到的量化数值。


采样频率越高,红色的间隔就越密集,记录这一段音频信号所用的数据量就越大,同时音频质量也就越高。


根据奈奎斯特理论,采样频率只要不低于音频信号最高频率的两倍,就可以无损失地还原原始的声音。


通常人耳能听到频率范围大约在20Hz~20kHz之间的声音,为了保证声音不失真,采样频率应在40kHz以上。常用的音频采样频率有:8kHz、11.025kHz、22.05kHz、16kHz、37.8kHz、44.1kHz、48kHz、96kHz、192kHz等。


(2) 量化精度(位宽)


上图中,每一个红色的采样点,都需要用一个数值来表示大小,这个数值的数据类型大小可以是:4bit、8bit、16bit、32bit等等,位数越多,表示得就越精细,声音质量自然就越好,当然,数据量也会成倍增大。


常见的位宽是:8bit 或者 16bit


(3) 声道数(channels)


由于音频的采集和播放是可以叠加的,因此,可以同时从多个音频源采集声音,并分别输出到不同的扬声器,故声道数一般表示声音录制时的音源数量或回放时相应的扬声器数量。


单声道(Mono)和双声道(Stereo)比较常见,顾名思义,前者的声道数为1,后者为2


(4) 音频帧(frame)


这个概念在应用开发中非常重要,网上很多文章都没有专门介绍这个概念。


音频跟视频很不一样,视频每一帧就是一张图像,而从上面的正玄波可以看出,音频数据是流式的,本身没有明确的一帧帧的概念,在实际的应用中,为了音频算法处理/传输的方便,一般约定俗成取2.5ms~60ms为单位的数据量为一帧音频。


这个时间被称之为“采样时间”,其长度没有特别的标准,它是根据编×××和具体应用的需求来决定的,我们可以计算一下一帧音频帧的大小:


假设某通道的音频信号是采样率为8kHz,位宽为16bit,20ms一帧,双通道,则一帧音频数据的大小为:


int size=8000 x 16bit x 0.02s  x 2 =5120 bit=640 byte

Android音频开发(1):基础知识