小时候,在重庆农村的老家,那里交通闭塞,经济落后,家里只有一台动不动就坏的黑白电视,靠着房顶上用铝线捆扎而成的天线接收县里的电视台,但时常会因为天线被风吹歪而丢失信号,而后就不得不爬到房顶上,转动调整天线,有时费九牛二虎之力才能将信号重新捕获,简直是全凭运气。
后来,家里装了一台固定电话,通过电话线和外面联系,每当看到有人通过电话和外出去广州深圳打工的人们通话时,我都会想,这电话线的传输能力这么厉害吗?能把我们的声音传递到几千公里远的城市去?再后来,我们逐渐拥有了手机,我同样会想,手机的无线电这么厉害吗?能跑那么远?

当我看完大话传送网后,我知道一根电线或者是手机辐射的无线信号是肯定没有办法把信号传递到那么远的距离的。我们的声音信号通过电话的听筒收集,通过电话机里的采样芯片采样成数字信号,然后以高低电平的方式通过电话线或无线电传递到最近的基站,基站把千家万户的信号汇聚到一起,通过传送网络传输到遥远的地方。

我们知道当今的网络,都是使用数字信号来传输信息的,而人的声音是模拟信号,必须通过信号采集等方式才能转换为数字信号。但采样就涉及到一个采样周期的问题,如果采样周期太长,就会丢失人声的很多细节,但采样周期太短,就会导致数据量太大,会增加传输成本。那如何确定采样的周期呢?科学家们早就进行了研究,并且针对声波的采样,提出了奈奎施特定律:
当采样频率大于信号带宽的2倍时,采样之后的数字信号能基本保留原始信号中的信息。
我们知道人声的频率范围时300Hz~3.4kHz,如果要基本保留原始信号中的信息,采样频率应该是3.4kHz * 2 = 6.8kHz.但这样比较极限,实际选择的采样频率是8kHz,这样能让大家的声音信息尽可能的通过网络传播。

当声音完成从模拟信号到数字信号的转换后,就需要放到网络上传播了,这里以2G时代的网络的拓扑图为例:
image.png
拓扑图最下面的MS,就是我们的手机,它将我们的声音转换为数字信号,然后通过无线电发送到BTS,BTS就是我们的基站。
BTS把信号上送到BSC,BSC就是基站控制器,一般一个区域网络中会有若干个BSC,每个BSC分管一个片区的BTS。
BSC再把信号上送到MSC,MSC叫移动交换中心,一个区域中所有的BSC会把信息汇聚到MSC,并在MSC出完成交换,这里的交换,有点像路由,但又不同,这里的交换,实际上是建立了两个用户间的一个连接管道,两个用户通过这个连接管道完成通话过程。
如果两个用户相隔不远,刚好在一个MSC下面,那么MSC就可以完成信息交换,但是如果两个用户相隔很远,两个用户在两个MSC上,这个时候就要GMSC来协助了,GMSC就是网关移动交换中心,用来实现跨区域通讯。
AUC是鉴权中心,一台手机要接入电信的网络,需要插电信的电话卡,电信的电话卡中就有可以完成鉴权的信息。
HLR是归属位置寄存器,用于存储本地号码。
VLR是来访位置寄存器,用于存储外来电话信息。

这些拓扑元素不是独立的,而是通过线缆和接口连接在一起的。在手机和基站之间连接的接口是Um接口,是无线接口。基站和BSC之间的接口叫做Abis接口,BSC和MSC之间的接口叫A接口,这两种接口都是逻辑接口,在底层上,都是使用有线接口连接的,这个接口的名字叫E1。

再说我们的声音信号的采样评论时8kHz,也就是一秒钟采样8000次,然后每一次采样的数值使用8个比特位来表示,那么这一路话音信号的速率就是80008=64kbit/s。
但我们知道,如果一路信号只有64kbit/s的带宽,那么每一路信号就要拉一根物理的线缆,这样的成本太高了。但如果提高信号的带宽,比如128kbit/s,又会导致信号的频率和我们人声采样的频率不一致了。不过我们可以采用时分复用的概念,把128kbit/s按照时间间隔间插的方式,可以插入两个64kbit/s的信号,那就可以传递两路会话了。这里的按时间间隔间插,又称为时隙,这里相当于有两个时隙。
而E1接口的每一帧有32个时隙,可以复用32个64kbit/s信号,那么E1接口的带宽就是32
64kbit/s=2048kbit/s 也就是2Mbit/s.但实际上32个时隙中会有一路同步信号和信令信号,所以实际一共可以传输30个话音信号。

Q.E.D.