手机作为无线通讯设备,是要能接收和发射无线信号,笔者前一段时间写了一篇《浅谈手机发射功率》后收到一些Email,鼓励笔者继续写,实在不好意思再凑一篇《浅谈手机接收性能的测试》,算是把手机接收和发射这两部分都议了一议,当然还是浅谈,还是抛砖,希望同行能够斧正。
一、从收音机、电视机谈起

  我们这一代人从小接触的是收音机,后来是电视机,现在还能想起刚开始有电视机时,家家必加高高的电视天线(那时还没有普及有线),但电视接收效果还是有的家好,有的家不好,这时我们半大孩子一定会为了更好的看电视找原因、想办法。通常是说把天线架的更高,原因是说有楼房或别的什么高东西遮挡了电视信号,有从影一点一点的左右旋转电视天线,还不行煞有介事的说你家的电视灵敏度太低,当然家旁边有汽车通过或天气不好,电视上会有雪花,有时还偶尔能听到串进来其它台的弱小声音,这些我们都知道,这是电视信号被干扰了。

  其实手机作为无线通讯设备与收音机、电视机没有什么本质的区别,它同样在通信信号被遮挡或接收到几条路径的无线信号时,通信质量较差;被干扰后,通信质量较差;手机灵敏度太低,在有些场合也会影响通信质量;这些其实完全可以与收音机、电视机类比的,但手机作为可移动的无线通讯产品,它所遇到的无线电环境远比收音机、电视机(这里指以前的,不是指现在车载收音机、电视机)要恶劣,比如你在高速运动的汽车上通话——会遇到多普勒效应,在一个小区内多个用户同时通话——会受到系统内部之间的互相干扰等等。其实本文开始罗嗦半天,无非是想说明一点,考察手机的接收性能,是要先了解手机都会在什么样的无线电环境下工作。

  1、当手机在小区边缘,或无线信号被建筑物或其他东西遮挡、或在一个屏蔽的空间里(如电梯间),手机只能收到弱小信号;

  2、手机接收到多条无线路径的射频信号,这主要是同一个无线信号被城市建筑物或其他东西折射、反射过来,当这些多径信号相位相反时,会造成合成信号的幅度快速变化,且由于这些多径信号传播路径不同,会产生时延散布,这样形成了多径衰落,类比电视的从影,但要比从影恶劣的多,多径衰落对手机的通信质量影响很大,这是由于手机是移动设备,在密集的高楼大厦之间使用的几率很大,而手机无法象电视机那样使用定向天线来回避这个问题,当然现在cdma2000已经启用了RAKE接收机的技术;其思想是如果不同路径信号的延迟超过一个伪码的码片的时延,则在接收端可将不同的波束区别开来。将这些不同波束分别经过不同的延迟线,对齐以及合并在一起,则可达到变害为利,把原来是干扰的多径信号变成有用信号组合在一起。这是RAKE接收机的基本原理。

  3、在运动的汽车或火车上通话,由于是在高速运动中通话,会形成的多普勒效应;

  4、手机会受到同小区其他通话用户,或其他邻近小区通话用户的干扰;

  5、会受到附近频段其他正在使用的无线设备的干扰;

  6、会受到其他突发性干扰,如打雷、大电机的瞬时启停等;

  其实这些情况都可以用一张很好的图画形象表示,感兴趣的可以在一些相关书籍或资料中找到。

  二、如何衡量手机的接收性能

  还是让我们继续从收音机、电视机谈起,衡量收音机、电视机接收性能有一个简单办法,那是把收音机、电视机放在恶劣电磁环境中去听、去看接收效果,是否有杂音,是否有雪花,是否画面清晰,当然这个办法很直接,但评价有时却很主观,并不能很客观的、量化的去评价收音机、电视机接收性能。为了客观的、量化的去评价收音机、电视机的接收性能,人们把发送的模拟信号与接收端复制的模拟信号之间进行比对,用均方误差的方法计算二者误差程度。这个误差其实主要是由于信号在传输时叠加上的噪声所造成的(有些时候将它称之为加性干扰或加性噪声),后来人们研究发现这个加性干扰所造成的均方误差,在模拟通信中终将完全取决于接收端输出的信号平均功率与噪声平均功率之比(即信噪比)。因此信噪比成为人们衡量无线模拟通信设备接收性能的主要指标。也是,信噪比真实的反映了模拟无线接收设备对接收到的无线模拟信号的复制的程度。

  拉拉杂杂罗嗦半天,说白了衡量模拟无线设备(收音机、电视机)的接收性能是把发送的模拟信号与接收端复制的模拟信号之间进行比对,计算二指的均方误差,仅仅是在实际测试测量中,这种方法不易实现,人们才“转到”了信噪比上,而手机是数字通信,没有必要这么麻烦,直接把发送的数据流和手机接收到的、解码后的数据流进行比较,计算出误码率,ok,手机的接收性能直观准确的表述出来了。

  本文到此基本上把要铺垫的东西都?嗦的铺垫完了,下面将着重的把GSM手机和cdma2000手机在接收方面的性能测试对比的谈一下,这种对比其目的是要突出两种体制的异同,PHS、CDMA95、WCDMA其实在根本上与GSM和cdma2000是类似的,这里不谈的原因有二,一是篇幅所限,二是笔者偷懒。

  三、手机误码率的测试方法

  在谈测试方法之前,首先让我们简单回顾GSM和cdma2000。GSM是时分、频分多址系统,它属于窄带调制,带宽200kHz。GSM的传输信道是物理信道,其他逻辑信道是共用一个物理信道。GSM采用RPE-LTP对语音进行编码,把语音数据分成了三类,非常重要的语音数据(Type Ia),重要的语音数据(Type Ib)和其他的语音数据(Type II),其中非常重要的语音数据和重要的语音数据都加了校验码,而其他语音数据没有加任何校验码。GSM是第二代无线通讯的标准,后来发展到2.5代GPRS系统,数据通信能力有所提高。

  cdma2000是码分、频分多址系统,因此也是一个自干扰系统,同时码分技术的基础是扩频技术,其重要应用是解决在出现有强烈干扰下的可靠通信问题。它是宽带调制,带宽1.25MHz,能有效抑制一些窄带干扰,采用了RAKE接收机技术,能把部分多径干扰变成有益的,它是第三代无线通讯的标准,其不仅可以进行语音通讯,而且很重视数据通讯,它比GSM标准有更多的逻辑信道。

  从前文中我们知道,衡量数字通信的方法是把发出的和收到的数据流进行比对,计算误码率,那么在具体测试过程中是如何实现这个过程哪?GSM标准规定GSM手机要有“环回模式(loop-back mode)”,其思想是手机要把接收到的数据流再调制后发回来,以便仪表比对数据流,计算误码率。GSM手机只要安转了测试SIM卡,GSM手机的“环回模式”会被激活,测试设备可以通过下行的SACCH给手机发出命令,使之进入“环回模式”。

  cdma2000的标准也规定手机要有“环回模式”,但不是所有误码率都是用环回模式来测量,测试SCH的TDSO(Test Data Service Option)不是用的环回模式,标准规定在这种模式下,测试仪表要发出已知格式和内容的数据流,手机将这些数据解调后也不再调制发出,而是直接对这些数据进行比对,计算误祯率,另外对F-BCCH、F-CCCH等信道测试也不是采用环回模式,而是用cdma2000中一祯数据中的CRC (Cyclic Redundancy Check)位来确定误祯率,cdma2000为什么采用这么多方法来测试误祯率,这点主要是不同逻辑信道的特点决定的,由于篇幅所限,笔者在此不再展开讨论。

  GSM标准在表述手机接收质量,也是误码率BER(Bit error ratio)时,除了用误码率这个概念外,还根据不同情况分别引入了残余比特误码率RBER(Residual Bit Error Rate)和误祯率FER (Frame Error Rate)两个概念,其中又把误码率和残余比特误码率根据语音数据的性质分成了II类误码率、Ib类残余比特误码率和II类残余比特误码率,而cdma2000没有象GSM那样搞的这么复杂,它是用误祯率FER (Frame Error Rate)来说事。大家都看出来了GSM和cdma2000规定的不同,本文篇幅有限不做进一步讨论,但这个问题值得深究。

  在开始下面的讨论之前,还需声明一句,下文为了能把问题说清楚,引用了标准中的一些规定,但规定是发展的,笔者引用的标准可能与读者接触的标准有些出入,幸好本文不是标准解释,有些出入和不同,大家也都还认可。另外大家也都知道,不论GSM还是cdma2000都规定了很多不同的band,频段的不同这意味其指标,甚至测试方法都可能不同,下文除特别声明外,GSM的测试都是指EGSM的测试和指标,cdma2000的测试都是指US Cellular的测试和指标。

  四、灵敏度与动态范围

  接收机灵敏度的定义:误码率或误祯率不超过某个指定的值时的小接收功率。这个指标用来表征一个接收机能正确解调接收到的信号时,所需的小功率,或者换句话说,接收到多么小的一个弱信号,手机仍能正常通信。这里值得注意的是,我们始终是说弱小信号,它的含义是这种测试主要是针对手机的射频路径性能的测试,这点其实不难理解,当手机射频路径的噪声足以“掩盖”接收到的弱小信号时,手机是无法正确的解调、解码的。

  由于这种测试是理想成没有任何干扰情况下的测试,因此有些地方将这种灵敏度称之为静态灵敏度。接收机的灵敏度越好,意味基站发出的功率可以越小,对于码分多址系统意味着系统的容量越大。当然,接收机的灵敏度越好,也意味着在相同条件下,小区基站所覆盖的区域可以越大。当然,不能无限制的要求手机的灵敏度,这会加大手机的制造成本。

  *GSM的灵敏度是:接收到信号为-102dBm时,II RBER要小于等于2.44%。
  *Cdma2000灵敏度是:接收到信号为-104dBm时,FER要小于等于0.5%。

  动态范围的定义:误码率或误祯率不超过某个指定的值时接收功率的范围,通常范围是指大于一个小值,小于一个大值。由于人们习惯把小的接收功率称之为灵敏度,故这里动态范围一般仅指大的接收功率。它是衡量手机接收过载信号的能力,换个说法,当接收到的信号足够大,在手机的射频路径中被截波,这个信号也是无法被正确的解调、解码,因此这个测试也是针对手机的射频路径性能的测试。灵敏度反映了手机在远离基站时的表现,与此相对,动态范围反映了手机在基站附近时的表现。在此还要一提的是,GSM标准中对此测试的准确说法是静态输入电平范围(receiver input level range)。
  
  *GSM的动态范围是:
  接收到信号为-40dBm时,II RBER要小于等于0.012%;
  接收到信号为-15dBm时,II RBER要小于等于0.122%。

  *Cdma2000动态范围是:接收到信号为-25 dBm时,FER要小于等于0.5%。

  灵敏度和动态范围是衡量所有无线接收设备的两个基本的指标。

  五、模拟真实的自然环境——在多径快衰落条件下的测试

  本文在第一部分简单介绍了多径衰落和多普勒效应,作为在有很多高楼大厦的城市里使用的移动通讯工具——手机,多径衰落和多普勒效应是无法避免的,那么这种测试也是无法回避的,它能更真实的反映出手机在真实的环境里的使用情况。当然笔者也知道这种测试需要更多的仪表,除手机综合测试仪外,还要加信道模拟器,将多径衰落和多普勒效应模拟出来。GSM标准规定的多径快衰落的测试较为细致,它根据统计结果,把手机工作环境分成了以下几种:

  *乡村地区(rural area (RA))RA250——运动速度250km/h;
  *丘陵地区(hilly terrain (HT))HT100——运动速度100km/h;
  *城市环境(urban area (TU))TU50——运动速度50km/h和TU3——运动速度3km/h两种情况;
  *均衡测试(equalization test (EQ))EQ50——运动速度 50km/h

  GSM标准中规定,在以上这些环境中,无线信号有6条或12条,当接收到的信号为-102dBm时,II RBER为 7.50%到9.33%。这个要求比静态灵敏度的要求低很多,这点是好理解的。

  GSM标准中把这部分测试也称之为参考灵敏度(Reference sensitivity)测试,这点是很有道理的。这是因为虽然接收信号同为-102dBm,但参考灵敏度的测试把自然环境考虑进来,模拟了一个较为真实的、较为全面的、带有普遍意义的无线环境,在这些恶劣环境下手机的接收质量下降再所难免,但也要达到标准的规定,这样才能保证手机质量,这些指标表征出手机在这些参考环境下,正确接收弱小信号的能力,是对手机射频路径和基带芯片处理能力的一个综合考察。

  从前文不难看出,GSM标准规定了一个静态灵敏度和静态输入电平范围,以及参考灵敏度,那么有没有参考输入电平范围哪?有的,不过没有象参考灵敏度那样测很多情况,只是在EQ模式下测试,具体的规定是在EQ模式下,输入电平分别在-82dBm,-40dBm时,II RBER要小于等于3.250%。

  前面提到了GSM的静态灵敏度与动态范围,参考灵敏度与动态范围,分别考察了没有和有多径快衰落和多普勒效应时手机接收弱小信号和过载信号的能力,cdma2000的测试在此确改变了一些方向,首先让我们看看Cdma2000的标准规定。

  Cdma2000标准规定的多径快衰落的测试是在有1、2、3条路径的无线信号,运动速度在8-100 km/h等6种情况下,且有加性高斯白噪声下(Ioc大约在负五十几到负六十几dBm之间),Ior/Ioc在几个到十几个dB之间,各种通讯速率下的测试,各种情况不同,误祯率的要求也不同,从0.2%到30%,详情可查标准,不再赘述。