?全文內容如下:
?這篇文章的初衷是源自我給工廠工程師寫的一份“操作指南”,按理說寫這些東西對于工作了十來年的人來說應該是手到擒來的,但是真正寫的時候就發現原本計劃提綱挈領的東西寫成了冗長無比的八股文。
當你寫完“EVM可能隨著Front-End的IL增大而惡化”的時候,如果閱讀者是一個基礎概念知識都不好的工程師(工廠里的工程師很多都是如此),人家第一反應是“EVM是什么”,繼而是“EVM是為什么會跟IL有關系”,然后還可能是“EVM還跟什么指標有關系”——這就沒完沒了了。
所以我這里打算“扯到哪算哪”,把一些常見的概念列舉出來,拋磚引玉,然后看看效果如何。
1、Rx Sensitivity(接收靈敏度)?
接收靈敏度,這應該是最基本的概念之一,表征的是接收機能夠在不超過一定誤碼率的情況下識別的最低信號強度。這里說誤碼率,是沿用CS(電路交換)時代的定義作一個通稱,在多數情況下,BER (bit error rate)或者PER (packet error rate)會用來考察靈敏度,在LTE時代干脆用吞吐量Throughput來定義——因為LTE干脆沒有電路交換的語音信道,但是這也是一個實實在在的進化,因為第一次我們不再使用諸如12.2kbps RMC(參考測量信道,實際代表的是速率12.2kbps的語音編碼)這樣的“標準化替代品”來衡量靈敏度,而是以用戶可以實實在在感受到的吞吐量來定義之。
2、SNR(信噪比)?
講靈敏度的時候我們常常聯系到SNR(信噪比,我們一般是講接收機的解調信噪比),我們把解調信噪比定義為不超過一定誤碼率的情況下解調器能夠解調的信噪比門限(面試的時候經常會有人給你出題,給一串NF、Gain,再告訴你解調門限要你推靈敏度)。那么S和N分別何來??
S即信號Signal,或者稱為有用信號;N即噪聲Noise,泛指一切不帶有有用信息的信號。有用信號一般是通信系統發射機發射出來,噪聲的來源則是非常廣泛的,最典型的就是那個著名的-174dBm/Hz——自然噪聲底,要記住它是一個與通信系統類型無關的量,從某種意義上講是從熱力學推算出來的(所以它跟溫度有關);另外要注意的是它實際上是個噪聲功率密度(所以有dBm/Hz這個量綱),我們接收多大帶寬的信號,就會接受多大帶寬的噪聲——所以最終的噪聲功率是用噪聲功率密度對帶寬積分得來。
3、TxPower(發射功率)?
發射功率的重要性,在于發射機的信號需要經過空間的衰落之后才能到達接收機,那么越高的發射功率意味著越遠的通信距離。?
那么我們的發射信號要不要講究SNR?譬如說,我們的發射信號SNR很差,那么到達接收機的信號SNR是不是也很差??
這個牽涉到剛才講過的概念,自然噪聲底。我們假設空間的衰落對信號和噪聲都是效果相同的(實際上不是,信號能夠通編碼抵御衰落而噪聲不行)而且是如同衰減器一般作用的,那么我們假設空間衰落-200dB,發射信號帶寬1Hz,功率50dBm,信噪比50dB,接收機收到信號的SNR是多少??
接收機收到信號的功率是50-200=-150Bm(帶寬1Hz),而發射機的噪聲50-50=0dBm通過空間衰落,到達接收機的功率是0-200=-200dBm(帶寬1Hz)?這時候這部分噪聲早已被“淹沒”在-174dBm/Hz的自然噪聲底之下了,此時我們計算接收機入口的噪聲,只需要考慮-174dBm/Hz的“基本成分”即可。?
這在通信系統的絕大部分情況下是適用的。
4、ACLR/ACPR?
我們把這些項目放在一起,是因為它們表征的實際上是“發射機噪聲”的一部分,只是這些噪聲不是在發射信道之內,而是發射機泄漏到臨近信道中去的部分,可以統稱為“鄰道泄漏”。?
其中ACLR和ACPR(其實是一個東西,不過一個是在終端測試中的叫法,一個是在基站測試中的叫法罷了),都是以“Adjacent Channel”命名,顧名思義,都是描述本機對其他設備的干擾。而且它們有個共同點,對干擾信號的功率計算也是以一個信道帶寬為計。這種計量方法表明,這一指標的設計目的,是考量發射機泄漏的信號,對相同或相似制式的設備接收機的干擾——干擾信號以同頻同帶寬的模式落到接收機帶內,形成對接收機接收信號的同頻干擾。?
在LTE中,ACLR的測試有兩種設置,EUTRA和UTRA,前者是描述LTE系統對LTE系統的干擾,后者是考慮LTE系統對UMTS系統的干擾。所以我們可以看到EUTRAACLR的測量帶寬是LTE RB的占用帶寬,UTRA ACLR的測量帶寬是UMTS信號的占用帶寬(FDD系統3.84MHz,TDD系統1.28MHz)。換句話說,ACLR/ACPR描述的是一種“對等的”干擾:發射信號的泄漏對同樣或者類似的通信系統發生的干擾。?
這一定義是有非常重要的實際意義的。實際網絡中同小區鄰小區還有附近小區經常會有信號泄漏過來,所以網規網優的過程實際上就是容量最大化和干擾最小化的過程,而系統本身的鄰道泄漏對于鄰近小區就是典型的干擾信號;從系統的另一個方向來看,擁擠人群中用戶的手機也可能成為互相的干擾源。?
同樣的,在通信系統的演化中,從來是以“平滑過渡”為目標,即在現有網絡上升級改造進入下一代網絡。那么兩代甚至三代系統共存就需要考慮不同系統之間的干擾,LTE引入UTRA即是考慮了LTE在與UMTS共存的情形下對前代系統的射頻干擾。
5、Modulation Spectrum/Switching Spectrum?
而退回到GSM系統,Modulation Spectrum(調制譜)和Switching Spectrum(切換譜,也有稱為開關譜的,對舶來品不同翻譯的緣故)也是扮演了鄰道泄漏相似的角色。不同的是它們的測量帶寬并不是GSM信號的占用帶寬。從定義上看,可以認為調制譜是衡量同步系統之間的干擾,而切換譜是衡量非同步系統之間的干擾(事實上如果不對信號做gating,切換譜一定是會把調制譜淹沒掉的)。?
這就牽涉到另一個概念:GSM系統中,各小區之間是不同步的,雖然它用的是TDMA;而相比之下,TD-SCDMA和之后的TD-LTE,小區之間是同步的(那個飛碟形狀或者球頭的GPS天線永遠是TDD系統擺脫不了的桎梏)。?
因為小區間不同步,所以A小區上升沿/下降沿的功率泄漏可能落到B小區的payload部分,所以我們用切換譜來衡量此狀態下發射機對鄰信道的干擾;而在整個577us的GSM timeslot里,上升沿/下降沿的占比畢竟很少,多數時候兩個相鄰小區的payload部分會在時間上交疊,評估這種情況下發射機對鄰信道的干擾就可以參考調制譜。
6、SEM (Spectrum Emission Mask)?
講SEM的時候,首先要注意它是一個“帶內指標”,與spurious emission區分開來,后者在廣義上是包含了SEM的,但是著重看的其實是發射機工作頻段之外的頻譜泄漏,其引入也更多的是從EMC(電磁兼容)的角度。?
SEM是提供一個“頻譜模版”,然后在測量發射機帶內頻譜泄漏的時候,看有沒有超出模版限值的點??梢哉f它與ACLR有關系,但是又不相同:ACLR是考慮泄漏到鄰近信道中的平均功率,所以它以信道帶寬為測量帶寬,它體現的是發射機在鄰近信道內的“噪聲底”;SEM反映的是以較小的測量帶寬(往往100kHz到1MHz)捕捉在鄰近頻段內的超標點,體現的是“以噪聲底為基礎的雜散發射”。?
如果用頻譜儀掃描SEM,可以看到鄰信道上的雜散點會普遍的高出ACLR均值,所以如果ACLR指標本身沒有余量,SEM就很容易超標。反之SEM超標并不一定意味著ACLR不良,有一種常見的現象就是有LO的雜散或者某個時鐘與LO調制分量(往往帶寬很窄,類似點頻)串入發射機鏈路,這時候即便ACLR很好,SEM也可能超標。
7、EVM(誤差矢量)?
首先,EVM是一個矢量值,也就是說它有幅度和角度,它衡量的是“實際信號與理想信號的誤差”,這個量度可以有效的表達發射信號的“質量”——實際信號的點距離理想信號越遠,誤差就越大,EVM的模值就越大。?
在(一)中我們曾經解釋過為什么發射信號的信噪比不是那么重要,原因有二:第一是發射信號的SNR往往遠遠高于接收機解調所需要的SNR;第二是我們計算接收靈敏度時參考的是接收機最惡劣的情況,即在經過大幅度空間衰落之后,發射機噪聲早已淹沒在自然噪聲底之下,而有用信號也被衰減到接收機的解調門限附近。?
但是發射機的“固有信噪比”在某些情況下是需要被考慮的,譬如近距離無線通信,典型的如802.11系列。?
802.11系列演進到802.11ac的時候,已經引入了256QAM的調制,對于接收機而言,即便不考慮空間衰落,光是解調這樣高階的正交調制信號就已經需要很高的信噪比,EVM越差,SNR就越差,解調難度就越高。?
做802.11系統的工程師,往往用EVM來衡量Tx線性度;而做3GPP系統的工程師,則喜歡用ACLR/ACPR/Spectrum來衡量Tx線性性能。?
從起源上講,3GPP是蜂窩通信的演進道路,從一開始就不得不關注鄰信道、隔信道(adjacent channel, alternative channel)的干擾。換句話說,干擾是影響蜂窩通信速率的第一大障礙,所以3GPP在演進的過程中,總是以“干擾最小化”為目標的:GSM時代的跳頻,UMTS時代的擴頻,LTE時代RB概念的引入,都是如此。?
而802.11系統是固定無線接入的演進,它是秉承TCP/IP協議精神而來,以“盡最大能力的服務”為目標,802.11中經常會有時分或者跳頻的手段來實現多用戶共存,而布網則比較靈活(畢竟以局域網為主),信道寬度也靈活可變??偟膩碚f它對干擾并不敏感(或者說容忍度比較高)。?
通俗的講,就是蜂窩通信的起源是打電話,打不通電話用戶會去電信局砸場子;802.11的起源是局域網,網絡不好大概率是先耐著性子等等(其實這時候設備是在作糾錯和重傳)。?
這就決定了3GPP系列必然以ACLR/ACPR一類“頻譜再生”性能為指標,而802.11系列則可以以犧牲速率來適應網絡環境。
具體說來,“以犧牲速率來適應網絡環境”,就是指的802.11系列中以不同的調制階數來應對傳播條件:當接收機發現信號差,就立即通知對面的發射機降低調制階數,反之亦然。前面提到過,802.11系統中SNR與EVM相關很大,很大程度上EVM降低可以提高SNR。這樣我們就有兩種途徑改善接收性能:一是降低調制階數,從而降低解調門限;二是降低發射機EVM,使得信號SNR提高。?
因為EVM與接收機解調效果密切相關,所以802.11系統中以EVM來衡量發射機性能(類似的,3GPP定義的蜂窩系統中,ACPR/ACLR是主要影響網絡性能的指標);又因為發射機對EVM的惡化主要因為非線性引起(譬如PA的AM-AM失真),所以EVM通常作為衡量發射機線性性能的標志。
7.1、EVM與ACPR/ACLR的關系?
很難定義EVM與ACPR/ACLR的定量關系,從放大器的非線性來看,EVM與ACPR/ACLR應該是正相關的:放大器的AM-AM、AM-PM失真會擴大EVM,同時也是ACPR/ACLR的主要來源。?
但是EVM與ACPR/ACLR并不總是正相關,我們這里可以找到一個很典型的例子:數字中頻中常用的Clipping,即削峰。Clipping是削減發射信號的峰均比(PAR),峰值功率降低有助于降低通過PA之后的ACPR/ACLR;但是Clipping同時會損害EVM,因為無論是限幅(加窗)還是用濾波器方法,都會對信號波形產生損傷,因而增大EVM。?
7.2、PAR的源流?
PAR(信號峰均比)通常用CCDF這樣一個統計函數來表示,其曲線表示的是信號的功率(幅度)值和其對應的出現概率。譬如某個信號的平均功率是10dBm,它出現超過15dBm功率的統計概率是0.01%,我們可以認為它的PAR是5dB。?
PAR是現代通信系統中發射機頻譜再生(諸如ACLP/ACPR/Modulation Spectrum)的重要影響因素。峰值功率會將放大器推入非線性區從而產生失真,往往峰值功率越高、非線性越強。?
在GSM時代,因為GMSK調制的衡包絡特性,所以PAR=0,我們在設計GSM功放的時候經常把它推到P1dB,以得到最大限度的效率。引入EDGE之后,8PSK調制不再是衡包絡,因此我們往往將功放的平均輸出功率推到P1dB以下3dB左右,因為8PSK信號的PAR是3.21dB。?
UMTS時代,無論WCDMA還是CDMA,峰均比都比EDGE大得多。原因是碼分多址系統中信號的相關性:當多個碼道的信號在時域上疊加時,可能出現相位相同的情況,此時功率就會呈現峰值。?
LTE的峰均比則是源自RB的突發性。OFDM調制是基于將多用戶/多業務數據在時域上和頻域上都分塊的原理,這樣就可能在某一“時間塊”上出現大功率。LTE上行發射用SC-FDMA,先用DFT將時域信號擴展到頻域上,等于“平滑”掉了時域上的突發性,從而降低了PAR。?
8、干擾指標匯總?
這里的“干擾指標”,指的是出了接收機靜態靈敏度之外,各種施加干擾下的靈敏度測試。實際上研究這些測試項的由來是很有意思的。?
我們常見的干擾指標,包括Blocking,Desense,Channel Selectivity等。?
8.1、Blocking(阻塞)?
Blocking實際上是一種非常古老的RF指標,早在雷達發明之初就有。其原理是以大信號灌入接收機(通常最遭殃的是第一級LNA),使得放大器進入非線性區甚至飽和。此時一方面放大器的增益驟然變小,另一方面產生極強非線性,因而對有用信號的放大功能就無法正常工作了。?
另一種可能的Blocking其實是通過接收機的AGC來完成的:大信號進入接收機鏈路,接收機AGC因此產生動作降低增益以確保動態范圍;但是同時進入接收機的有用信號電平很低,此時增益不足,進入到解調器的有用信號幅度不夠。?
Blocking指標分為帶內和帶外,主要是因為射頻前端一般會有頻帶濾波器,對于帶外blocking會有抑制作用。但是無論帶內還是帶外,Blocking信號一般都是點頻,不帶調制。事實上完全不帶調制的點頻信號在現實世界里并不多見,工程上只是把它簡化成點頻,用以(近似)替代各種窄帶干擾信號。?
對于解決Blocking,主要是RF出力,說白了就是把接收機IIP3提高,動態范圍擴大。對于帶外Blocking,濾波器的抑制度也是很重要的。?
8.2、AM Suppression?
AM Suppression是GSM系統特有的指標,從描述上看,干擾信號是與GSM信號相似的TDMA信號,與有用信號同步且有固定delay。?
這種場景是模擬GSM系統中鄰近小區的信號,從干擾信號的頻偏要求大于6MHz(GSM帶寬200kHz)來看,這是很典型的鄰近小區信號配置。所以我們可以認為AM Suppression是一個反映GSM系統實際工作中接收機對鄰小區的干擾容忍度。?
8.2、Adjacent (Alternative) Channel Suppression (Selectivity)?
這里我們統稱為“鄰信道選擇性”。在蜂窩系統中,我們組網除了要考慮同頻小區,還要考慮鄰頻小區,其原因可以在我們之前討論過的發射機指標ACLR/ACPR/Modulation Spectrum中可以找到:因為發射機的頻譜再生會有很強的信號落到相鄰頻率中(一般來說頻偏越遠電平越低,所以鄰信道一般是受影響最大的),而且這種頻譜再生事實上是與發射信號有相關性的,即同制式的接收機很可能把這部分再生頻譜誤認為是有用信號而進行解調,所謂鵲巢鳩占。?
舉個例子:如果兩個相鄰小區A和B恰好是鄰頻小區(一般會避免這樣的組網方式,這里只是討論一個極限場景),當一臺注冊到A小區的終端游走到兩個校區交界處,但是兩個小區的信號強度還沒有到切換門限,因此終端依然保持A小區連接;B小區基站發射機的ACPR較高,因此終端的接收頻帶內有較高的B小區ACPR分量,與A小區的有用信號在頻率上重疊;因為此時終端距離A小區基站較遠,因此接收到的A小區有用信號強度也很低,此時B小區ACPR分量進入到終端接收機時就可以對原有用信號造成同頻干擾。?
如果我們注意看鄰道選擇性的頻偏定義,會發現有Adjacent和Alternative的區別,對應ACLR/ACPR的第一鄰道、第二鄰道,可見通信協議中“發射機頻譜泄漏(再生)”與“接收機鄰道選擇性”實際上是成對定義的。?
8.3、Co-Channel Suppression (Selectivity)?
這種描述的是絕對的同頻干擾,一般是指兩個同頻小區之間的干擾模式。?
按照之前我們描述的組網原則,兩個同頻小區的距離應該盡量遠,但是即便再遠,也會有信號彼此泄漏,只是強度高低的區別。對于終端而言,兩個校區的信號都可以認為是“正確的有用信號”(當然協議層上有一組接入規范來防范這種誤接入),衡量終端的接收機能否避免“西風壓倒東風”,就看它的同頻選擇性。?
8.4 總結?
Blocking是“大信號干擾小信號”,RF尚有周旋余地;而以上的AM Suppression, Adjacent (Co/Alternative) Channel Suppression (Selectivity)這些指標,是“小信號干擾大信號”,純RF的工作意義不大,還是靠物理層算法為主。?
Single-tone Desense是CDMA系統獨有的指標,它有個特點:作為干擾信號的single-tone是帶內信號,而且距離有用信號很近。這樣就有可能產生兩種信號落到接收頻域內:第一種是由于LO的近端相噪,LO與有用信號混頻形成的基帶信號、和LO相噪與干擾信號混頻形成的信號,都會落到接收機基帶濾波器的范圍之內,前者是有用的信號而后者是干擾;第二種是由于接收機系統中的非線性,有用信號(有一定帶寬,譬如1.2288MHz的CDMA信號)可能與干擾信號在非線性器件上產生交調,而交調產物有可能同樣落在接收頻域之內成為干擾。?
Single-tone desense的起源是北美在發起CDMA系統時,與原有的模擬通信系統AMPS采用了同一頻段,兩張網長期共存,作為后來者的CDMA系統必須考慮AMPS系統對自身的干擾。?
到這里我想起當年被稱為“通則不動,動則不通”的小靈通,因為長期占用1900~1920MHz頻率,所以天朝TD-SCDMA/TD-LTE B39的實施一直是在B39的低段1880~1900MHz,直到小靈通退網為止。?
教科書上對Blocking的解釋比較簡單:大信號進入接收機放大器使得放大器進入非線性區,實際增益變?。▽τ杏眯盘柕模?
但是這樣很難解釋兩種場景:?
場景一:前級LNA線性增益18dB,當大信號灌入使其達到P1dB的時候,增益是17dB;如果沒有引入其他影響(默認LNA的NF等都沒有發生變化),那么對整個系統的噪聲系數影響其實非常有限,無非是后級NF在計入到總NF時分母變小了一點,對整個系統的靈敏度影響不大。?
場景二:前級LNA的IIP3很高因此沒有受影響,受影響的是第二級gain block(干擾信號使其達到P1dB附近),在這種情況下整個系統NF的影響就更小了。?
我在這里拋磚引玉,提出一個觀點:Blocking的影響可能分兩部分,一部分是教科書上所講的Gain受到壓縮,另一部分實際上是放大器進入非線性區之后,有用信號在這個區域里發生了失真。這種失真可能包括兩部分,一部分是純粹的放大器非線性造成有用信號的頻譜再生(諧波分量),另一部分是大信號調制小信號的Cross Modulation。(可以理解)?
由此我們還提出另一個設想:如果我們要簡化Blocking測試(3GPP要求是掃頻,非常費時間),也許可以選取某些頻點,這些頻點出現Blocking信號時對有用信號的失真影響最大。?
從直觀上看,這些頻點可能有:f0/N和f0*N(f0是有用信號頻率,N是自然數)。前者是因為大信號在非線性區自身產生的N次諧波分量正好疊加在有用信號頻率f0上形成直接干擾,后者是疊加在有用信號f0的N次諧波上進而影響到輸出信號f0的時域波形——解釋一下:根據帕塞瓦爾定律,時域信號的波形實際上是頻域基頻信號與各次諧波的總和,當頻域上N次諧波的功率發生變化時,時域上對應的變化就是時域信號的包絡變化(發生了失真)。?
9、動態范圍,溫度補償與功率控制?
動態范圍,溫度補償和功率控制很多情況下是“看不到”的指標,只有在進行某些極限測試的時候才會表現出它們的影響,但是本身它們卻體現著RF設計中最精巧的部分。?
9.1、發射機動態范圍?
發射機動態范圍表征的是發射機“不損害其他發射指標前提下”的最大發射功率和最小發射功率。?
“不損害其他發射指標”顯得很寬泛,如果看主要影響,可以理解為:最大發射功率下不損害發射機線性度,最小發射功率下保持輸出信號信噪比。?
最大發射功率下,發射機輸出往往逼近各級有源器件(尤其末級放大器)的非線性區,由此經常發生的非線性表現有頻譜泄漏和再生(ACLR/ACPR/SEM),調制誤差(PhaseError/EVM)。此時最遭殃的基本上都是發射機線性度,這一部分應該比較好理解。?
最小發射功率下,發射機輸出的有用信號則是逼近發射機噪聲底,甚至有被“淹沒”在發射機噪聲中的危險。此時需要保障的是輸出信號的信噪比(SNR),換句話說就是在最小發射功率下的發射機噪聲底越低越好。?
在實驗室曾經發生過一件事情:有工程師在測試ACLR的時候,發現功率降低ACLR反而更差(正常理解是ACLR應該隨著輸出功率降低而改善),當時第一反應是儀表出問題了,但是換一臺儀表測試結果依然如此。我們給出的指導意見是測試低輸出功率下的EVM,發現EVM性能很差;我們判斷可能是RF鏈路入口處的噪聲底就很高,對應的SNR顯然很差,ACLR的主要成分已經不是放大器的頻譜再生、而是通過放大器鏈路被放大的基帶噪聲。?
9.2、接收機動態范圍?
接收機動態范圍其實與之前我們講過的兩個指標有關,第一個是參考靈敏度,第二個是接收機IIP3(在講干擾指標的時候多次提到)。?
參考靈敏度實際上表征的就是接收機能夠識別的最小信號強度,這里不再贅述。我們主要談一下接收機的最大接收電平。
最大接收電平是指接收機在不發生失真情況下能夠接收的最大信號。這種失真可能發生在接收機的任何一級,從前級LNA到接收機ADC。對于前級LNA,我們唯一可做的就是盡量提高IIP3,使其可以承受更高的輸入功率;對于后面逐級器件,接收機則采用了AGC(自動增益控制)來確保有用信號落在器件的輸入動態范圍之內。簡單的說就是有一個負反饋環路:檢測接收信號強度(過低/過高)-調整放大器增益(調高/調低)-放大器輸出信號確保落在下一級器件的輸入動態范圍之內。?
這里我們講一個例外:多數手機接收機的前級LNA本身就帶有AGC功能,如果你仔細研究它們的datasheet,會發現前級LNA會提供幾個可變增益段,每個增益段有其對應的噪聲系數,一般來講增益越高、噪聲系數越低。這是一種簡化的設計,其設計思想在于:接收機RF鏈路的目標是將輸入到接收機ADC的有用信號保持在動態范圍之內,且保持SNR高于解調門限(并不苛求SNR越高越好,而是“夠用就行”,這是一種很聰明的做法)。因此當輸入信號很大時,前級LNA降低增益、損失NF、同時提高IIP3;當輸入信號小時,前級LNA提高增益、減小NF、同時降低IIP3。?
9.3、溫度補償?
一般來講,我們只在發射機作溫度補償。?
當然,接收機性能也是受到溫度影響的:高溫下接收機鏈路增益降低,NF增高;低溫下接收機鏈路增益提高,NF降低。但是由于接收機的小信號特性,無論增益還是NF的影響都在系統冗余范圍之內。?
對于發射機溫度補償,也可以細分為兩部分:一部分是對發射信號功率準確度的補償,另一部分是對發射機增益隨溫度變化進行補償。?
現代通信系統發射機一般都進行閉環功控(除了略為“古老”的GSM系統和Bluetooth系統),因此經過生產程序校準的發射機,其功率準確度事實上取決于功控環路的準確度。一般來講功控環路是小信號環路,且溫度穩定性很高,所以對其進行溫度補償的需求并不高,除非功控環路上有溫度敏感器件(譬如放大器)。?
對發射機增益進行溫度補償則更加常見。這種溫度補償常見的有兩種目的:一種是“看得見的”,通常對沒有閉環功控的系統(如前述GSM和Bluetooth),這類系統通常對輸出功率精確度要求不高,所以系統可以應用溫度補償曲線(函數)來使RF鏈路增益保持在一個區間之內,這樣當基帶IQ功率固定而溫度發生變化時,系統輸出的RF功率也能保持在一定范圍之內;另一種是“看不見的”,通常是在有閉環功控的系統中,雖然天線口的RF輸出功率是由閉環功控精確控制的,但是我們需要保持DAC輸出信號在一定范圍內(最常見的例子是基站發射系統數字預失真(DPD)的需要),那么我們就需要將整個RF鏈路的增益比較精確的控制在某個值左右——溫補的目的就在于此。?
發射機溫補的手段一般有可變衰減器或者可變放大器:早期精度稍低以及低成本精度要求較低的情況下,溫補衰減器比較常見;對精度要求更高的情形下,解決方案一般是:溫度傳感器+數控衰減器/放大器+生產校準。?
9.4 發射機功率控制?
講完動態范圍和溫度補償,我們來講一個相關的、而且非常重要的概念:功率控制。?
發射機功控是大多數通信系統中必需的功能,在3GPP中常見的諸如ILPC、OLPC、CLPC,在RF設計中都是必需被測試、經常出問題、原因很復雜的。我們首先來講發射機功控的意義。?
所有的發射機功控目的都包含兩點:功耗控制和干擾抑制。?
我們首先說功耗控制:在移動通信中,鑒于兩端距離變化以及干擾電平高低不同,對發射機而言,只需要保持“足夠讓對方接收機準確解調”的信號強度即可;過低則通信質量受損,過高則空耗功率毫無意義。對于手機這樣以電池供電的終端更是如此,每一毫安電流都需錙銖必量。?
干擾抑制則是更加高級的需求。在CDMA類系統中,由于不同用戶共享同一載頻(而以正交用戶碼得以區分),因此在到達接收機的信號中,任何一個用戶的信號對于其他用戶而言,都是覆蓋在同一頻率上的干擾,若各個用戶信號功率有高有高低,那么高功率用戶就會淹沒掉低功率用戶的信號;因此CDMA系統采取功率控制的方式,對于到達接收機的不同用戶的功率(我們稱之為空中接口功率,簡稱空口功率),發出功控指令給每個終端,最終使得每個用戶的空口功率一樣。這種功控有兩個特點:第一是功控精度非常高(干擾容限很低),第二是功控周期非常短(信道變化可能很快)。?
在LTE系統中,上行功控也有干擾抑制的作用。因為LTE上行是SC-FDMA,多用戶也是共享載頻,彼此間也互為干擾,所以空口功率一致同樣也是必需的。?
GSM系統也是有功控的,GSM中我們用“功率等級”來表征功控步長,每個等級1dB,可見GSM功率控制是相對粗糙的。?
干擾受限系統?
這里提一個相關的概念:干擾受限系統。CDMA系統是一個典型的干擾受限系統。從理論上講,如果每個用戶碼都完全正交、可以通過交織、解交織完全區分開來,那么實際上CDMA系統的容量可以是無限的,因為它完全可以在有限的頻率資源上用一層層擴展的用戶碼區分無窮多的用戶。但是實際上由于用戶碼不可能完全正交,因此在多用戶信號解調時不可避免的引入噪聲,用戶越多噪聲越高,直到噪聲超過解調門限。?
換而言之,CDMA系統的容量受限于干擾(噪聲)。?
GSM系統不是一個干擾受限系統,它是一個時域和頻域受限的系統,它的容量受限于頻率(200kHz一個載頻)和時域資源(每個載頻上可共享8個TDMA用戶)。所以GSM系統的功控要求不高(步長較粗糙,周期較長)。?
9.5 發射機功率控制與發射機RF指標?
講完發射機功控,我們進而討論一下在RF設計中可能影響發射機功控的因素(相信很多同行都遇到過閉環功控測試不過的郁悶場景)。?
對于RF而言,如果功率檢測(反饋)環路設計無誤,那么我們對發射機閉環功控能做的事情并不多(絕大多數工作都是由物理層協議算法完成的),最主要的就是發射機帶內平坦度。?
因為發射機校準事實上只會在有限的幾個頻點上進行,尤其在生產測試中,做的頻點越少越好。但是實際工作場景中,發射機是完全可能在頻段內任一載波工作的。在典型的生產校準中,我們會對發射機的高中低頻點進行校準,意味著高中低頻點的發射功率是準確的,所以閉環功控在進行過校準的頻點上也是無誤的。然而,如果發射機發射功率在整個頻段內不平坦,某些頻點的發射功率與校準頻點偏差較大,因此以校準頻點為參考的閉環功控在這些頻點上也會發生較大誤差乃至出錯。
編輯:黃飛
?
評論
查看更多