Estimatori în procesarea semnalelor
Conf. dr. habil. Eduard Roten¸stein
1 Considerente asupra m˘arginii inferioare Rao-Cramer (CRLB)
Dup˘a cum am studiat la Metoda verosimilit˘a¸tii maxime, determinarea unei margini inferioare pentru dispersia unui estimator nedeplasat se dovede¸ste a fi foarte important˘a în practic˘a.În cel mai bun caz, se poate stabili dac˘a un estimator nedeplasat este de dispersie minim˘a (estimator MVU-Minimum variance unbiased estimator). În cel mai r˘au caz,furnizeaz˘a un reper în raport cu care putem compara performan¸ta oric˘arui alt estimator nedeplasat pentru parametrul estimat. De¸si exist˘a metode alternative de determinare a unei margini inferioare pentru dispersie (vezi McAulay, Hofstetter [1971], Kendall, Stuart [1979], Seidman [1970], Ziv, Zakai [1969]), marginea inferioar˘a Rao-Cramer (CRLB) este cea mai u¸sor de ob¸tinut. De asemenea, teoria ce conduce la stabilirea sa permite determinarea imediat˘a a existen¸tei unui estimator ce o atinge. Chiar dac˘a nu exist˘a un astfel de estimator, se pot determina estimatori ce ating acea margine într-un sens aproximant.
1.1 Acurate¸tea estimatorului
Cum toate informa¸tiile privitoare la statistica analizat˘a sunt încorporate în e¸santionul observat ¸si în densitatea de reparti¸tie a caracteristicii, este evident c˘a acurate¸tea estim˘arii va depinde în mod direct de reparti¸tia urmat˘a.
Este, prin urmare, clar c˘a nu putem vorbi de acurate¸tea estim˘arii unui parametru dac˘a densitatea nu depinde de acesta sau depinde în mod slab de el.
Exemplul 1.1 Dependen¸ta densit ˘a¸tii de reparti¸tie de parametrul necunoscut.Presupunem c˘a, la o simpl˘a observa¸tie, avem structura variabilei de selec¸tie dat˘a de
X1=A+W0; unde W0 N 0; 2
¸si dorim s˘a estim˘am parametrulA:Desigur, este a¸steptat˘a o estimare cu atât mai bun˘a cu cât dispersia 2este mai mic˘a.
Într-adev˘ar, un estimator nedeplasat bun este A^ = X0;varian¸ta fiind 2;deci acurate¸tea estimatorului cre¸ste odat˘a cu descre¸sterea cantit˘a¸tii 2: Un mod alternativ, exemplificativ, de a observa aceasta este considerarea a dou˘a densit˘a¸ti de reparti¸tie, corespunz˘atoare la dou˘a dispersii 12< 22:
fi(x0; A) = 1
p2 i2exp 1
2 2i (x0 A)2 ; i2 f1;2g (1) Dac˘a reprezent˘am cele dou˘a grafice pentrux0 = 3¸si 1 = 1=3;atunci se observ˘a pe reprezentare c˘a valoriA >4 sunt puternic improbabile. Pentru a vedea aceasta,
P(3 =2 X0 3 + =2) =
Z 3+ =2 3 =2
fi(t; A)dt;
care, pentru suficient de mic, estefi(x0= 3; A) :Darf1(x0= 3; A= 4) = 0:10 ;în timp cef1(x0= 3; A= 3) = 1:2 :Valorile parametruluiA >4pot fi deci eliminate din analiz˘a.
Aplicând teoria verosimilit˘a¸tii maxime, consider˘am logaritmul func¸tiei de verosimilitate:
lnf(x0; A) = lnp
2 2 1
2 2(x0 A)2; pentru care
@lnf(x0; A)
@A = 1
2(x0 A) ¸si @2lnf(x0; A)
@A2 = 1
2 (2)
Curbura graficului cre¸ste pe m˘asur˘a ce 2 descre¸ste. Cum ¸stiam deja c˘a estimatorulA^ = X0 are dispersia 2; atunci, pentru acest exemplu,
D2( ^A) = 1
@2lnf(x0; A)
@A2
= 2:
De¸si în acest exemplu, derivata secund˘a nu depinde de valoarea empiric˘a observat˘ax0;în general, va depinde. Din acest motiv, o m˘asur˘a mai bun˘a pentru curbura medie a graficului logaritmului func¸tiei de verosimilitate este
E @2lnf(X0; A)
@A2 : (3)
Cu cât este mai mare cantitatea dat˘a de (3), cu atât va fi mai mic˘a dispersia estimatorului.
Revenind la aspectele teoretice prezentate la metoda verosimilit˘a¸tii maxime, reamintim c˘a, dac˘a densitatea de repartitie a caracteristicii studiateX estef(x; );atunci dispersia oric˘arui estimator nedeplasat ^satisface rela¸tia
D2(^) E @2lnf(X; )
@ 2
1
(4) În plus, orice estimator nedeplasat care î¸si atinge marginea (dispersiei) pentru toate valorile lui trebuie s˘a satisfac˘a, ca ¸si rezultat de caracterizare, rela¸tia:
@lnf(x; )
@ =I( ) (g(x) ); (5)
pentru func¸tiile convenabil aleseg ¸siI:Acest estimator, care este un estimatorMVU este de fapt ^ =g(X);iar dispersia minim˘a atins˘a este1=I( ):
Exemplul 1.2 CRLB pentru Exemplul1.1. Din formulele (2) ¸si (4) ob¸tinem c˘aD2( ^A) 2;pentru toate valorile para- metruluiA:Prin urmare, nu poate exista niciun estimator nedeplasat a c˘arui dispersie s˘a fie mai mic˘a decât 2;nici m˘acar pentru o singur˘a valoare a parametruluiA:DarA^=X0¸si atunciD2( ^A) = 2:CumX0este nedeplasat ¸si atinge CRLB, va fi un estimator MVU. Din (2) ¸si (5) facem identific˘arile:
=A; I( ) = 1
2 ¸si g(X0) =X0:
Prin urmare,A^ =g(X0) =X0;deci este estimator MVU. De asemenea,D2( ^A) = 2 = 1=I( )¸si, în conformitate cu (4), avem
I( ) = E @2lnf(X; )
@ 2 :
Exemplul 1.3 M ˘arimea (amplitudinea) curentului continuu în prezen¸ta zgomotului alb Gaussian (WGN, White Gaussian Noise).Generaliz˘am Exemplul1.1considerând cazul observa¸tiilor multiple date de variabilele de selec¸tie:
Xi=A+Wi; i2 f0;1; :::; n 1g; unde Wieste WGN de dispersie 2: Pentru determinarea CRLB pentru parametrulA;consider˘am func¸tia de verosimilitate
L(V; A) =L(X0; :::; Xn 1; A) =
nY1 i=0
p 1
2 2exp 1
2 2(Xi A)2 = 1
(2 2)n=2exp 1 2 2
nX1 i=0
(Xi A)2
!
;
pentru care ob¸tinem
@lnL(V; A)
@A = @
@A ln 2 2 n=2 1
2 2
n 1
X
i=0
(Xi A)2
!
= 1
2 nX1
i=0
(Xi A) = n
2 X A ; (6)
iar derivata secund˘a este constant˘a@2lnL(V; A)=@ 2 = n= 2: Formula (4) conduce la urm˘atoarea cantitate pentru CRLB:
D2( ^A) =D2(X)
2
n; (7)
iar media de selec¸tie este un estimator ce atinge acest prag minim, ¸si deci, prin urmare, este un estimator MVU.
Reamintim, de asemenea, c˘a atunci cândCRLBeste atins˘a, are loc egalitatea D2(^) = 1
I( ); unde I( ) = E @2lnL(V; )
@ 2 :
Urm˘atorul exemplu arat˘a c˘a, condi¸tia de margine inferioar˘aCRLBpentru dispersie nu este întotdeauna satisf˘a- cut˘a.
Exemplul 1.4 Estimarea fazei unui curent de tip sinusoidal într-un WGN.Consider˘am problema determin˘arii unui estimator pentru parametrul fazei unui curent sinusoidal, aflat˘a într-un WGN:
Xi=Acos (2 f0i+ ) +Wi; i2 f0;1; :::; n 1g: (8)
AmplitudineaA¸si frecven¸taf0se presupun a fi cunoscute. Densitatea de reparti¸tie a vectorului datelor este:
L(V; ) = 1
(2 2)n=2exp 1 2 2
n 1
X
i=0
(Xi Acos (2 f0i+ ))2
! :
Derivatele logaritmului func¸tiei de verosimilitate sunt:
8>
>>
>>
>>
>>
><
>>
>>
>>
>>
>>
:
@lnL(V; )
@ = 1
2 n 1
X
i=0
(Xi Acos (2 f0i+ ))Asin (2 f0i+ )
= A
2 n 1
X
i=0
Xisin (2 f0i+ ) A
2 sin (4 f0i+ 2 )
@2lnL(V; )
@ 2 = A
2 n 1
X
i=0
(Xicos (2 f0i+ ) Acos (4 f0i+ 2 )): Ob¸tinem astfel:
E @2lnL(V; )
@ 2 = A
2 n 1
X
i=0
Acos2(2 f0i+ ) Acos (4 f0i+ 2 )
= A2
2 n 1
X
i=0
1 2+1
2cos (4 f0i+ 2 ) cos (4 f0i+ 2 ) ' nA2 2 2; deoarece
1 n
nX1 i=0
cos (4 f0i+ 2 )'0 pentru f0neapropiat de0sau1=2:
Prin urmare,
D2( ^) 2 2 nA2:
În acest exemplu, condi¸tia pentru existen¸ta marginii inferioare nu este satisf˘acut˘a. În consecin¸t˘a, nu exist˘a un estima- tor pentru faz˘a care s˘a fie nedeplasat ¸si care s˘a ating˘a CRLB. Este deci posibil ca s˘a nu existe un estimator MVU. Nu putem, pentru moment, s˘a stabilim dac˘a un estimator MVU pentru parametru exist˘a sau nu, iar dac˘a el exist˘a, cum s˘a îl determin˘am. Teoria Statisticilor suficiente ne va permite s˘a g˘asim r˘aspunsuri la aceste întreb˘ari.
A¸sa cum am v˘azut, un estimator nedeplasat care atingeCRLBeste un estimator eficient. Un estimatorMVU nu este, neap˘arat, ¸si eficient. Prin urmare, dac˘a margineaCRLB este atins˘a, dispersia estimatorului este inversa informa¸tiei Fisher. Intuitiv, cu cât avem la dispozi¸tie mai multe informa¸tii, cu atât marginea inferioar˘a a dis- persiei estimatorului este mai mic˘a. Pentru observa¸tii ne-independente, este de a¸steptat ca informa¸tia Fisher s˘a fie mai mic˘a decâtnI1( ):Pentru observa¸tii complet dependente,In( ) =I1( );adic˘a observa¸tii suplimentare nu vor aduce informa¸tii noi, ceea ce va face caCRLB s˘a nu descreasc˘a odat˘a cu cre¸sterea num˘arului de date noi observate.
Exemplul anterior poate fi extins la situa¸tia general˘a a determin˘arii marginii inferioare a estimatorului ^ pentru semnale electrice de tipul
Xi=si( ) +Wi; i2 f0;1; :::; n 1g; prin ob¸tinerea rela¸tiei
D2(^) 2= Xn 1
i=0
@si( )
@
2!
: (9)
În particular, dac˘a semnalul curentului sinusoidal este reprezentat˘a de (8), cusi(f0) :=Acos (2 f0i+ ); f0 2 (1;1=2);amplitudinea ¸si faza fiind cunoscute, atunci estimatorul frecven¸tei curentului are margineaCRLB:
D2( ^f0)
2
A2Xn 1
i=0 (2 isin (2 f0i+ ))2 :
Men¸tion˘am c˘a, dac˘af0!0;CRLB tinde la+1:Aceasta se datoreaz˘a faptului c˘a, pentru o frecven¸t˘af0suficient de mic˘a (neglijabil˘a), o modificare a sa nu va altera semnalul într-o manier˘a semnificativ˘a.
1.2 Transformarea parametrilor
De multe ori, în practic˘a, se întâmpl˘a ca parametrii pe care dorim s˘a îi estim˘am s˘a depind˘a, sub forma unei func¸tii de al¸ti parametri. De exemplu, putem fi interesa¸ti nu de estimarea nivelului curentuluiA;ci de puterea semnalului,A2:În general, dac˘a dorim s˘a estim˘am parametrul =g( );atunciCRLB este:
D2( ^)
@g
@
2
E @2lnL(V; )
@ 2
: (10)
Particularizând, pentru =g(A) =A2;
D2 Ac2 (2A)2
n= 2 = 4A2 2
n : (11)
În Exemplul1.3, media de selec¸tie era un estimator eficient pentruA:Am putea presupune c˘aX2este, de aseme- nea, un estimator eficient ¸si pentruA2:Pentru a evita aceast˘a eroare de ra¸tionament ar˘at˘am, pentru început, c˘a X2nu este nici m˘acar un estimator nedeplasat. DeoareceX N A; 2=n ;avem:
E(X2) =E2(X) +D2(X) =A2+
2
n 6=A2: (12)
Putem deci afirma imediat c˘aeficien¸ta unui estimator este distrus˘a de o transformare neliniar˘a a sa.Eficien¸ta se p˘astreaz˘a îns˘a în cazul transform˘arilor liniare. Pentru a verifica aceast˘a ultim˘a afirma¸tie, presupunem c˘a exist˘a un estimator eficient ^;pentru parametrul :Ne propunem acum s˘a estim˘am noul parametrug( ) = a +b;
a; b2R:Alegem drept estimator statisticagd( ) :=g(^) =a^ +b:Avem astfel:
E gd( ) =E(a^ +b) =aE(^) +b=a +b=g( ); decigd( )este nedeplasat;
D2 gd( )
@g
@
2
I( ) = @g
@
2
D2(^) =a2D2(^) =D2(a^ +b) =D2 gd( ) ; ceea ce implic˘a faptul c˘a are loc egalitate în ultima rela¸tie, adic˘aCRLBeste atins˘a.
De¸si eficien¸ta se conserv˘a în cazul transform˘arilor liniare ale parametrilor, ea este p˘astrat˘a aproximativ
¸si în cazul transform˘arilor neliniare dac˘a e¸santionul considerat este suficient de mare. Aceasta are semnifi- ca¸tie din punct de vedere practic deoarece se dore¸ste frecvent estimarea unor func¸tii generale dependente de parametrul de baz˘a. Pentru a vizualiza afirma¸tia anterioar˘a revenim la exemplul estim˘arii luiA2cu ajutorul sta- tisticiiX2:Cu toate c˘a aceasta este deplasat˘a, din (12) se poate observa c˘a, asimptotic, este de fapt un estimator nedeplasat (atunci cândn!+1). În plus, cumX N A; 2=n ;putem evalua dispersia
D2(X2) =E X4 E2 X2 =4A2 2 n +2 4
n2 : (13)
Pentru ultima egalitate, am folosit faptul c˘a, dac˘a N ; 2 ;atunciE 2 = 2+ 2;E 4 = 4+ 6 2 2+ 3 4;ceea ce conduce laD2( 2) =E 4 E2 2 = 4 2 2+ 2 4:
Se observ˘a c˘a al doilea termen din (13) converge la zero mai repede decât primul, ceea ce face ca, asimptotic, s˘a reg˘asimCRLBdin inegalitatea (11). Pentru un volum de selec¸tie mare, media de selec¸tie este concentrat˘a în vecin˘atatea mediei teoreticeA;iar pe acest interval mic transformarea neliniar˘a este aproximativ liniar˘a. De fapt, dac˘a aproxim˘am func¸tiagîn vecin˘atatea luiA;ob¸tinem:
g(x)'g(A) +g0(A)(x A); iar E(g(x)) =g(A) =A2; estimatorul fiind deci nedeplasat. De asemenea,
D2(g(x)) = (g0(A))2D2(x) =(2A)2 2
n = 4A2 2 n ; adic˘a estimatorul atinge, într-adev˘ar, asimptotic,CRLB.
1.3 Cazul parametrilor multipli (vectoriali)
Extindem analiza la cazul în care caracteristica studiat˘a este dependent˘a de mai mul¸ti parametri, vectorul aces- tora fiind notat cu = ( 1; 2; :::; p)t:Presupunem, de asemenea, c˘a estimatorul ^este nedeplasat. Marginea inferioar˘a a dispersiei va fi un vectorCRLBce impune o limitare inferioar˘a a fiec˘arei componente. Vom ob¸tine
D2(^i) (I 1( ))ii; unde I( )2 Mp p(R) este matricea informa¸tiei Fisher: (14) (I( ))ij = E @2lnL(V; )
@ i@ j
; pentrui; j2 f1;2; :::; pg:
Exemplul 1.5 Analiza curentului continuu bi-parametrizat în WGN.Revenim la Exemplul1.3¸si presupunem c˘a, atât A; cât ¸si 2 sunt necunoscute. Vectorul parametrilor este deci = (A; 2)t; p = 2:Matricea informa¸tiei Fisher asociate are forma:
I( ) = 0 BB B@
E @2lnL(V; )
@A2 E @2lnL(V; )
@A@ 2 E @2lnL(V; )
@ 2@A E @2lnL(V; )
@( 2)2
1 CC CA
Logaritmul func¸tiei de verosimilitate ¸si derivatele par¸tiale ale acestuia sunt:
lnL(V; ) = n
2 ln (2 ) n
2ln 2 1 2 2
n 1
X
i=0
(Xi A)2
@lnL(V; )
@A = 1
2 nX1
i=0
(Xi A); @lnL(V; )
@ 2 = n
2 2 + 1 2 4
nX1 i=0
(Xi A)2; @lnL(V; )
@A2 = n
2;
@lnL(V; )
@A@ 2 = 1
4 n 1
X
i=0
(Xi A); @lnL(V; )
@( 2)2 = n 2 4
1
6 nX1
i=0
(Xi A)2: Matricea informa¸tiei Fisher devine:
I( ) = n=( 2) 0
0 n=(2 4)
! :
Din forma anterioar˘a determin˘am marginile D2( ^A) 2=n ¸siD2(c2) 2 4=n:Chiar dac˘a, pentru acest exemplu, matriceaI( )este de tip diagonal, în cazul general ea nu are aceast˘a proprietate. Remarc˘am, de asemenea, c˘a CRLB pentru estimatorulA^ este acela¸si ca ¸si cazul în care 2 era cunosut. Acest lucru se întâmpl˘a doar datorit˘a formei diagonale a matriceiI( ):În absen¸ta acestei propriet˘a¸ti, nici identificarea anterioar˘a nu mai este posibil˘a, dup˘a cum vedem în exemplul urm˘ator.
Exemplul 1.6 Aproximarea dreptei de regresie (line fitting). Consider˘am observa¸tiile date de urm˘atoarele variabile aleatoare de selec¸tie:
Xi=A+Bi+Wi; unde Wisunt WGN, i2 f0;1; :::; n 1g:
Ne propunem s˘a determin˘am CRLB pentruA¸siB;vectorul parametrilor fiind = (A; B)t:Func¸tia de verosimilitate ¸si derivatele par¸tiale ale logaritmului s˘au sunt:
L(V; ) = 1
(2 2)n=2exp 1 2 2
nX1 i=0
(Xi A Bi)2
!
@lnL(V; )
@A = 1
2 nX1
i=0
(Xi A Bi); @lnL(V; )
@B = 1
2 nX1
i=0
(Xi A Bi)i; @lnL(V; )
@A2 = n
2;
@lnL(V; )
@A@B = 1
2 nX1
i=0
i; @lnL(V; )
@B2 = 1
2 n 1
X
i=0
i2:
Matricea informa¸tiei Fisher are forma:
I( ) = 1
2
0 BB BB B@
n
nX1 i=0
i
nX1 i=0
i
n 1
X
i=0
i2 1 CC CC CA
= 1
2
0 BB
@
n n(n 1)
2 n(n 1)
2
n(n 1) (2n 1) 6
1 CC A:
Inversa acestei matrici este:
I 1( ) = 2 0 BB
@
2 (2n 1) n(n+ 1)
6 n(n+ 1) 6
n(n+ 1)
12 n(n2 1)
1 CC A:
Formula (14) arat˘a c˘a CRLB sunt date de inegalit˘a¸tile
D2( ^A) 2 (2n 1) 2
n(n+ 1) ¸si D2( ^B) 12 2 n(n2 1):
Remarc˘am faptul c˘a CRLB pentru estimatorulA^cre¸ste fa¸t˘a de situa¸tia în care parametrulBera cunoscut, deoarece, pentru n 2;
D2( ^A) 2 (2n 1) n+ 1
2
n 1
2
n = 1
E @2lnL(V; A)
@A2
;
ultimul termen identificându-se chiar cu CRLB ob¸tinut˘a pentruA, când^ B era cunoscut. Anticip˘am astfel un rezultat general valabil, ¸si anume faptul CRLB întotdeauna cre¸ste odat˘a cu cre¸sterea num˘arului de parametri estima¸ti.
În alt˘a ordine de idei,
CRLB( ^A)
CRLB( ^B) =(2n 1) (n 1)
6 1; pentrun 3:
Prin urmare, parametrulBeste mai u¸sor de estimat, marginea sa inferioar˘a CRLB având o descre¸stere de ordinul lui1=n3; în compara¸tie cu dependen¸ta de ordinul 1=n a marginii CRLB a celuilalt parametru. Aceast˘a diferen¸ta de magnitudine indic˘a faptul c˘aXieste mai senzitiv˘a la modific˘ari ale parametruluiBfa¸t˘a de modific˘ari ale parametruluiA:Observ˘am, de asemenea, c˘a
Xi' @Xi
@A A= A ¸si Xi' @Xi
@B B =i B;
adic˘a modific˘arile luiBse resimt multiplicate în evolu¸tia variabilelor de selec¸tieXi:
Prezent˘am acum varianta vectorial˘a a Teoremei Rao-Cramer pentru marginea inferioar˘a.
Teorema 1 Presupunem c˘a densitatea de reparti¸tie a vectorului aleator de selec¸tieL(V; )satisface urm˘atoarele condi¸tii de regularitate:
E @lnL(V; )
@ = 0; pentru to¸ti parametrii : Atunci, matricea de covarian¸t˘a a oric˘arui estimator nedeplasat^satisface inegalitatea
C^ I 1(^) 0; (15)
inegalitatea fiind în¸teleas˘a în sensul c˘a matricea din membrul stâng este pozitiv semi-definit˘a. Informa¸tia Fisher este matricea
(I( ))ij = E @2lnL(V; )
@ i@ j :
În plus, un estimator nedeplasat atinge marginea inferioar˘a în sensul c˘aC^=I 1(^)dac˘a ¸si numai dac˘a
@lnL(V; )
@ =I( ) (g(V) ); (16)
pentru o func¸tieg:Rn !Rp ¸si o matriceI 2 Mp p:Estimatorul, care este estimator MVU este^=g(V);iar matricea sa de covarian¸t˘a esteI 1( ):
Demonstra¸tie. Consider˘am vectorul parametrilor =g( );densitatea de reparti¸tie a caracteristicii fiind depen- dent˘a de vectorul al parametrilor. Fie estimatorii nedeplasa¸ti astfel încât
E( ^i) = i= (g( ))i; i2 f1;2; :::; rg: Condi¸tiile de regularitate conduc la
Z
Rn
( ^i i)@lnL(v; )
@ i L(v; )dv= @(g( ))i
@ i
; i2 f1;2; :::; pg: (17) Pentruj6=i;
R
Rn( ^i i)@lnL(v; )
@ j L(v; )dv= Z
Rn
( ^i i)@L(v; )
@ j dv
= @
@ j Z
Rn
^iL(v; )dv iE @lnL(v; )
@ j =@ i
@ j =@(g( ))i
@ j
(18a)
Scriind (17) ¸si (18a) sub form˘a matriceal˘a ob¸tinem Z
Rn
( ^ )@lnL(v; )t
@ L(v; )dv=@g( )
@ :
Consider˘am acum vectoriia2 Mr 1 ¸sib2 Mp 1:Multiplicând în pozi¸tiile convenabile, g˘asim:
Z
Rn
at( ^ )@lnL(v; )t
@ bL(v; )dv=at@g( )
@ b:
Not˘am
w(v) =L(v; ); g(v) =at( ^ ); h(v) = @lnL(v; )t
@
¸si, aplicând inegalitatea Cauchy Schwarz, avem:
at@g( )
@ b
2 Z
Rn
at( ^ )( ^ )taL(v; )dv Z t
Rn
bt@lnL(v; )
@
@lnL(v; )t
@ bL(v; )dv=atC^abtI( )b;
deoarece, similar cazului scalar,
E @lnL(v; )
@ i
@lnL(v; )t
@ j
!
= E @2lnL(v; )
@ i@ j = (I( ))ij: Cumbeste arbitrar ales, fie
b=I 1( )@g( )t
@ a
¸si ob¸tinem
at@g( )
@ I 1( )@g( )t
@ a
!2
atC^a at@g( )
@ I 1( )@g( )t
@ a
! :
DeoareceI( )este pozitiv definit˘a, aceea¸si proprietate o are ¸siI 1( );iar@g( )@ I 1( )@g( )@ t este, cel pu¸tin, pozitiv semi-definit˘a. Prin urmare, termenul din parantezele anterioare este ne-negativ ¸si deducem c˘a
at C^ @g( )
@ I 1( )@g( )t
@
! a 0:
Reamintim c˘a ¸siaeste ales arbitrar, ceea ce conduce la C^ @g( )
@ I 1( )@g( )t
@ 0:
Dac˘a =g( ) = ;atunci @g( )@ =I, iar inegalitatea (15) este satisf˘acut˘a. Condi¸tia pentru egalitate esteg(v) = c h(v);undeceste o constant˘a independent˘a dev:Aceast˘a condi¸tie devine:
at( ^ ) =c @lnL(v; )t
@ b=c @lnL(v; )t
@ I 1( )@g( )t
@ a:
Cum vectorulaeste arbitrar ales,
@g( )
@ I 1( )@lnL(v; )
@ =1
c( ^ ): Dac˘a consider˘am =g( ) = ;atunci
@lnL(v; )
@ = 1
cI( )(^ ):
Cumcpoate depinde de vectorul parametrilor ;
@lnL(v; )
@ i
= Xp k=1
(I( ))ik
c( ) (^k k); de unde, diferen¸tiind înc˘a o dat˘a,
@2lnL(v; )
@ i@ j
= Xp k=1
0 BB
@
(I( ))ik
c( ) ( kj) +
@ (I( ))ik c( )
@ j
(^k k) 1 CC A:
În final,
(I( ))ij= E @2lnL(v; )
@ i@ j = (I( ))ij
c( ) ; deoarece E(^k) = k:
Evident,c( ) = 1, iar condi¸tia pentru egalitate rezult˘a imediat. Demonstra¸tia este, în acest moment, încheiat˘a.
Faptul c˘a rela¸tia (14) rezult˘a din (15) se justific˘a remarcând c˘a pentru o matrice pozitiv semi-definit˘a ele- mentele diagonale sunt ne-negative. Prin urmare,(C^ I 1( ))ii 0¸si, în consecin¸t˘a,
D2(^i) (C^)ii (I 1( ))ii; pentru oricei: (19) Când are loc egalitatea (C^= I 1( )), atunci ¸si (19) are loc cu egalitate. Estimatorul ^=g(V)este eficient ¸si, prin urmare, este un estimatorMVU. Un caz privind egalitatea am ob¸tinut in Exemplul1.6. Am determinat
@lnL(v; )
@ =
0 B@
@lnL(v; )
@A
@lnL(v; )
@B 1 CA=
0 BB BB
@ 1
2 nX1
i=0
(Xi A Bi) 1
2 n 1
X
i=0
(Xi A Bi)i 1 CC CC
A: (20)
Putem scrie (20) sub caracterizarea echivalent˘a
@lnL(v; )
@ =
0 BB
@ n
2
n(n 1) 2 2 n(n 1)
2 2
n(n 1) (2n 1) 6 2
1 CC A
A^ A
B^ B ; (21)
unde
A^= 2 (2n 1) n(n+ 1)
nX1 i=0
Xi
6 n(n+ 1)
nX1 i=0
iXi ¸si B^ = 6 n(n+ 1)
n 1
X
i=0
Xi+ 12 n(n2 1)
nX1 i=0
iXi:
Condi¸tiile pentru egalitate sunt satisf˘acute, iar estimatorul ^ = ( ^A;B)^ t este eficient ¸si, prin urmare, este un estimatorMVU.Matricea din (21) este inversa matricei de covarian¸t˘a.
Dac˘a condi¸tia de egalitate are loc, atunci, întotdeauna, estimatorul^este nedeplasat. Într-adev˘ar, condi¸tia de regularitate, aplicat˘a reprezent˘arii (16) implic˘aE(g(V)) = E(^) = :Pentru determinarea estimatorilorMVU pentru un parametru vectorial, TeoremaCRLBeste un instrument recomandat. În general, metoda este folosit˘a în aplica¸tii practice, pentru modele liniare, Exemplul1.6fiind doar un caz particular.
1.4 Transformarea parametrilor vectoriali
Dorim s˘a estim˘am parametrul vectorial =g( ); gfiind o func¸tier dimensional˘a,g:Rp!Rr. Dup˘a cum am demonstrat în Teorema1,
C^
@g( )
@ I 1( )@g( )t
@ 0: (22)
Prin@g( )=@ am în¸teles, desigur, matricea Jacobian˘ar pdimensional˘a
@g( )
@ =
0 BB BB BB BB BB
@
@g1( )
@ 1
@g1( )
@ 2
@g1( )
@ p
@g2( )
@ 1
@g2( )
@ 2
@g2( )
@ p
... ... . .. ...
@gr( )
@ 1
@gr( )
@ 2
@gr( )
@ p
1 CC CC CC CC CC A :
Consider˘am acum un curent continuu într-un WGN, ce are parametriiA¸si 2 necunoscu¸ti ¸si ne propunem s˘a estim˘am parametrul :=A2= 2;care poate fi considerat propor¸tia semnal-zgomot (SNR, Signal-to-Noise Ratio).
Vectorul parametrilor este = (A; 2)t;iarg( ) = 21= 2=A2= 2:Determin˘am, prin calcul imediat:
8>
>>
>>
>>
>>
>>
>>
><
>>
>>
>>
>>
>>
>>
>>
:
I( ) = n= 2 0
0 n=(2 4)
!
; iar Jacobianul este
@g( )
@ = @g( )
@ 1
@g( )
@ 1 = @g( )
@A
@g( )
@ 2 = 2A
2
A2
4 ;
@g( )
@ I 1( )@g( )t
@ = 2A
2
A2
4
2=n 0 0 2 4=n
!0 B@
2A
2
A2
4
1 CA=4A2
n 2 +2A4
n 4 = 4 + 2 2
n :
Cum este scalar,
D2( ^) 4 + 2 2
n :
A¸sa cum deja am discutat, eficien¸ta estimatorului se p˘astreaz˘a în urma transform˘arilor liniare de tipul
=g( ) =A +b; A2 Mr p(R); b2Mr 1(R):
Dac˘a ^ =A^+b, iar^este un estimator eficient (adic˘aC^=I 1( )), atunciE( ^) =A +b= (adic˘a ^este nedeplasat) ¸si avem:
C^=AC^At=AI 1( )At=@g( )
@ I 1( )@g( )t
@ =CRLB:
Pentru transform˘arile neliniare, eficien¸ta este men¸tinut˘a doar pentrun!+1:Aceasta înseamn˘a c˘a, pentru un volum de selec¸tie suficient de mare, densitatea de reparti¸tie a estimatorului ^este concentrat˘a în jurul valorii reale, teoretice, a parametrului ;adic˘a estimatorul este consistent.
1.5 CRLB în cazul Gaussian general
În cazul în care observa¸tiile sunt de tip Gaussian, putem deduce o formul˘a pentruCRLBcare s˘a generalizeze (9).
Presupunem, pentru aceasta, c˘a
V N( ( ); C( )); unde ( )2 Mn 1(R) ¸si C( )2 Mn n(R): Informa¸tia Fisher va fi:
(I( ))ij = @ ( )
@ i
t
C 1( ) @ ( )
@ j +1
2tr C 1( )@C( )
@ i C 1( )@C( )
@ j ; unde (23)
@ ( )
@ i = 0 BB BB BB BB BB
@
@( ( ))1
@ i
@( ( ))2
@ i ...
@( ( ))n
@ i 1 CC CC CC CC CC A
¸si @C( )
@ i = 0 BB BB BB BB BB
@
@(C( ))11
@ i
@(C( ))12
@ i
@(C( ))1n
@ i
@(C( ))21
@ i
@(C( ))22
@ i
@(C( ))2n
@ i
... ... . .. ...
@(C( ))n1
@ i
@(C( ))n2
@ i
@(C( ))nn
@ i 1 CC CC CC CC CC A :
Pentru situa¸tiaV N( ( ); C( ));aceasta se reduce la:
I( ) = @ ( )
@
t
C 1( ) @ ( )
@ +1
2tr C 1( )@C( )
@ i 2!
; (24)
dup˘a cum vedem în cele ce urmeaz˘a.
Densitatea de reparti¸tie a vectorului aleator de selec¸tie este:
f(v; ) = 1
(2 )n=2p
det (C( ))exp 1
2(v ( ))tC 1( ) (v ( )) : Vom utiliza urm˘atoarele identit˘a¸ti:
@ln (det (C( )))
@ k
= tr C 1( )@C( )
@ k ¸si @C 1( )
@ k
= C 1( )@C( )
@ k
C 1( ); (25) unde@C( )=@ keste matricea de tipuln n;al c˘arei element de pe pozi¸tia(i; j)este@(C( ))ij=@ k:Pentru a ob¸tine prima formula din (25), observ˘am, pentru început c˘a
@ln (det (C( )))
@ k
= 1
det (C( ))
@det (C( ))
@ k
: (26)
Cumdet (C( ))depinde de toate elementele matriceiC( );
@det (C( ))
@ k
= Xn i=1
Xn j=1
@det (C( ))
@(C( ))ij
@(C( ))ij
@ k
= tr @det (C( ))
@C( )
@C( )t
@ k
; (27)
unde@det (C( ))=@C( )este o matrice de tipn n;al c˘arei element de pe pozi¸tia(i; j)este@det (C( ))=@(C( ))ij: Am ¸tinut cont ¸si de identitatea matriceal˘atr (ABt) =Pn
i=1
Pn
j=1AijBij:Din defini¸tia determinantului, det (C( )) =
Xn i=1
(C( ))ijMij; M 2 Mn n(R) este matricea cofactor ¸sijeste arbitrar înf1;2; :::; ng: Prin urmare,
@det (C( ))
@(C( ))ij =Mij; sau, echivalent, @det (C( ))
@C( ) =M:
Pe de alt˘a parte,
C 1( ) = Mt
det (C( )) ¸si deci @det (C( ))
@C( ) =C 1( ) det (C( )) Folosim acum (26) ¸si (27) ¸si ob¸tinem rezultatul dorit:
@ln (det (C( )))
@ k
= 1
det (C( ))tr C 1( ) det (C( ))@C( )
@ k
= tr C 1( )@C( )
@ k
:
Pentru cea de a doua identitate din (25), plec˘am de la egalitatea evident˘aC 1( )C( ) =I:Diferen¸tiind compo- nentele matricelor ¸si scriind sub form˘a matriceal˘a, ob¸tinem:
C 1( )@C( )
@ k +@C 1( )
@ k C( ) =0;
iar concluzia rezult˘a imediat.
Ne preocup˘am acum de determinareaCRLB. Derivatele par¸tiale în raport cu parametrii conduc la urm˘atoarea form˘a a func¸tiei de verosimilitate:
@lnf(V; )
@ k
= 1
2
@ln det (C( ))
@ k
1 2
@
@ k
(V ( ))tC 1( ) (V ( )) : Cum primul termen a fost evaluat în (25), ne vom ocupa de cel de al doilea:
@
@ k
(V ( ))tC 1( ) (V ( )) = @
@ k
Xn i=1
Xn j=1
(Xi ( ( ))i) C 1( )
ij Xj ( ( ))j
= Xn i=1
Xn j=1
(
(Xi ( ( ))i)
"
C 1( ) ij @( ( ))j
@ k +@ C 1( ) ij
@ k Xj ( ( ))j
#
+ @( ( ))i
@ k C 1( ) ij Xj ( ( ))j
= (V ( ))tC 1( )@ ( )
@ k
+ (V ( ))t@C 1( )
@ k
(V ( )) @ ( )t
@ k
C 1( ) (V ( ))
= 2@ ( )t
@ k C 1( ) (V ( )) + (V ( ))t@C 1( )
@ k (V ( )): Folosind (25) împreun˘a cu precedentul rezultat ob¸tinem:
@lnf(V; )
@ k
= 1
2tr C 1( )@C( )
@ k
+@ ( )t
@ k
C 1( ) (V ( )) 1
2(V ( ))t@C 1( )
@ k
(V ( )): (28) Not˘am acumY :=V ( ). Pentru a determinaCRLBtrebuies˘a evalu˘am elementele
(I( ))kl=E @lnf(V; )
@ k
@lnf(V; )
@ l
; k; l2 f1;2; :::; pg: Avem, astfel,
(I( ))kl = 1
4tr C 1( )@C( )
@ k tr C 1( )@C( )
@ l +1
2tr C 1( )@C( )
@ k E Yt@C 1( )
@ l Y +@ ( )t
@ k
C 1( )E(Y Yt)C 1( )@ ( )
@ l
+1
4E Yt@C 1( )
@ k
Y Yt@C 1( )
@ l
Y ;
toate momentele de ordin impar fiind zero. Continuând evaluarea, (I( ))kl = 1
4tr C 1( )@C( )
@ k
tr C 1( )@C( )
@ l
1
2tr C 1( )@C( )
@ k
tr C 1( )@C( )
@ l
+@ ( )t
@ k
C 1( )@ ( )
@ l
+1
4E Yt@C 1( )
@ k
Y Yt@C 1( )
@ l
Y :
(29)
Am utilizat (25) ¸si faptul c˘aE(YtZ) = tr (E(ZYt));pentruY; Z 2 Mn 1(R):Pentru estimarea ultimului ter- men, folosim un rezultat furnizat de Porat, Friedlander, 1986:
E YtAY YtBY = tr (AC) tr (BC) + 2 tr (ACBC); undeC:=E Y Yt ;
iar matriceleA¸siBsunt simetrice. În virtutea rela¸tiei anterioare ¸si, folosind din nou rela¸tia (25), ultimul termen din reprezentarea (29) devine:
1
4tr @C 1( )
@ k C( ) tr @C 1( )
@ l C( ) +1
2tr @C 1( )
@ k C( )@C 1( )
@ l C( )
=1
4tr C 1( )@C( )
@ k tr C 1( )@C( )
@ l +1
2tr C 1( )@C( )
@ k C 1( )@C( )
@ l :
(30)
Inser˘am (30) în (29) ¸si ob¸tinem rezultatul dorit.
Exemplul 1.7 Parametrii unui semnal în WGN.
I.Presupunem c˘a dorim s˘a estim˘am un parametru scalar 2pentru setul de date
Xi =si( ) +Wi; undeWieste WGN, i2 f0;1; :::; n 1g:
Matricea de covarian¸t˘a esteC = I ¸si este independent˘a de parametrul ;ceea ce face ca al doilea termen din (24) s˘a fie zero. Ob¸tinem astfel:
I( ) = 1
2
@ ( )
@
t @ ( )
@
!
= 1
2 n 1
X
i=0
@( ( ))i
@
2
= 1
2 nX1
i=0
@si( )
@
2
;
ceea ce este în concordan¸t˘a cu (9). Dac˘a dorim s˘a generaliz˘am la cazul unui parametru vectorial al semnalului, din (23) ob¸tinem:
(I( ))ij = 1
2 n 1
X
k=0
@sk( )
@ i
@sk( )
@ j :
II.Dac˘a observ˘amXi=Wi;undeWieste WGN cu dispersia = 2,i2 f0;1; :::; n 1g;atunci, în conformitate cu (24), deoareceC( 2) = 2I;avem:
I( ) = 1
2tr C 1( 2)@C( 2)
@ 2
2!
=1
2tr 1
2I
2!
= 1
2 4tr (I) = n 2 4; ceea ce este în concordan¸t˘a cu Exemplul1.5.
III. Presupunem datele:
Xi=A+Wi; undeWieste WGN, i2 f0;1; :::; n 1g;
iarA;m˘arimea (amplitudinea) curentului continuu, este o variabil˘a aleatoare Gaussian˘a, de medie0¸si dispersie A2;inde- pendent˘a dei 2 f0;1; :::; n 1g:Puterea semnalului (dispersia 2A) se presupune a fi parametrul necunoscut. Vectorul de selec¸tieV = (X0; X1; :::; Xn 1)tva fi, prin urmare, un vector repartizat tot normal, de medie0¸si având matricea de covarian¸t˘a de tipuln n;ale c˘arei elemente sunt:
(C( A2))ij=E(XiXj) =E((A+Wi) (A+Wj)) = 2A+ 2 ij: Aceasta înseamn˘a, sub form˘a vectorial˘a,
C( 2A) = 2A1 1t+ 2I; unde 1= (1;1; :::;1)t2 Mn 1(R):
Aplic˘am acum identitatea Woodbury privind inversa unei matrice având o anumit˘a structur˘a (vezi Kay [2, Annex A1.1.3, Matrix Manipulation and Formulas]): dac˘aA2 Mn n(R)¸siu2 Mn 1(R);atunci are loc rela¸tia:
A+uut 1=A 1 A 1uutA 1 1 +utA 1u: Ob¸tinem astfel:
C 1( A2) = 1
2 I
A2
2+n 2A1 1t : Deoarece
@C( 2A)
@ 2A =1 1t; deducem C 1( A2)@C( 2A)
@ 2A = 1
2+n A21 1t: Înlocuim în (24) ¸si avem:
I( A2) =1
2tr 1
2+n 2A
2
1 1t 1 1t
!
=n 2
1
2+n 2A
2
tr 1 1t =1 2
n
2+n A2
2
;
adic˘a CRLB este
D2 c2
A 2 A2 +
2
n
2
:
Observ˘am c˘a, chiar ¸si pentrun!+1, CRLB ob¸tinut nu poate descre¸ste sub valoarea2 A4:Aceasta se întâmpl˘a datorit˘a faptului c˘a fiecare dat˘a suplimentar˘a în e¸santion vine cu aceea¸si valoare pentruA:
1.6 CRLB asimptotic˘a pentru procese aleatoare Gaussiene sta¸tionare în sens larg
Uneori, în practic˘a, pote fi mai dificil de determinatCRLBfolosind (23) datorit˘a necesit˘a¸tii determin˘arii inversei matricei de covarian¸t˘a. De¸si aceasta se poate determina numeric, folosind un software matematic, exist˘a ¸si o abordare alternativ˘a, dar care poate fi aplicat˘a doar proceselor Gaussiene sta¸tionare în sens larg (WSS, Wide Sense Stationary). Pentru aceasta, volumul de selec¸tien!+1:Pentru procese cu densitatea spectral˘a de putere (PSD, Power Spectral Density) larg˘a, aproximarea va fi bun˘a pentru înregistr˘ari de date de lungime moderat˘a, în timp ce procese cu band˘a îngust˘a trebuiesc înregistr˘ari de date de lungime sporit˘a.
Elementele matricei informa¸tiei Fisher sunt, asimptotic, pentrun!+1; (I( ))ij= n
2 Z 1=2
1=2
@lnPxx(f; )
@ i
@lnPxx(f; )
@ j
df; (31)
undePxx(f; )este indicatorulPSDal procesului, cu dependen¸ta explicit˘a de parametrul vectorial (vezi Kay [2,Appendix 3D]). Presupunem c˘aE(Xi) = 0;pentru fiecarei:
Exemplul 1.8 Frecven¸ta central ˘a a procesului. O problem˘a uzual˘a const˘a în estimarea frecven¸tei centralefc a unei PSD, care, de altfel, este cunoscut˘a. Presupunem c˘a este dat˘a:
Pxx(f; fc) =Q(f fc) +Q( f fc) + 2
¸si dorim s˘a determin˘am CRLB pentrufc;în ipoteza c˘aQ(f)¸si 2 sunt cunoscute. Putem percepe procesul ca fiind un semnal aleator aflat într-un WGN. Frecven¸tele centrale posibile sunt constrânse a fi situate în intervalul[f1;1=2 f2]:
Pentru aceste frecven¸te centrale, PSD-ul semnalului, pentruf 0;se va situa în intervalul[0;1=2]:Atunci, cum =fc este un scalar, din (31), ob¸tinem:
D2( ^fc) 1 n
2 Z 1=2
1=2
@lnPxx(f; fc)
@fc
2
df :
Dar,
@lnPxx(f; fc)
@fc
= @ln Q(f fc) +Q( f fc) + 2
@fc
=
@Q(f fc)
@fc
+@Q( f fc)
@fc
Q(f fc) +Q( f fc) + 2; care, fiind o func¸tie impar˘a în raport cuf;conduce la:
Z 1=2 1=2
@lnPxx(f; fc)
@fc
2
df= 2 Z 1=2
0
@lnPxx(f; fc)
@fc
2
df:
De asemenea, pentru f 0; Q( f fc) = 0; iar derivata sa va fi egal˘a cu zero în virtutea celor discutate privind restric¸tiile. Rezult˘a c˘a:
D2( ^fc) 1
n Z 1=2
0
@Q(f fc)=@fc
Q(f fc) + 2
2
df
= 1
n Z 1=2
0
@Q(f fc)=@(f fc) Q(f fc) + 2
2
df
= 1
n
Z 1=2 fc
fc
@Q(f0)=@f0) Q(f0) + 2
2
df0
; unde f0=f fc:
Dar1=2 fc 1=2 fcmax = f2 ¸si fc fcmin = f1;putând astfel schimba capetele de integrare în intervalul [ 1=2;1=2]:Ob¸tinem:
D2( ^fc) 1 n
Z 1=2 1=2
@Q(f)=@f Q(f) + 2
2
df
= 1
n Z 1=2
1=2
@ln Q(f) + 2
@f
!2
df :
Dac˘a consider˘am, ca un caz particular,
Q(f) := exp 1 2
f
f 2!
; unde f 1=2;
atunciQ(f) 2¸si avem, asimptotic,
D2( ^fc) 1 n
Z 1=2 1=2
f2
4 f
df
=12 4f n :
L˘a¸timi de band˘a mai mici decât 4fvor conduce la limite inferioare de m˘arginire mai joase pentru frecven¸ta central˘a deoarece PSD-ul se modific˘a mai rapid odat˘a cu schimb˘arile luifc:
1.6.1 Exemple privind procesarea semnalelor
Aplic˘am teoria deduceriiCRLBpentru câteva probleme de interes privind procesarea semnalelor:estimarea ariei de acoperire, estimarea pozi¸tiei ¸tintei (sonar, radar, robotic˘a),estimarea frecven¸tei (sonar, radar, econometrie, spec- trometrie),estimarea parametrilor autoregresivi(teoria limbajului, econometrie).
Exemplul 1.9 Estimarea range-ului (raza de ac¸tiune).Un radar emite un semnal de tip puls. Timpul total al traseului semnalului de la emi¸t˘ator la ¸tint˘a ¸si înapoi va fi notat cu 0¸si este dependent de range (R) prin formula 0= 2R=c;undec este viteza sa de propagare. Estimarea range-ului este deci echivalent˘a cu estimarea timpului de întoarcere a semnalului la sursa emitent˘a. Dac˘as(t)este semnalul transmis, un model simplu pentru unda continu˘a recep¸tionat˘a este:
x(t) =s(t 0) +W(t); t2[0; T]:
Presupunem c˘a pulsul transmis este diferit de zero pe[0; Ts]¸si este limitat la o l˘a¸time de band˘a deBHz. Dac˘a întârzierea de timp pân˘a la recep¸tionarea semnalului revenit este 0max;atunci intervalul de observare trebuie ales astfel încât s˘a includ˘a întregul semnal, adic˘aT = Ts+ 0max:Zgomotul pe sistem este de tip Gaussian, cu PSD-ul ¸si autocorela¸tia (ACF-ul - corela¸tia unui semnal cu o copie întârziat˘a a sa, ca func¸tie de întârziere. Informal, este similaritatea dintre observa¸tii, în func¸tie de intervalul de timp dintre ele) ca în Figura 3.
Limitarea de band˘a a zgomotului rezult˘a prin filtrarea undei la l˘a¸timea de band˘a a semnalului deBHz. Pentru e¸santioanare, consider˘am := 1=(2B), iar datele observate vor fi:
Xi =s(i 0) +W(i ); i2 f0;1; :::; n 1g: Not˘am cuXi¸siWielementele selec¸tiei ¸si construim ¸sirul de date discret:
Xi=s(i 0) +Wi: (32)
Men¸tion˘am c˘a, pentru fiecarei; Wi sunt WGN deoarece observa¸tiile sunt separate dek = k=(2B), care corespunde zerourilor func¸tiei ACF a luiW(t);dup˘a cum se observ˘a în Figura 3. De asemenea,
D2(Wi) = 2(=rW W(0)) =N0B:
Deoarece semnalul este nenul doar pe intervalul 0 t 0+Ts;modelul (32) se reduce la:
Xi = 8>
>>
<
>>
>:
Wi; 1 i i0 1;
s(i 0) +Wi; i0 i i0+M 1;
Wi; i0+M i n;
(33)
undeM este lungimea semnalului e¸santionat, iari0 = 0= reprezint˘a întârzierea, în e¸santioane. Pentru simplitate, se presupune mic astfel încât 0= s˘a poat˘a fi aproximat cu un întreg. Cu aceast˘a formulare, putem aplica (9) pentru evaluarea CRLB:
D2(^0)
2 nX1
i=0
@s(i; 0)
@ 0
2 =
2 i0+MX 1
i=i0
@s(i 0)
@ 0
2 =
2 i0+MX 1
i=i0
ds(t)
dt jt=i 0
2 =
2 MX1
i=0
ds(t) dt jt=i
2;
deoarece 0=i0 :Cum este suficient de mic, aproxim˘am suma cu o integral˘a ¸si ob¸tinem:
D2(^0)
2
1Z Ts
0
ds(t) dt
2
dt
= N0=2 Z Ts
0
(s0(t))2dt
; deoarece = 1=(2B) ¸si 2=N0B: (34)
Cum energia poate fi reprezentat˘a integral,E=RTs
0 s2(t)dt;inegalitatea (34) se poate scrie, sub form˘a echivalent˘a,
D2(^0) 1 E N0=2F2
; unde F2= Z Ts
0
(s0(t))2dt Z Ts
0
s2(t)dt :
F2este o m˘asur˘a a l˘a¸timii de band˘a a semnalului. Cu cât este mai mare aceast˘a cantitate, cu atât mai mic˘a va fi CRLB.
Exemplul 1.10 Estimarea parametrului vectorial al semnalului sinusoidal. În multe aplica¸tii se pune problema estim˘arii parametrilor unui semnal de tip sinusoidal. Sonarele ¸si mecanismele de tip radar pot cataloga semnalul observat ca fiind unul de tip sinusoidal. Ne punem problema determin˘arii CRLB pentru amplitudineaA;frecven¸taf0 ¸si faza a unui curent sinusoidal într-un WGN. Datele sunt de tipul:
Xi =Acos (2 f0i+ ) +Wi; i= 0;1; :::; n 1;
undeA >0¸si0< f0<1=2:Deoarece avem mai mul¸ti parametri necunoscu¸ti, folosim formula:
(I( ))ij = 1
2 n 1
X
k=0
@sk( )
@ i
@sk( )
@ j
; pentru = (A; f0; )t:
Pentru evaluarea CRLB, presupunem c˘af0nu este în vecin˘atatea lui0sau1=2;fapt ce ne permite s˘a utiliz˘am aproxim˘arile urm˘atoare (vezi Stoica, P.; R.L. Moses; B. Friedlander; T. Soderstrom, Maximum Likelihood Estimation of the Parameters of Multiple Sinusoids from Noisy Measurements, IEEE Trans. Acoust., Speech, Signal Process., Vol. 37, pp. 378-392, March 1989):
1 ni+1
n 1
X
k=0
kisin (4 f0k+ 2 ) 0 ¸si 1 ni+1
n 1
X
k=0
kicos (4 f0k+ 2 ) 0; i2 f0;1;2g:
Folosind aceste aproxim˘ari ¸si notând := 2 f0i+ ;avem:
8>
>>
>>
>>
>>
>>
>>
>>
>>
>>
>>
>>
>>
>>
<
>>
>>
>>
>>
>>
>>
>>
>>
>>
>>
>>
>>
>>
>:
(I( ))11 = 1
2 nX1 k=0
cos2 = 1
2 nX1 k=0
1 2 +1
2cos 2 n
2 2; (I( ))12 = 1
2 n 1
X
k=0
2A kcos sin = A
2ksin 2 0;
(I( ))13 = 1
2 n 1
X
k=0
Acos sin = A 2 2
n 1
X
k=0
sin 2 0;
(I( ))22 = 1
2 nX1 k=0
A2(2 k)2sin2 = (2 A)2
2 n 1
X
k=0
k2 1 2
1
2cos 2 (2 A)2 2 2
n 1
X
k=0
k2;
(I( ))23 = 1
2 nX1 k=0
A22 ksin2 A2
2 n 1
X
k=0
k;
(I( ))33 = 1
2 nX1 k=0
A2sin2 nA2 2 2: Matricea informa¸tiei Fisher este:
I( ) = 1
2
0 BB BB BB BB B@
n
2 0 0
0 2 2A2
nX1 k=0
k2 A2
n 1
X
k=0
k
0 A2
nX1 k=0
k nA2
2 1 CC CC CC CC CA :
Ob¸tinem astfel marginile inferioare:
D2( ^A) 2 2
n ; D2( ^f0) 12
(2 )2 n(n2 1) ¸si D2( ^) 2 (2n 1)
n(n+ 1); (35) unde :=A2= 2 2 este coeficientul SNR (signal-to-noise ratio) al semnalului.
Exemplul 1.11 Estimarea men¸tinerii ¸tintei semnalului.În problemele de localizare, este important˘a estimarea modului în care este identificat˘a pozi¸tia unei ¸tinte. Presupunem câmpul acustic de presiune fiind format dintr-un ¸sir de senzori plasa¸ti echidistant ¸si c˘a ¸tinta radiaz˘a un semnal de tip sinusoidal de formaAcos (2 F0t+ ):Semnalul recep¸tionat de senzorul cu indiceleiesteAcos (2 F0(t ti) + );undetieste timpul de propagare pân˘a la senzorul indicelei:A¸sa cum se observ˘a în Figura 4, distan¸ta temporal˘a a frontul de und˘a la senzorul marcat cui 1difer˘a fa¸t˘a de cea de la senzorul marcat cuiprindcos =c;datorit˘a distan¸tei suplimentare de propagare.