La distribuzione Gamma è la distribuzione di probabilità della variabile aleatoria definita come la somma di variabili aleatorie indipendenti e con distribuzione esponenziale; la distribuzione Gamma è una distribuzione di probabilità definita sui numeri reali positivi,
R
+
{\displaystyle \mathbb {R} ^{+}}
. A seconda degli autori, viene parametrizzata in due modi diversi: sia tramite la coppia di numeri positivi
(
k
,
θ
)
{\displaystyle (k,\theta )}
, sia tramite la coppia di numeri positivi
(
α
,
β
)
{\displaystyle (\alpha ,\beta )}
. Le due parametrizzazioni sono legate dalle relazioni
α
=
k
{\displaystyle \alpha =k}
e
β
=
1
/
θ
{\displaystyle \beta =1/\theta }
. Nel seguito si farà riferimento alla parametrizzazione Gamma
(
k
,
θ
)
{\displaystyle (k,\theta )}
.
La sua funzione di densità di probabilità è
f
(
x
)
=
1
θ
k
Γ
(
k
)
x
k
−
1
e
−
x
θ
=
β
α
Γ
(
α
)
x
α
−
1
e
−
β
x
{\displaystyle f(x)={\frac {1}{\theta ^{k}\Gamma (k)}}x^{k-1}e^{-{\frac {x}{\theta }}}={\frac {\beta ^{\alpha }}{\Gamma (\alpha )}}x^{\alpha -1}e^{-\beta x}}
,
dove
Γ
(
k
)
=
∫
0
∞
t
k
−
1
e
−
t
d
t
{\displaystyle \Gamma (k)=\int _{0}^{\infty }t^{k-1}e^{-t}dt}
è la funzione Gamma di Eulero.
Possiamo osservare che se
k
∈
N
{\displaystyle k\in \mathbb {N} }
vale che
Γ
(
k
)
=
(
k
−
1
)
!
{\displaystyle \Gamma (k)=(k-1)!}
La sua funzione di ripartizione è la funzione gamma incompleta inferiore regolarizzata
F
(
x
)
=
P
(
k
,
x
)
=
γ
(
k
,
x
/
θ
)
Γ
(
k
)
=
γ
(
α
,
β
x
)
Γ
(
α
)
{\displaystyle F(x)=P(k,x)={\frac {\gamma (k,x/\theta )}{\Gamma (k)}}={\frac {\gamma (\alpha ,\beta x)}{\Gamma (\alpha )}}}
,
dove
γ
(
k
,
x
)
=
∫
0
x
t
k
−
1
e
−
t
d
t
{\displaystyle \gamma (k,x)=\int _{0}^{x}t^{k-1}e^{-t}dt}
è la funzione Gamma incompleta inferiore.
I momenti semplici della distribuzione Gamma di parametri
(
k
,
θ
)
{\displaystyle (k,\theta )}
sono
μ
n
=
E
[
X
n
]
=
1
θ
k
Γ
(
k
)
∫
0
∞
x
k
+
n
−
1
e
−
x
θ
d
x
{\displaystyle \mu _{n}=\mathbb {E} [X^{n}]={\tfrac {1}{\theta ^{k}\Gamma (k)}}\int _{0}^{\infty }x^{k+n-1}e^{-{\frac {x}{\theta }}}dx}
μ
n
=
θ
k
+
n
−
1
θ
k
−
1
Γ
(
k
)
∫
0
∞
u
k
+
n
−
1
e
−
u
d
u
=
θ
n
Γ
(
k
+
n
)
Γ
(
k
)
=
θ
n
∏
i
=
0
n
−
1
(
k
+
i
)
,
{\displaystyle \mu _{n}={\tfrac {\theta ^{k+n-1}}{\theta ^{k-1}\Gamma (k)}}\int _{0}^{\infty }u^{k+n-1}e^{-u}du=\theta ^{n}{\frac {\Gamma (k+n)}{\Gamma (k)}}=\theta ^{n}\prod _{i=0}^{n-1}(k+i),}
dove si effettua la solita sostituzione
x
θ
=
u
{\displaystyle {\frac {x}{\theta }}=u}
per ottenere la rappresentazione integrale della funzione Gamma di Eulero.
In particolare la distribuzione ha:
valore atteso
E
[
X
]
=
k
θ
;
{\displaystyle \mathbb {E} [X]=k\theta ;}
varianza
V
a
r
(
X
)
=
k
θ
2
;
{\displaystyle \mathrm {Var} (X)=k\theta ^{2};}
indice di asimmetria
γ
1
=
2
k
−
1
2
;
{\displaystyle \gamma _{1}=2\,k^{-{\frac {1}{2}}};}
indice di curtosi
γ
2
=
6
k
−
1
.
{\displaystyle \gamma _{2}=6\,k^{-1}.}
Funzione generatrice di momenti:
M
X
(
t
)
=
E
[
e
t
X
]
=
1
θ
k
Γ
(
k
)
∫
0
∞
x
k
−
1
e
−
x
(
1
θ
−
t
)
d
x
=
1
θ
k
Γ
(
k
)
(
1
θ
−
t
)
k
∫
0
∞
u
k
−
1
e
−
u
d
u
{\displaystyle \mathbb {M} _{X}(t)=\mathbb {E} [e^{tX}]={\frac {1}{\theta ^{k}\Gamma (k)}}\int _{0}^{\infty }x^{k-1}e^{-x\left({\frac {1}{\theta }}-t\right)}dx={\frac {1}{\theta ^{k}\Gamma (k)({\tfrac {1}{\theta }}-t)^{k}}}\int _{0}^{\infty }u^{k-1}e^{-u}du}
M
X
(
t
)
=
(
1
−
θ
t
)
−
k
{\displaystyle \mathbb {M} _{X}(t)=(1-\theta t)^{-k}}
che esiste per ogni valore di t tale che
1
−
θ
t
>
0
⇒
t
<
θ
−
1
.
{\displaystyle 1-\theta t>0\Rightarrow t<\theta ^{-1}.}
Proprietà (Teorema del cambiamento di scala)
modifica
Se
X
{\displaystyle X}
segue la distribuzione Gamma
(
k
,
θ
)
{\displaystyle (k,\theta )}
allora
a
X
{\displaystyle aX}
segue la distribuzione Gamma
(
k
,
a
θ
)
{\displaystyle (k,a\theta )}
.
Se
X
1
,
…
,
X
n
{\displaystyle X_{1},\ldots ,X_{n}}
sono variabili aleatorie indipendenti , ognuna con distribuzione Gamma
(
k
i
,
θ
)
{\displaystyle (k_{i},\theta )}
, allora la loro somma
X
1
+
…
+
X
n
{\displaystyle X_{1}+\ldots +X_{n}}
segue la distribuzione Gamma
(
k
1
+
…
+
k
n
,
θ
)
{\displaystyle (k_{1}+\ldots +k_{n},\theta )}
.
La distribuzione Gamma generalizza diverse distribuzioni (è conveniente ora utilizzare la seconda delle due parametrizzazioni presentate):
Nell'inferenza bayesiana la distribuzione Gamma può descrivere sia a priori che a posteriori di un'osservazione il parametro
X
{\displaystyle X}
di diverse distribuzioni di probabilità, ad esempio della distribuzione esponenziale e della distribuzione di Poisson .
La distribuzione Gamma inversa è la distribuzione dell'inversa
X
−
1
{\displaystyle X^{-1}}
di una variabile aleatoria
X
{\displaystyle X}
che segue la distribuzione Gamma.
Se
X
{\displaystyle X}
e
Y
{\displaystyle Y}
sono variabili aleatorie indipendenti con distribuzioni
G
a
m
m
a
(
k
1
,
θ
)
{\displaystyle \mathrm {Gamma} (k_{1},\theta )}
e
G
a
m
m
a
(
k
2
,
θ
)
{\displaystyle \mathrm {Gamma} (k_{2},\theta )}
, allora
Z
=
X
X
+
Y
{\displaystyle Z={\tfrac {X}{X+Y}}}
segue la distribuzione Beta
B
e
t
a
(
k
1
,
k
2
)
{\displaystyle \mathrm {Beta} (k_{1},k_{2})}
, mentre
X
Y
=
Z
1
−
Z
{\displaystyle {\tfrac {X}{Y}}={\tfrac {Z}{1-Z}}}
segue una distribuzione Beta del secondo tipo.
Più in generale il vettore
1
X
1
+
…
+
X
n
(
X
1
,
…
,
X
n
)
{\displaystyle {\tfrac {1}{X_{1}+\ldots +X_{n}}}(X_{1},\ldots ,X_{n})}
, descritto da
n
{\displaystyle n}
variabili aleatorie indipendenti
X
i
{\displaystyle X_{i}}
di distribuzioni
G
a
m
m
a
(
k
i
,
θ
)
{\displaystyle \mathrm {Gamma} (k_{i},\theta )}
, segue una distribuzione di Dirichlet di parametri
(
k
1
,
…
,
k
n
)
{\displaystyle (k_{1},\ldots ,k_{n})}
.
Una generalizzazione della distribuzione Gamma è la distribuzione di Wishart , che generalizza anche la distribuzione
χ
2
{\displaystyle \chi ^{2}}
.
Calcoliamo ora degli stimatori che possano, dato un campione presumibilmente Gamma distribuito, restituirci una stima dei suoi parametri
θ
{\displaystyle \theta }
e
k
{\displaystyle k}
.
Uno stimatore corretto per
θ
{\displaystyle \theta }
è
θ
^
=
1
n
k
∑
i
=
1
n
x
i
.
{\displaystyle {\hat {\theta }}={\frac {1}{nk}}\sum _{i=1}^{n}x_{i}.}
Stimatore asintoticamente corretto per
k
{\displaystyle k}
è:
k
^
=
ψ
0
−
1
[
ln
(
∏
i
=
1
n
x
i
θ
n
)
]
=
ψ
0
−
1
[
1
n
∑
i
=
1
n
ln
(
x
i
θ
)
]
.
{\displaystyle {\hat {k}}=\psi _{0}^{-1}\left[\ln \left({\sqrt[{n}]{\prod _{i=1}^{n}{\frac {x_{i}}{\theta }}}}\right)\right]=\psi _{0}^{-1}\left[{\frac {1}{n}}\sum _{i=1}^{n}\ln \left({\frac {x_{i}}{\theta }}\right)\right].}
dove
ψ
0
−
1
{\displaystyle \psi _{0}^{-1}}
è la funzione inversa della funzione digamma
ψ
0
(
k
)
{\displaystyle \psi _{0}(k)}
così definita:
ψ
0
(
x
)
:=
Γ
′
(
x
)
Γ
(
x
)
=
d
d
x
ln
Γ
(
x
)
.
{\displaystyle \psi _{0}(x):={\frac {\Gamma '(x)}{\Gamma (x)}}={\frac {d}{dx}}\ln \Gamma (x).}
Le dimostrazioni adottano il metodo della massima verosimiglianza , dove la funzione di verosimiglianza dato il campione è
{
X
i
}
i
=
1
n
⊂
R
+
{\displaystyle \{X_{i}\}_{i=1}^{n}\subset \mathbb {R} ^{+}}
L
(
{
X
i
}
|
θ
,
k
)
=
1
θ
n
k
Γ
n
(
k
)
⋅
(
∏
i
=
1
n
x
i
)
k
−
1
e
−
1
θ
∑
i
=
1
n
x
i
.
{\displaystyle {\mathcal {L}}(\{X_{i}\}|\theta ,k)={\frac {1}{\theta ^{nk}\Gamma ^{n}(k)}}\,\cdot \,\left(\prod _{i=1}^{n}x_{i}\right)^{k-1}\,e^{-{\frac {1}{\theta }}\sum _{i=1}^{n}x_{i}}.}
Il parametro
θ
{\displaystyle \theta }
è il più semplice da stimare.
Notiamo che la funzione di verosimiglianza è ovunque positiva e nel limite degli estremi di
θ
{\displaystyle \theta }
, si annulla.
lim
θ
→
0
+
L
=
0
{\displaystyle \lim _{\theta \rightarrow 0^{+}}{\mathcal {L}}=0}
lim
θ
→
+
∞
L
=
0
{\displaystyle \lim _{\theta \rightarrow +\infty }{\mathcal {L}}=0}
Pertanto se imponiamo la sua derivata uguale a zero, nel caso la soluzione sia unica, questa deve per forza essere un punto di massimo.
(
∂
L
∂
θ
)
θ
=
θ
^
=
e
−
1
θ
^
∑
i
=
1
n
x
i
Γ
n
(
k
)
(
∏
i
=
1
n
x
i
)
k
−
1
⋅
(
θ
^
−
n
k
−
2
∑
i
=
1
n
x
i
−
n
k
θ
^
−
n
k
−
1
)
{\displaystyle \left({\frac {\partial {\mathcal {L}}}{\partial \theta }}\right)_{\theta ={\hat {\theta }}}={\frac {e^{-{\frac {1}{\hat {\theta }}}\sum _{i=1}^{n}x_{i}}}{\Gamma ^{n}(k)}}\left(\prod _{i=1}^{n}x_{i}\right)^{k-1}\,\cdot \left({\hat {\theta }}^{-nk-2}\sum _{i=1}^{n}x_{i}-nk{\hat {\theta }}^{-nk-1}\right)}
Occorre adesso eguagliare a zero tale espressione
(
∂
L
∂
θ
)
θ
=
θ
^
=
0
⇒
θ
^
−
n
k
−
2
∑
i
=
1
n
x
i
−
n
k
θ
^
−
n
k
−
1
=
0
⇒
θ
^
=
1
n
k
∑
i
=
1
n
x
i
{\displaystyle \left({\frac {\partial {\mathcal {L}}}{\partial \theta }}\right)_{\theta ={\hat {\theta }}}=0\,\Rightarrow \,{\hat {\theta }}^{-nk-2}\sum _{i=1}^{n}x_{i}-nk{\hat {\theta }}^{-nk-1}=0\,\Rightarrow \,{\hat {\theta }}={\frac {1}{nk}}\sum _{i=1}^{n}x_{i}}
Ed ecco il nostro stimatore di
θ
{\displaystyle \theta }
, che ricorda molto una media aritmetica, riscalata sul parametro
k
{\displaystyle k}
(che ricordiamo essere uguale a 1 nel caso particolare della distribuzione esponenziale). Si può notare facilmente che il valor atteso di questo stimatore è proprio
θ
{\displaystyle \theta }
, data la linearità dell'operatore.
E
[
θ
^
]
=
E
[
1
k
n
∑
i
=
1
n
x
i
]
=
1
k
n
∑
i
=
1
n
E
[
x
i
]
.
{\displaystyle \mathbb {E} [{\hat {\theta }}]=\mathbb {E} \left[{\frac {1}{kn}}\sum _{i=1}^{n}x_{i}\right]={\frac {1}{kn}}\sum _{i=1}^{n}\mathbb {E} [x_{i}].}
Ricordiamo
E
[
x
i
]
=
k
θ
{\displaystyle \mathbb {E} [x_{i}]=k\theta }
E
[
θ
^
]
=
n
k
θ
k
n
=
θ
.
{\displaystyle \mathbb {E} [{\hat {\theta }}]={\frac {nk\theta }{kn}}=\theta .}
Prendiamo ora in esame il calcolo dello stimatore per
k
{\displaystyle k}
.
Anche qui la funzione di verosimiglianza si annulla per il limite di
k
→
0
+
{\displaystyle k\rightarrow 0^{+}}
e
k
→
+
∞
{\displaystyle k\rightarrow +\infty }
, pertanto procediamo con il calcolo della derivata.
(
∂
L
∂
k
)
k
=
k
^
=
e
−
1
θ
∑
x
i
(
∏
x
i
)
k
^
−
1
[
ln
(
∏
x
i
)
θ
n
k
^
Γ
n
(
k
^
)
−
n
ln
(
θ
)
+
ψ
0
(
k
^
)
θ
n
k
^
Γ
n
(
k
^
)
]
=
e
−
1
θ
∑
x
i
(
∏
x
i
)
k
^
−
1
θ
n
k
^
Γ
n
(
k
^
)
[
ln
(
∏
x
i
θ
)
−
n
ψ
0
(
k
^
)
]
.
{\displaystyle \left({\frac {\partial {\mathcal {L}}}{\partial k}}\right)_{k={\hat {k}}}\!\!\!\!\!=e^{-{\frac {1}{\theta }}\sum x_{i}}\left(\prod x_{i}\right)^{{\hat {k}}-1}\left[{\frac {\ln \left(\prod x_{i}\right)}{\theta ^{n{\hat {k}}}\Gamma ^{n}({\hat {k}})}}-n{\frac {\ln(\theta )+\psi _{0}({\hat {k}})}{\theta ^{n{\hat {k}}}\Gamma ^{n}({\hat {k}})}}\right]={\frac {e^{-{\frac {1}{\theta }}\sum x_{i}}\left(\prod x_{i}\right)^{{\hat {k}}-1}}{\theta ^{n{\hat {k}}}\Gamma ^{n}({\hat {k}})}}\left[\ln \left(\prod {\frac {x_{i}}{\theta }}\right)-n\psi _{0}({\hat {k}})\right].}
Con
ψ
0
(
k
)
{\displaystyle \psi _{0}(k)}
indichiamo la funzione digamma così definita:
ψ
0
(
x
)
:=
Γ
′
(
x
)
Γ
(
x
)
=
d
d
x
ln
Γ
(
x
)
,
{\displaystyle \psi _{0}(x):={\frac {\Gamma '(x)}{\Gamma (x)}}={\frac {d}{dx}}\ln \Gamma (x),}
che può essere espressa mediante una relazione integrale
ψ
0
(
x
)
=
∫
0
∞
e
−
t
−
(
1
+
t
)
−
x
t
d
t
.
{\displaystyle \psi _{0}(x)=\int _{0}^{\infty }{\frac {e^{-t}-(1+t)^{-x}}{t}}dt.}
Eguagliando a zero la nostra funzione di verosimiglianza otteniamo il nostro punto di massimo
(
∂
L
∂
k
)
k
=
k
^
=
0
⇒
ln
(
∏
x
i
θ
)
−
n
ψ
0
(
k
^
)
=
0
⇒
ψ
0
(
k
^
)
=
ln
(
∏
x
i
θ
n
)
{\displaystyle \left({\frac {\partial {\mathcal {L}}}{\partial k}}\right)_{k={\hat {k}}}\!\!\!\!\!=0\,\Rightarrow \,\ln \left(\prod {\frac {x_{i}}{\theta }}\right)-n\psi _{0}({\hat {k}})=0\,\Rightarrow \,\psi _{0}({\hat {k}})=\ln \left({\sqrt[{n}]{\prod {\frac {x_{i}}{\theta }}}}\right)}
La funzione digamma , nei reali positivi è strettamente crescente, per cui esiste la funzione inversa
k
^
=
ψ
0
−
1
[
ln
(
∏
i
=
1
n
x
i
θ
n
)
]
=
ψ
0
−
1
[
1
n
∑
i
=
1
n
ln
(
x
i
θ
)
]
.
{\displaystyle {\hat {k}}=\psi _{0}^{-1}\left[\ln \left({\sqrt[{n}]{\prod _{i=1}^{n}{\frac {x_{i}}{\theta }}}}\right)\right]=\psi _{0}^{-1}\left[{\frac {1}{n}}\sum _{i=1}^{n}\ln \left({\frac {x_{i}}{\theta }}\right)\right].}
Questo stimatore ottenuto è asintoticamente corretto , ma per valori finiti andrebbe verificato il suo valore atteso che, se risultasse essere
k
{\displaystyle k}
, allora sarebbe un corretto stimatore.
Calcoliamo quindi
E
[
ψ
0
(
k
^
)
]
=
E
[
1
n
∑
i
=
1
n
ln
(
x
i
θ
)
]
=
1
n
∑
i
=
1
n
E
[
ln
(
x
i
θ
)
]
=
1
n
∑
i
=
1
n
∫
0
∞
ln
(
x
i
θ
)
x
i
k
−
1
θ
k
Γ
(
k
)
e
−
x
i
θ
d
x
i
,
{\displaystyle \mathbb {E} [\psi _{0}({\hat {k}})]=\mathbb {E} \left[{\frac {1}{n}}\sum _{i=1}^{n}\ln \left({\frac {x_{i}}{\theta }}\right)\right]={\frac {1}{n}}\sum _{i=1}^{n}\mathbb {E} \left[\ln \left({\frac {x_{i}}{\theta }}\right)\right]={\frac {1}{n}}\sum _{i=1}^{n}\int _{0}^{\infty }\ln \left({\frac {x_{i}}{\theta }}\right){\frac {x_{i}^{k-1}}{\theta ^{k}\Gamma (k)}}e^{-{\frac {x_{i}}{\theta }}}dx_{i},}
dove abbiamo usato la linearità del valore atteso e scritto la sua definizione su variabile aleatoria continua.
E
[
ψ
0
(
k
^
)
]
=
1
n
θ
k
Γ
(
k
)
∑
i
=
1
n
∫
0
∞
ln
(
x
i
θ
)
x
i
k
−
1
e
−
x
i
θ
d
x
i
=
1
θ
k
Γ
(
k
)
∫
0
∞
ln
(
t
θ
)
t
k
−
1
e
−
t
θ
d
t
{\displaystyle \mathbb {E} [\psi _{0}({\hat {k}})]={\frac {1}{n\theta ^{k}\Gamma (k)}}\sum _{i=1}^{n}\int _{0}^{\infty }\ln \left({\frac {x_{i}}{\theta }}\right)x_{i}^{k-1}e^{-{\frac {x_{i}}{\theta }}}dx_{i}={\frac {1}{\theta ^{k}\Gamma (k)}}\int _{0}^{\infty }\ln \left({\frac {t}{\theta }}\right)t^{k-1}e^{-{\frac {t}{\theta }}}dt}
Tutti gli integrali nella
i
{\displaystyle i}
-esima variabile sono uguali tra di loro, quindi la loro somma dà
n
{\displaystyle n}
volte il singolo integrale nella generica variabile di integrazione
t
{\displaystyle t}
.
E
[
ψ
0
(
k
^
)
]
=
1
θ
k
Γ
(
k
)
∫
0
∞
ln
(
t
θ
)
t
k
−
1
e
−
t
θ
d
t
=
θ
k
−
1
θ
k
−
1
Γ
(
k
)
∫
0
∞
ln
(
u
)
u
k
−
1
e
−
u
d
u
=
1
Γ
(
k
)
∫
0
∞
u
k
−
1
ln
(
u
)
e
−
u
d
u
{\displaystyle \mathbb {E} [\psi _{0}({\hat {k}})]={\frac {1}{\theta ^{k}\Gamma (k)}}\int _{0}^{\infty }\ln \left({\frac {t}{\theta }}\right)t^{k-1}e^{-{\frac {t}{\theta }}}dt={\frac {\theta ^{k-1}}{\theta ^{k-1}\Gamma (k)}}\int _{0}^{\infty }\ln(u)u^{k-1}e^{-u}du={\frac {1}{\Gamma (k)}}\int _{0}^{\infty }u^{k-1}\ln(u)e^{-u}du}
e il risultato di quest'ultimo integrale è proprio
Γ
(
k
)
ψ
0
(
k
)
{\displaystyle \Gamma (k)\psi _{0}(k)}
per qualunque
k
{\displaystyle k}
con parte reale positiva. Abbiamo quindi ottenuto l'identità
E
[
ψ
0
(
k
^
)
]
=
ψ
0
(
k
)
,
{\displaystyle \mathbb {E} [\psi _{0}({\hat {k}})]=\psi _{0}(k),}
che non è sufficiente a dire che lo stimatore sia corretto (non solo asintoticamente), ma è tuttavia necessario.
In effetti dalla disuguaglianza di Jensen (secondo cui
φ
(
E
[
X
]
)
≤
E
[
φ
(
X
)
]
{\displaystyle \varphi (\mathbb {E} [X])\leq \mathbb {E} [\varphi (X)]}
per una qualunque variabile aleatoria X e una funzione convessa
φ
{\displaystyle \varphi }
) si ottiene un risultato più forte grazie al fatto che la funzione
ψ
0
−
1
:
R
→
R
+
{\displaystyle \psi _{0}^{-1}\colon \mathbb {R} \rightarrow \mathbb {R} ^{+}}
è convessa su tutto il suo dominio.
Infatti usando la disuguaglianza di Jensen per
X
=
ψ
0
(
k
^
)
{\displaystyle X=\psi _{0}({\hat {k}})}
e
φ
=
ψ
0
−
1
{\displaystyle \varphi =\psi _{0}^{-1}}
risulterà
ψ
0
−
1
(
E
[
ψ
0
(
k
^
)
]
)
≤
E
[
ψ
0
−
1
(
ψ
0
(
k
^
)
)
]
=
E
[
k
^
]
.
{\displaystyle \psi _{0}^{-1}\left(\mathbb {E} \left[\psi _{0}({\hat {k}})\right]\right)\leq \mathbb {E} \left[\psi _{0}^{-1}\left(\psi _{0}({\hat {k}})\right)\right]=\mathbb {E} [{\hat {k}}].}
Dall'uguaglianza ottenuta in precedenza il membro di sinistra si semplifica così da avere:
k
≤
E
[
k
^
]
.
{\displaystyle k\leq \mathbb {E} [{\hat {k}}].}