Deltametoden er innen statistikk en metode for å lage en tilnærmet sannsynlighetsfordeling for funksjonen av en testobservator. Metoden kan også regnes som en generalisering av sentralgrenseteoremet ,
Anta en følge av tilfeldige variable
X
n
{\displaystyle X_{n}}
som tilfredsstiller
n
(
X
n
−
θ
)
→
L
N
(
0
,
σ
2
)
{\displaystyle {\sqrt {n}}(X_{n}-\theta ){\xrightarrow {L}}N(0,\sigma ^{2})}
der
θ
{\displaystyle \theta }
og
σ
2
{\displaystyle \sigma ^{2}}
er konstanter, og
→
L
{\displaystyle {\xrightarrow {L}}}
betyr konvergens i distribusjon/lov. Anta at
g
(
)
{\displaystyle g()}
er en kontinuerlig funksjon, så vil
n
(
g
(
X
n
)
−
g
(
θ
)
)
→
L
N
(
0
,
σ
2
[
g
′
(
θ
)
]
2
)
{\displaystyle {\sqrt {n}}(g(X_{n})-g(\theta )){\xrightarrow {L}}N(0,\sigma ^{2}[g'(\theta )]^{2})}
For en kontinuerlig funksjon
g
{\displaystyle g}
, sier middelverdisetningen at
g
(
X
n
)
=
g
(
θ
)
+
g
′
(
θ
~
)
(
X
n
−
θ
)
{\displaystyle g(X_{n})=g(\theta )+g'({\tilde {\theta }})(X_{n}-\theta )}
hvor
θ
~
{\displaystyle {\tilde {\theta }}}
ligger mellom
X
n
{\displaystyle X_{n}}
og
θ
{\displaystyle \theta }
. Siden
X
n
→
P
θ
{\displaystyle X_{n}{\xrightarrow {P}}\theta }
må også
θ
~
→
P
θ
{\displaystyle {\tilde {\theta }}{\xrightarrow {P}}\theta }
. Hvis vi omarrangerer likningen litt og ganger med
n
{\displaystyle {\sqrt {n}}}
får vi
n
(
g
(
X
n
)
−
g
(
θ
)
)
=
g
′
(
θ
)
n
(
X
n
−
θ
)
{\displaystyle {\sqrt {n}}(g(X_{n})-g(\theta ))=g'(\theta ){\sqrt {n}}(X_{n}-\theta )}
og ettersom
n
(
X
n
−
θ
)
→
P
N
(
0
,
σ
2
)
{\displaystyle {\sqrt {n}}(X_{n}-\theta ){\xrightarrow {P}}N(0,\sigma ^{2})}
må
g
′
(
θ
)
n
(
X
n
−
θ
)
→
P
N
(
0
,
σ
2
[
g
′
(
θ
)
]
2
)
{\displaystyle g'(\theta ){\sqrt {n}}(X_{n}-\theta ){\xrightarrow {P}}N(0,\sigma ^{2}[g'(\theta )]^{2})}
og beviset er fullført.
Man ønsker ofte å utføre hypotesetester for parametere i sannsynlighetsfordelinger . I poissonfordelingen betyr dette å teste hypotesen om
λ
=
λ
0
{\displaystyle \lambda =\lambda _{0}}
mot
λ
≠
λ
^
{\displaystyle \lambda \neq {\hat {\lambda }}}
. Der
λ
^
{\displaystyle {\hat {\lambda }}}
er den observerte, eller estimerte parameteren. Sentralgrenseteoremet gir da at
n
(
λ
^
−
λ
0
)
∼
N
(
0
,
λ
0
)
{\displaystyle {\sqrt {n}}({\hat {\lambda }}-\lambda _{0})\sim N(0,\lambda _{0})}
Problemet med denne testobservatoren er at variansen avhenger helt og holdent på
λ
{\displaystyle \lambda }
. Så spredningen i estimatet avhenger av parameteren vi prøve å estimere. Dette problemet kan man komme rundt med deltametoden. Bruk at
g
(
λ
)
=
λ
{\displaystyle g(\lambda )={\sqrt {\lambda }}}
:
n
(
(
λ
^
−
λ
0
)
∼
N
(
0
,
λ
0
1
(
2
λ
0
)
2
)
=
N
(
0
,
1
4
)
{\displaystyle {\sqrt {n}}({\sqrt {(}}{\hat {\lambda }}-{\sqrt {\lambda _{0}}})\sim N(0,\lambda _{0}{\frac {1}{(2{\sqrt {\lambda _{0}}})^{2}}})=N(0,{\frac {1}{4}})}
E. L. Lehman (1998), Elements of Large Sample Theory , Springer