Statistikk

Standardisering av normalfordelt stokastisk variabel

Anta at XN(μ,σ2)X \sim N(\mu, \sigma^2). Da er

Xμσ2N(0,1)\frac{X - \mu}{\sqrt{\sigma^2}} \sim N(0,1)

Forventningsverdi, varians og standardavvik

Krav til ulike fordelinger

Bernoulli forsøksrekke

Binomisk fordeling

Betrakt en Bernoulli forsøksrekkebestående av nn forsøk, og la XX betegne antall suksesser i de nn forsøkene. Da er XBin(n,p)X \sim Bin(n, p).

Hypergeometrisk fordeling

Anta en urne med NN kuler, der kk er røde og NkN - k er blå. Vi trekker ut nn kuler uten tilbakelegging og lar XX være antall røde trukket ut. Da er XHypergeo(N,k,n)X \sim Hypergeo(N, k, n).

Geometrisk fordeling

Anta en Bernoulli forsøksrekke av uendelig forsøk og la pp betegne sannsynligheten for suksess i hvert forsøk. La XX betegne antall forsøk for nøyaktig én suksess. Da er XGeo(p)X \sim Geo(p).

Negativ binomisk fordeling

Anta en Bernoulli forsøksrekke av uendelig forsøk og la pp betegne sannsynligheten for suksess i hvert forsøk. La XX betegne antall forsøk for nøyaktig kk suksesser. Da er XNB(k,p)X \sim NB(k, p).

Poissonfordeling

En prosess N(t),t>0N(t), t > 0 kalles en poissonprosess med intensitet λ\lambda hvis følgende krav er oppfylt:

Eksponensialfordeling

La N(t),t>0N(t), t > 0 være en poissonprosess med intensitet λ\lambda, og la XX betegne tidspunktet for den først hendelsen i prosessen. Da er XExp(λ)X \sim Exp(\lambda).

Kikvadratfordeling

La Z1,Z2,,ZνZ_1, Z_2, \dots, Z_\nu være uavhengige og standard normalfordelte variabler og la X=Z12+Z22++Zν2X = Z_1^2 + Z_2^2 + \dots + Z_\nu^2. Da er Xχν2X \sim \chi^2_\nu.

T-fordeling

La ZN(0,1)Z \sim N(0, 1) og Vχν2V \sim \chi^2_\nu være uavhengige stokastiske variabler. La TT være definert ved T=ZVνT = \frac{Z}{\sqrt{\frac{V}{\nu}}}. Da er TtνT \sim t_\nu.

Sannsynlighetmaksimeringsestimator (SME)

Konfidensintervall

Vanlige pivotaler

Z=θ^E[θ^]Var[θ^]N(0,1),gitt en normalfordelt estimator θ^. Blir tn1 dersom σ2 estimeres som S2.Z = \frac{\hat{\theta} - \text{E}[\hat{\theta}]}{\sqrt{\text{Var}[\hat{\theta}]}} \sim N(0, 1), \text{gitt en normalfordelt estimator $\hat{\theta}$. Blir $\sim t_{n - 1}$ dersom $\sigma^2$ estimeres som $S^2$.} \\

Z=Xˉμσ2nN(0,1),for μ na˚σ2 er kjentZ = \frac{\bar{X} - \mu}{\sqrt{\frac{\sigma^2}{n}}} \sim N(0, 1), \text{for $\mu$ når $\sigma^2$ er kjent}

T=XˉμS2ntn1,for μ na˚σ2 er ukjentT = \frac{\bar{X} - \mu}{\sqrt{\frac{S^2}{n}}} \sim t_{n - 1}, \text{for $\mu$ når $\sigma^2$ er ukjent}

V=1σ2i=1n(Xiμ)2χn2,for σ2 na˚μ2 er kjentV = \frac{1}{\sigma^2} \sum_{i = 1}^n (X_i - \mu)^2 \sim \chi^2_n, \text{for $\sigma^2$ når $\mu^2$ er kjent}

V=(n1)S2σ2χn12,for σ2 na˚μ2 er ukjentV = \frac{(n - 1)S^2}{\sigma^2} \sim \chi^2_{n - 1}, \text{for $\sigma^2$ når $\mu^2$ er ukjent}

Z=(XˉYˉ)(μ1μ2)σ12n+σ22mN(0,1),for μ1μ2 na˚σ12σ22 er kjente.Z = \frac{(\bar{X} - \bar{Y}) - (\mu_1 - \mu_2)}{\sqrt{\frac{\sigma^2_1}{n} + \frac{\sigma^2_2}{m}}} \sim N(0, 1), \text{for $\mu_1 - \mu_2$ når $\sigma^2_1$, $\sigma^2_2$ er kjente.}

Z=p^pp^(1p^)nN(0,1),for p^=Xn ved normaltilnærming.Z = \frac{\hat{p} - p}{\sqrt{\frac{\hat{p}(1-\hat{p})}{n}}} \sim N(0, 1), \text{for $\hat{p} = \frac{X}{n}$ ved normaltilnærming.}

Z=(p1^p2^)(p1p2)p1^(1p1^)n+p2^(1p2^)mN(0,1),for p1^p2^ ved normaltilnærming.Z = \frac{(\hat{p_1} - \hat{p_2}) - (p_1 - p_2)}{\sqrt{\frac{\hat{p_1}(1-\hat{p_1})}{n} + \frac{\hat{p_2}(1-\hat{p_2})}{m}}} \sim N(0, 1), \text{for $\hat{p_1} - \hat{p_2}$ ved normaltilnærming.}

Prediksjonsintervall

Ordningsvariabler

X(1)=min{X1,X2,,Xn}FX(1)(x)=1i=1n(1FXi(x))X(n)=max{X1,X2,,Xn}FX(n)(x)=i=1nFXi(x)Medianen m er gitt vedF(m)=0.5X_{(1)} = \text{min}\{X_1, X_2, \dots, X_n\} \\ F_{X_{(1)}}(x) = 1 - \prod_{i = 1}^{n} \left( 1 - F_{X_i}(x) \right) \\ \\ X_{(n)} = \text{max}\{X_1, X_2, \dots, X_n\} \\ F_{X_{(n)}}(x) = \prod_{i = 1}^{n} F_{X_i}(x) \\ \\ \text{Medianen $m$ er gitt ved} \\ F(m) = 0.5

Hypotesetest

Transformasjoner

Gjøres enten ved transformasjonsformelen (blå heftet) fY(y)=fX(w(y))dwdyf_Y(y) = f_X(w(y))|\frac{dw}{dy}|, X=w(Y)X = w(Y), eller via kumulativ funksjon: gitt en sannsynlighetstetthet f(x)f(x) og en transformasjon Y=g(X)Y = g(X)

Momentgenererende funksjoner

Momentgenerende funksjoner for ulike fordelinger står i det blå heftet.

Enkel lineær regresjon

Anta at Yi=β0+β1xi+ϵiY_i = \beta_0 + \beta_1 x_i + \epsilon_i, der ϵiN(0,σ2)\epsilon_i \sim N(0, \sigma^2). Da er YiN(β0+β1xi,σ2)Y_i \sim N(\beta_0 + \beta_1 x_i, \sigma^2). Ved å estimere β0\beta_0 og β1\beta_1, kan vi estimere y(x)y(x). \ \ For forenkling definerer vi:

Minste kvadraters metode

Minste kvadraters metode velger estimater β0^\hat{\beta_0} og β1^\hat{\beta_1} slik at SSE =i=1n(yiyi^)2= \sum_{i = 1}^n (y_i - \hat{y_i})^2 blir minst mulig, der yi^=β^0+β^1xi\hat{y_i} = \hat{\beta}_0 + \hat{\beta}_1 x_i. Resultatene blir β^1=SxySxx\hat{\beta}_1 = \frac{S_{xy}}{S_{xx}} og β^0=Yˉβ1^xˉ\hat{\beta}_0 = \bar{Y} - \hat{\beta_1} \bar{x}.

SME

SME gir samme resultat for β0^\hat{\beta_0} og β1^\hat{\beta_1} som minste kvadraters metode. Men her har vi i tillegg σ^2=1ni=1n(Yiβ0^β1^xi)2\hat{\sigma}^2 = \frac{1}{n} \sum_{i = 1}^n \left(Y_i - \hat{\beta_0} - \hat{\beta_1}x_i \right) ^2.

Egenskaper til regresjonsestimatorene

Prediksjonsintervall