A Wzory
A.1 Podstawowe wzory rachunku prawdopodobieństwa
Suma zdarzeń („A lub B”) — zasada dodawania
Dla zdarzeń wykluczających się (rozłącznych):
\[\begin{equation} \mathbb{P}(A \cup B) = \mathbb{P}(A) + \mathbb{P}(B) \tag{A.1} \end{equation}\]
\[\begin{equation} \mathbb{P}(A \cup B \cup C) = \mathbb{P}(A) + \mathbb{P}(B) + \mathbb{P}(C) \tag{A.2} \end{equation}\]
Dla dowolnych zdarzeń:
\[\begin{equation} \mathbb{P}(A \cup B) = \mathbb{P}(A) + \mathbb{P}(B) - \mathbb{P}(A \cap B) \tag{A.3} \end{equation}\]
\[\begin{equation} \begin{split} \mathbb{P}(A \cup B \cup C) = & \\ \mathbb{P}(A) + \mathbb{P}(B) + \mathbb{P}(C) - \mathbb{P}(A \cap B) & - \mathbb{P}(A \cap C) - \mathbb{P}(B \cap C) + \\ & + \mathbb{P}(A \cap B \cap C) \end{split} \tag{A.4} \end{equation}\]
Iloczyn („A i B” — część wspólna, przekrój, przecięcie) — zasada mnożenia
Zdarzenia niezależne:
\[\begin{equation} \mathbb{P}(A \cap B) = \mathbb{P}(A) \cdot \mathbb{P}(B) \tag{A.5} \end{equation}\]
\[\begin{equation} \mathbb{P}(A \cap B \cap C) = \mathbb{P}(A) \cdot \mathbb{P}(B) \cdot \mathbb{P}(C) \tag{A.6} \end{equation}\]
Dowolne zdarzenia:
\[\begin{equation} \mathbb{P}(A \cap B) = \mathbb{P}(A|B) \cdot \mathbb{P}(B) = \mathbb{P}(B|A) \cdot \mathbb{P}(A) \tag{A.7} \end{equation}\]
\[\begin{equation} \mathbb{P}(A \cap B \cap C) = \mathbb{P}(A|B\cap C) \cdot \mathbb{P}(B|C) \cdot \mathbb{P}(C) = \mathbb{P}(C|A\cap B) \cdot \mathbb{P}(B|A) \cdot \mathbb{P}(A) = \ldots \tag{A.8} \end{equation}\]
Zdarzenie przeciwne
\[\begin{equation} \mathbb{P}(A^C) = 1 - \mathbb{P}(A) \tag{A.9} \end{equation}\]
Prawdopodobieństwa warunkowe (A | B - „A pod warunkiem B”)
Zdarzenia niezależne:
\[\begin{equation} \begin{array}{cc} \mathbb{P}(A|B) = \mathbb{P}(A); & \mathbb{P}(B|A) = \mathbb{P}(B) \end{array} \tag{A.10} \end{equation}\]
Zdarzenia dowolne:
\[\begin{equation} \begin{array}{cc} \mathbb{P}(A|B) = \frac{\mathbb{P}(A \cap B)}{\mathbb{P}(B)}; & \mathbb{P}(B|A) = \frac{\mathbb{P}(A \cap B)}{\mathbb{P}(A)} \end{array} \tag{A.11} \end{equation}\]
Twierdzenie o prawdopodobieństwie całkowitym
Rozbicie dwuczłonowe:
\[\begin{equation} \mathbb{P}(A) = \mathbb{P}(A \cap B) + \mathbb{P}(A \cap B^c) \tag{A.12} \end{equation}\]
\[\begin{equation} \mathbb{P}(A) = \mathbb{P}(A|B)\mathbb{P}(B) + \mathbb{P}(A|B^c)\mathbb{P}(B^c) \tag{A.13} \end{equation}\]
Rozbicie wieloczłonowe:
\[\begin{equation} \mathbb{P}(A)=\sum_i \mathbb{P}(A \cap B_i) \tag{A.14} \end{equation}\]
\[\begin{equation} \mathbb{P}(A)=\sum_i \mathbb{P}(A|B_i)\mathbb{P}(B_i) \tag{A.15} \end{equation}\]
Twierdzenie Bayesa
Rozbicie dwuczłonowe:
\[\begin{equation} \mathbb{P}(B|A) = \frac{\mathbb{P}(A|B)\cdot \mathbb{P}(B)}{\mathbb{P}(A)} = \frac{\mathbb{P}(A|B)\cdot \mathbb{P}(B)}{\mathbb{P}(A|B)\mathbb{P}(B) + \mathbb{P}(A|B^c)\mathbb{P}(B^c)} \tag{A.16} \end{equation}\]
Rozbicie wieloczłonowe:
\[\begin{equation} \mathbb{P}(B_i|A) = \frac{\mathbb{P}(A|B_i)\cdot \mathbb{P}(B_i)}{\mathbb{P}(A)} = \frac{\mathbb{P}(A|B_i)\cdot \mathbb{P}(B_i)}{\sum_i \mathbb{P}(A|B_i)\mathbb{P}(B_i)} \\ = \frac{\mathbb{P}(A|B_i)\cdot \mathbb{P}(B_i)}{\mathbb{P}(A|B_1)\mathbb{P}(B_1)+\mathbb{P}(A|B_2)\mathbb{P}(B_2)+\ldots +\mathbb{P}(A|B_k)\mathbb{P}(B_k)} \tag{A.17} \end{equation}\]
A.2 Kombinatoryka
A.2.1 Wariacje \(n\) elementów branych po \(r\) (kolejność ma znaczenie)
Ze zwracaniem:
\[\begin{equation} Możliwości = n^r \tag{A.18} \end{equation}\]
Bez zwracania:
\[\begin{equation} Możliwości = \frac{n!}{(n-r)!} \tag{A.19} \end{equation}\]
A.2.2 Kombinacje \(n\) elementów branych po \(r\) (kolejność nie ma znaczenia)
Ze zwracaniem:
\[\begin{equation} Możliwości = \binom{n+r-1}{r} = \frac{\left(n+r-1\right)!}{r! \left( n-1 \right)!} \tag{A.20} \end{equation}\]
Bez zwracania:
\[\begin{equation} Możliwości = \binom{n}{r} = \frac{n!}{r! \left( n-r \right)!} \tag{A.21} \end{equation}\]
A.3 Zmienne losowe
A.3.1 Wzory ogólne dla zmiennej dyskretnej
Wartość oczekiwana:
\[\begin{equation} \mu=\mathbb{E}(X)=\sum_i x_i \textbf{p}(x_i) \tag{A.22} \end{equation}\]
Wariancja:
\[\begin{equation} \sigma^2=\mathbb{V}(X)=\mathbb{E}[(X-\mu)^2]=\sum_i (x_i-\mu)^2 \textbf{p}(x_i) = \sum x_i^2 \textbf{p}(x_i)-\mu^2 \tag{A.23} \end{equation}\]
Odchylenie standardowe:
\[\begin{equation} \sigma=\sqrt{\sigma^2} \tag{A.24} \end{equation}\]
A.3.2 Wzory ogólne dla zmiennej ciągłej
Wartość oczekiwana:
\[\begin{equation} \mu=\mathbb{E}(X)=\int x f(x) dx \tag{A.25} \end{equation}\]
Wariancja:
\[\begin{equation} \sigma^2=\mathbb{V}(X)=\mathbb{E}[(X-\mu)^2]=\int (x-\mu)^2 f(x) dx = \int x^2 f(x) dx-\mu^2 \tag{A.26} \end{equation}\]
Odchylenie standardowe:
\[\begin{equation} \sigma=\sqrt{\sigma^2} \tag{A.27} \end{equation}\]
A.3.3 Rozkład dwumianowy
\[\begin{equation} \textbf{p}(x)={n\choose x}p^x q^{n-x} \text{, dla } x \in \{ 0, 1, 2, ..., n \} \tag{A.28} \end{equation}\]
\({n\choose x}\) To symbol Newtona, por. (A.21), zaś \(q = 1 - p\).
Wartość oczekiwana:
\[\begin{equation} \mu=np \tag{A.29} \end{equation}\]
Wariancja:
\[\begin{equation} \sigma^2= npq \tag{A.30} \end{equation}\]
Odchylenie standardowe:
\[\begin{equation} \sigma=\sqrt{npq} \tag{A.31} \end{equation}\]
A.3.4 Rozkład Poissona
\[\begin{equation} \textbf{p}(x)=\frac{\lambda^x e^{-\lambda}}{x!} \text{, dla } x \in \{ 0, 1, 2, ... \} \tag{A.32} \end{equation}\]
Wartość oczekiwana:
\[\begin{equation} \mu=\lambda \tag{A.33} \end{equation}\]
Wariancja:
\[\begin{equation} \sigma^2= \lambda \tag{A.34} \end{equation}\]
Odchylenie standardowe:
\[\begin{equation} \sigma=\sqrt{\lambda} \tag{A.35} \end{equation}\]
A.3.5 Rozkład hipergeometryczny
\[\begin{equation} \textbf{p}(x)=\frac{{r \choose x}{{N-r} \choose {n-x}}}{{N \choose n}} \text{, dla } x \in \{ max(0,n+r-N), ..., min(n,r) \} \tag{A.36} \end{equation}\]
Wartość oczekiwana:
\[\begin{equation} \mu=\frac{nr}{N} \tag{A.37} \end{equation}\]
Wariancja:
\[\begin{equation} \sigma^2 = \frac{r(N-r)n(N-n)}{N^2 (N-1)} \tag{A.38} \end{equation}\]
Odchylenie standardowe:
\[\begin{equation} \sigma=\sqrt{\sigma^2} \tag{A.39} \end{equation}\]
A.3.6 Rozkład jednostajny (ciągły)
\[\begin{equation} f(x)=\frac{1}{d-c} \text{ dla} \text{ x} \in \left[c,d\right] \text{, }\:\:\:\:\:\: f(x)=0 \text{ dla pozostałych} \tag{A.40} \end{equation}\]
Wartość oczekiwana:
\[\begin{equation} \mu=\frac{c+d}{2} \tag{A.41} \end{equation}\]
Wariancja:
\[\begin{equation} \sigma^2= \frac{(d-c)^2}{12} \tag{A.42} \end{equation}\]
Odchylenie standardowe:
\[\begin{equation} \sigma=\frac{(d-c)}{\sqrt{12}} \tag{A.43} \end{equation}\]
A.3.7 Rozkład wykładniczy
\[\begin{equation} f(x)=\lambda e^{-\lambda x}\:\:\:\:\:\:\: x \in \left[0, \infty \right) \tag{A.44} \end{equation}\]
Wartość oczekiwana:
\[\begin{equation} \mu=\frac{1}{\lambda} \tag{A.45} \end{equation}\]
Wariancja:
\[\begin{equation} \sigma^2=\frac{1}{\lambda^2} \tag{A.46} \end{equation}\]
Odchylenie standardowe:
\[\begin{equation} \sigma=\frac{1}{\lambda} \tag{A.47} \end{equation}\]
A.3.8 Rozkład Gaussa (normalny)
\[\begin{equation} f(x)=\frac{1}{\sigma \sqrt{2 \pi}} e^{-\frac{(x-\mu)^2}{2 \sigma^2}}\:\:\:\:\:\:\: x \in \left(-\infty, \infty \right) \tag{A.48} \end{equation}\]
Wartość oczekiwana:
\[\begin{equation} \mu=\mu \tag{A.49} \end{equation}\]
Wariancja:
\[\begin{equation} \sigma^2= \sigma^2 \tag{A.50} \end{equation}\]
Odchylenie standardowe:
\[\begin{equation} \sigma=\sigma \tag{A.51} \end{equation}\]
A.3.9 Standardowy rozkład normalny
\[\begin{equation} f(z)=\frac{1}{\sqrt{2 \pi}} e^{-\frac{1}{2}z^2}\text{; }\:\:\:\:\:\:\:\:\: z=\frac{x-\mu}{\sigma} \tag{A.52} \end{equation}\]
Wartość oczekiwana:
\[\begin{equation} \mu=0 \tag{A.53} \end{equation}\]
Wariancja:
\[\begin{equation} \sigma^2= 1 \tag{A.54} \end{equation}\]
Odchylenie standardowe:
\[\begin{equation} \sigma=1 \tag{A.55} \end{equation}\]
A.3.10 Rozkład normalny średniej z próby (przybliżenie dla dużych \(n\))
\[\begin{equation} f(\bar{x})=\frac{1}{{\sigma}_{\bar{x}}\sqrt{2 \pi}} e^{-\frac{1}{2}{\left(\frac{\bar{x}-\mu}{\sigma_{\bar{x}}}\right)^2}} \tag{A.56} \end{equation}\]
Wartość oczekiwana:
\[\begin{equation} \mu_{\bar{x}}=\mu \tag{A.57} \end{equation}\]
Wariancja:
\[\begin{equation} \sigma_{\bar{x}}^2= \frac{\sigma^2}{n} \tag{A.58} \end{equation}\]
Odchylenie standardowe:
\[\begin{equation} \sigma_{\bar{x}}=\frac{\sigma}{\sqrt{n}} \tag{A.59} \end{equation}\]
A.4 Przekształcenia zmiennych losowych
A.4.1 Dodawanie stałej do zmiennej
Wartość oczekiwana:
\[\begin{equation} \mathbb{E}(X + a) = \mathbb{E}(X) + a \tag{A.60} \end{equation}\]
Wariancja:
\[\begin{equation} \mathbb{V}(X + a) = \mathbb{V}(X) \tag{A.61} \end{equation}\]
A.4.2 Mnożenie zmiennych przez stałą
Wartość oczekiwana:
\[\begin{equation} \mathbb{E}(k\cdot X)=k \cdot \mathbb{E}(X) \tag{A.62} \end{equation}\]
Wariancja:
\[\begin{equation} \mathbb{V}(k \cdot X) = k^2 \cdot \mathbb{V}(X) \tag{A.63} \end{equation}\]
A.4.3 Dodawanie zmiennych losowych
Wartość oczekiwana:
\[\begin{equation} \begin{matrix} \mathbb{E}(X + Y)=\mathbb{E}(X) + \mathbb{E}(Y) \\ \mathbb{E}(X - Y)=\mathbb{E}(X) - \mathbb{E}(Y) \\ \end{matrix} \:\:\:\: \text{ nawet gdy X i Y są zależne} \tag{A.64} \end{equation}\]
Wariancja:
\[\begin{equation} \begin{matrix} \mathbb{V}(X + Y) = \mathbb{V}(X) + \mathbb{V}(Y) \\ \mathbb{V}(X - Y) = \mathbb{V}(X)\: \mathbf{+}\: \mathbb{V}(Y) \\ \end{matrix} \:\:\:\: \text{ tylko gdy X i Y są niezależne} \tag{A.65} \end{equation}\]
Odchylenie standardowe:
\[\begin{equation} \begin{matrix} \sigma_{X + Y} = \sqrt{\mathbb{V}(X) + \mathbb{V}(Y)} = \sqrt{\sigma_X^2 + \sigma_Y^2}\\ \sigma_{X - Y} = \sqrt{\mathbb{V}(X)\: \mathbf{+}\: \mathbb{V}(Y)}= \sqrt{\sigma_X^2 \mathbf{+} \sigma_Y^2} \\ \end{matrix} \:\:\:\: \text{ tylko gdy X i Y są niezależne} \tag{A.66} \end{equation}\]
A.4.4 Dodawanie \(n\) niezależnych zmiennych o jednakowych rozkładach (i.i.d.)
\(X_1, X_2, ..., X_n ~ i. i. d.\:\: \text{o średniej}\:\: \mu\:\: \text{i odchyleniu standardowym}\:\: \sigma\)
\(Y = X_1 + X_2 + ... + X_n\)
Wartość oczekiwana:
\[\begin{equation} \mathbb{E}(Y)=n \mu \tag{A.67} \end{equation}\]
Wariancja:
\[\begin{equation} \sigma_Y^2 = \mathbb{V}(Y) = n \sigma^2 \tag{A.68} \end{equation}\]
Odchylenie standardowe:
\[\begin{equation} \sigma_Y = \sigma \sqrt{n} \tag{A.69} \end{equation}\]
A.5 Wnioskowanie statystyczne
A.5.1 Przedziały ufności
Estymacja średniej w populacji (z):
\[\begin{equation} \bar{x} \pm z_{\alpha/2} \frac{\sigma}{\sqrt{n}}, \:\:\:\:\:\:\:\:\: \bar{x} \pm z_{\alpha/2} \frac{s}{\sqrt{n}} \tag{A.70} \end{equation}\]
Estymacja średniej w populacji (t):
\[\begin{equation} \bar{x} \pm t_{\alpha/2} \frac{s}{\sqrt{n}}, \:\:\: df=n-1 \tag{A.71} \end{equation}\]
Estymacja proporcji w populacji (duża próba):
\[\begin{equation} \hat{p}\pm z_{\alpha/2}\sqrt{\frac{\hat{p}\hat{q}}{n}} \tag{A.72} \end{equation}\]
A.5.2 Określanie wielkości próby
Estymacja średniej w populacji (z):
\[\begin{equation} n=\left\lceil\left(\frac{z_{\alpha/2}\cdot\sigma}{{e}}\right)^2\right\rceil \tag{A.73} \end{equation}\]
Estymacja proporcji w populacji:
\[\begin{equation} n=\left\lceil\frac{({z}_{\alpha/2})^2 \cdot p \cdot q}{{e}^2}\right\rceil \tag{A.74} \end{equation}\]
A.5.3 Testy hipotez dotyczące parametru populacji
Średnia w populacji (z):
\[\begin{equation} z=\frac{\bar{x}-\mu_0}{\sigma / \sqrt{n}}, \:\:\: z\approx \frac{\bar{x}-\mu_0}{s/ \sqrt{n}} \tag{A.75} \end{equation}\]
Średnia w populacji (t):
\[\begin{equation} t= \frac{\bar{x}-\mu_0}{s/ \sqrt{n}}, \:\:\: df=n-1 \tag{A.76} \end{equation}\]
Proporcja w populacji:
\[\begin{equation} z= \frac{\hat{p}-p_0}{\sqrt{p_0 q_0/n}} \tag{A.77} \end{equation}\]
A.5.4 Testy hipotez dotyczące różnicy parametrów
Średnia w populacji (z):
\[\begin{equation} z=\frac{(\bar{x}_1-\bar{x}_2)-D_0}{\sqrt{\frac{\sigma_1^2}{n_1}+\frac{\sigma_2^2}{n_2}}}, \:\:\: z\approx \frac{(\bar{x}_1-\bar{x}_2)-D_0}{\sqrt{\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}}} \tag{A.78} \end{equation}\]
Średnia w populacji (t) — przy założeniu jednorodności wariancji:
\[\begin{equation} \begin{split} t=\frac{(\bar{x}_1-\bar{x}_2)-D_0}{\sqrt{s_p^2 \left(\frac{1}{n_1}+\frac{1}{n_2}\right)}}, \:\:\:\:\:\: df=n_1+n_2-2 \\ s_p^2=\frac{(n_1-1)s_1^2+(n_2-1)s_2^2}{n_1+n_2-2} \end{split} \tag{A.79} \end{equation}\]
(\(s_p\) to wariancja zbiorcza)
Średnia w populacji (t) — bez założenia o jednorodności wariancji:
\[\begin{equation} \begin{split} t=\frac{(\bar{x}_1-\bar{x}_2)-D_0}{\sqrt{\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}}} \\ {df'}= \frac{\left(\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}\right)^2}{\frac{\left(\frac{s_1^2}{n_1}\right)^2}{n_1-1}+\frac{\left(\frac{s_2^2}{n_2}\right)^2}{n_2-1}}\\ \end{split} \tag{A.80} \end{equation}\]
Proporcja w populacji:
\[\begin{equation} \begin{split} z=\frac{(\hat{p}_1-\hat{p}_2)-0}{\sqrt{\hat{p}\hat{q} \left(\frac{1}{n_1}+\frac{1}{n_2}\right)}} \\ {}\hat{p}_1=\frac{x_1}{n_1}, \:\: \hat{p}_2=\frac{x_2}{n_2}, \:\: \hat{p}=\frac{x_1+x_2}{n_1+n_2} \end{split} \tag{A.81} \end{equation}\]
A.5.5 Przedziały ufności dla różnicy parametrów
Średnie w populacji (z):
\[\begin{equation} (\bar{x}_1-\bar{x}_2)\pm z_{\alpha/2}{\sqrt{\frac{\sigma_1^2}{n_1}+\frac{\sigma_2^2}{n_2}}}, \:\:\: (\bar{x}_1-\bar{x}_2)\pm z_{\alpha/2}{\sqrt{\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}}} \tag{A.82} \end{equation}\]
Średnie w populacji (t) — dla równych wariancji:
\[\begin{equation} \begin{split} (\bar{x}_1-\bar{x}_2)\pm t_{\alpha/2}{\sqrt{s_p^2 \left(\frac{1}{n_1}+\frac{1}{n_2}\right)}} \\ {df}=n_1+n_2-2 \end{split} \tag{A.83} \end{equation}\]
Średnie w populacji (t) — bez założenia jednorodności wariancji:
\[\begin{equation} \begin{split} (\bar{x}_1-\bar{x}_2)\pm t_{\alpha/2}{\sqrt{\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}}} \\ {df'}= \frac{\left(\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}\right)^2}{\frac{\left(\frac{s_1^2}{n_1}\right)^2}{n_1-1}+\frac{\left(\frac{s_2^2}{n_2}\right)^2}{n_2-1}}\\ \end{split} \tag{A.84} \end{equation}\]
Średnie w populacji — wielkość efektu (d Cohena):
\[\begin{equation} \begin{split} d = \frac{\bar{x}_1-\bar{x}_2}{s_p} \\ s_p=\sqrt{\frac{(n_1-1)s_1^2+(n_2-1)s_2^2}{n_1+n_2-2}} \end{split} \tag{A.85} \end{equation}\]
Proporcja w populacji:
\[\begin{equation} (\hat{p}_1-\hat{p}_2)\pm z_{\alpha/2}{\sqrt{\frac{\hat{p}_1\hat{q}_1}{n_1}+\frac{\hat{p}_2\hat{q}_2}{n_2}}} \tag{A.86} \end{equation}\]
A.5.6 Testy hipotez dotyczące różnicy parametrów — próby zestawione w pary
Średnia w populacji (z):
\[\begin{equation} z=\frac{\bar{x}_d-D_0}{\sigma_d/\sqrt{n_d}},\:\:\:z\approx \frac{\bar{x}_d-D_0}{s_d/\sqrt{n_d}} \tag{A.87} \end{equation}\]
Średnia w populacji (t):
\[\begin{equation} t=\frac{\bar{x}_d-D_0}{s_d/\sqrt{n_d}}, \:\:\: {df}=n_d-1 \tag{A.88} \end{equation}\]
A.5.7 Przedziały ufności dla różnicy parametrów — próby zestawione w pary
Średnia w populacji (z):
\[\begin{equation} {}\bar{x}_d\pm z_{\alpha/2}\left({\frac{\sigma_d}{\sqrt{n_d}}}\right) ,\:\:\:{}\bar{x}_d\pm z_{\alpha/2}\left({\frac{s_d}{\sqrt{n_d}}}\right) \tag{A.89} \end{equation}\]
Średnia w populacji (t):
\[\begin{equation} {}\bar{x}_d\pm t_{\alpha/2}\left({\frac{s_d}{\sqrt{n_d}}}\right), \:\:\: {df}=n_d-1 \tag{A.90} \end{equation}\]
A.5.8 Test chi-kwadrat
\[\begin{equation} \chi^2 = \sum_{i} \frac{(O_i-E_i)^2}{E_i} \tag{A.91} \end{equation}\]
Liczebność oczekiwana w tabeli dwudzielczej:
\[\begin{equation} \text{Liczebność oczekiwana} = \frac{\text{Liczebność wiersza} \cdot \text{Liczebność kolumny}}{\text{Liczebność całkowita}} \tag{A.92} \end{equation}\]
Wielkość efektu — V Cramera
\[\begin{equation} V = \sqrt{\frac{\chi^2}{n \cdot\text{min}(c-1, r-1)}} \tag{A.93} \end{equation}\]
A.5.9 ANOVA (jednoczynnikowa)
Zmienność między grupami:
\[\begin{equation} SSTR = \sum_{i=1}^r n_i (\bar{x}_i-\bar{x})^2;\:\:\:\:MSTR=SSTR/(r-1) \tag{A.94} \end{equation}\]
Zmienność wewnątrz grup:
\[\begin{equation} \begin{split} SSE = \sum_{j=1}^{n_1}(x_{1j}-\bar{x}_1)^2 + \sum_{j=1}^{n_2}(x_{2j}-\bar{x}_2)^2+ \dots + \sum_{j=1}^{n_r}(x_{rj}-\bar{x}_r)^2;\\MSE=SSE/(n-r) \end{split} \tag{A.95} \end{equation}\]
Statystyka testowa:
\[\begin{equation} F_{(r-1,n-r)}=\frac{MSTR}{MSE} \tag{A.96} \end{equation}\]
Wielkość efektu:
\[\begin{equation} \eta^2 = \frac{SSTR}{SSTotal} \tag{A.97} \end{equation}\]
\[\begin{equation} \omega^2 = \frac{SSTR-(r-1)\cdot MSE}{SSTotal+MSE} \tag{A.98} \end{equation}\]
\[\begin{equation} f = \sqrt{\frac{\eta^2}{1-\eta^2}} \tag{A.99} \end{equation}\]
A.6 Regresja liniowa
A.6.1 Model
Regresja prosta:
\[y_i = \beta_0 + \beta_1 x_i + \varepsilon_i, \tag{A.100}\]
\[\mu_{y_i} = \beta_0 + \beta_1 x_{i} \tag{A.101}\]
Regresja wieloraka:
\[y_i = \beta_0 + \beta_1 x_{i1} + \beta_2 x_{i2} + \dots + \beta_k x_{ik} + \varepsilon_i, \tag{A.102}\]
\[\mu_{y_i} = \beta_0 + \beta_1 x_{i1} + \beta_2 x_{i2} + \dots + \beta_k x_{ik} \tag{A.103}\]
A.6.2 Estymatory punktowe
Regresja prosta:
\[ \widehat{\beta}_1 = \frac{\sum_{i=1}^{n} (x_i - \bar{x})(y_i - \bar{y})}{\sum_{i=1}^{n} (x_i - \bar{x})^2}, \tag{A.104} \]
\[ \widehat{\beta}_0 = \bar{y} - \widehat{\beta}_1 \bar{x}, \tag{A.105} \] \[ \widehat{\sigma}_\varepsilon = \sqrt{\widehat{\sigma}_\varepsilon^2} \tag{A.106} \] \[ \widehat{\sigma}_\varepsilon^2 = \frac{\sum_i(y_i-\hat{y}_i)^2}{n-2} \tag{A.107} \]
Regresja wieloraka:
\[\hat{\boldsymbol{\beta}}=\left(\mathbf{X}^\top\mathbf{X}\right)^{-1}\mathbf{X}^\top \mathbf{y}, \tag{A.108} \]
\[ \widehat{\sigma}_\varepsilon^2 = \frac{\sum_i(y_i-\hat{y}_i)^2}{n-k-1} \tag{A.109} \]
A.6.3 Przedziały ufności dla współczynników
Regresja prosta:
\[\hat{\beta}_j \pm t_{\alpha/2} \cdot \widehat{SE}(\hat{\beta}_j), \tag{A.110}\]
\[\widehat{SE}(\beta_1) = \frac{\widehat{\sigma}_\varepsilon}{\sqrt{\sum_i (x_i - \bar{x})^2}}, \tag{A.111}\]
\[ \widehat{SE}(\beta_0) = \widehat{\sigma}_\varepsilon \sqrt{\frac{1}{n} + \frac{\bar{x}^2}{\sum_i (x_i - \bar{x})^2}} \tag{A.112}\]
Regresja wieloraka:
\[\hat{\beta}_j \pm t_{\alpha/2} \cdot \widehat{SE}(\hat{\beta}_j), \tag{A.113}\]
\[\widehat{SE}(\hat{\beta}_j) = \widehat{\sigma}_\varepsilon \sqrt{\left[\left( \mathbf{X}^\top\mathbf{X}\right)^{-1} \right]_{jj}} \tag{A.114}\]
A.6.4 Przedziały ufności dla wartości oczekiwanej zmiennej objaśnianej
Regresja prosta:
\[\hat{y}_h \pm t_{\alpha/2} \cdot \widehat{SE}(\hat{y}_h), \\ \widehat{SE}(\hat{y}_h) = \widehat{\sigma}_\varepsilon\sqrt{\frac{1}{n}+\frac{(x_h-\bar{x})^2}{\sum_i(x_i-\bar{x})^2}}, \tag{A.115} \]
Regresja wieloraka:
\[\hat{y}_h \pm t_{\alpha/2} \cdot \widehat{SE}(\hat{y}_h), \\ \widehat{SE}(\hat{y}_h) = \widehat{\sigma}_\varepsilon\sqrt{\mathbf{x}_h^\top (\mathbf{X}^\top\mathbf{X})^{-1}\mathbf{x}_h}. \tag{A.116}\]
A.6.5 Przedziały predykcji
Regresja prosta:
\[ \hat{y}_h\pm t_{\alpha/2}\hat{\sigma}_\varepsilon\sqrt{1+\frac{1}{n}+\frac{(x_h-\bar{x})^2}{\sum_i(x_i-\bar{x})^2}}, \tag{A.117} \]
Regresja wieloraka:
\[ \hat{y}_h\pm t_{\alpha/2}\hat{\sigma}_\varepsilon\sqrt{1+\mathbf{x}_h^\top (\mathbf{X}^\top\mathbf{X})^{-1}\mathbf{x}_h} \tag{A.118} \]