A Wzory

A.1 Podstawowe wzory rachunku prawdopodobieństwa

Suma zdarzeń („A lub B”) — zasada dodawania

Dla zdarzeń wykluczających się (rozłącznych):

\[\begin{equation} \mathbb{P}(A \cup B) = \mathbb{P}(A) + \mathbb{P}(B) \tag{A.1} \end{equation}\]

\[\begin{equation} \mathbb{P}(A \cup B \cup C) = \mathbb{P}(A) + \mathbb{P}(B) + \mathbb{P}(C) \tag{A.2} \end{equation}\]

Dla dowolnych zdarzeń:

\[\begin{equation} \mathbb{P}(A \cup B) = \mathbb{P}(A) + \mathbb{P}(B) - \mathbb{P}(A \cap B) \tag{A.3} \end{equation}\]

\[\begin{equation} \begin{split} \mathbb{P}(A \cup B \cup C) = & \\ \mathbb{P}(A) + \mathbb{P}(B) + \mathbb{P}(C) - \mathbb{P}(A \cap B) & - \mathbb{P}(A \cap C) - \mathbb{P}(B \cap C) + \\ & + \mathbb{P}(A \cap B \cap C) \end{split} \tag{A.4} \end{equation}\]

Iloczyn („A i B” — część wspólna, przekrój, przecięcie) — zasada mnożenia

Zdarzenia niezależne:

\[\begin{equation} \mathbb{P}(A \cap B) = \mathbb{P}(A) \cdot \mathbb{P}(B) \tag{A.5} \end{equation}\]

\[\begin{equation} \mathbb{P}(A \cap B \cap C) = \mathbb{P}(A) \cdot \mathbb{P}(B) \cdot \mathbb{P}(C) \tag{A.6} \end{equation}\]

Dowolne zdarzenia:

\[\begin{equation} \mathbb{P}(A \cap B) = \mathbb{P}(A|B) \cdot \mathbb{P}(B) = \mathbb{P}(B|A) \cdot \mathbb{P}(A) \tag{A.7} \end{equation}\]

\[\begin{equation} \mathbb{P}(A \cap B \cap C) = \mathbb{P}(A|B\cap C) \cdot \mathbb{P}(B|C) \cdot \mathbb{P}(C) = \mathbb{P}(C|A\cap B) \cdot \mathbb{P}(B|A) \cdot \mathbb{P}(A) = \ldots \tag{A.8} \end{equation}\]

Zdarzenie przeciwne

\[\begin{equation} \mathbb{P}(A^C) = 1 - \mathbb{P}(A) \tag{A.9} \end{equation}\]

Prawdopodobieństwa warunkowe (A | B - „A pod warunkiem B”)

Zdarzenia niezależne:

\[\begin{equation} \begin{array}{cc} \mathbb{P}(A|B) = \mathbb{P}(A); & \mathbb{P}(B|A) = \mathbb{P}(B) \end{array} \tag{A.10} \end{equation}\]

Zdarzenia dowolne:

\[\begin{equation} \begin{array}{cc} \mathbb{P}(A|B) = \frac{\mathbb{P}(A \cap B)}{\mathbb{P}(B)}; & \mathbb{P}(B|A) = \frac{\mathbb{P}(A \cap B)}{\mathbb{P}(A)} \end{array} \tag{A.11} \end{equation}\]

Twierdzenie o prawdopodobieństwie całkowitym

Rozbicie dwuczłonowe:

\[\begin{equation} \mathbb{P}(A) = \mathbb{P}(A \cap B) + \mathbb{P}(A \cap B^c) \tag{A.12} \end{equation}\]

\[\begin{equation} \mathbb{P}(A) = \mathbb{P}(A|B)\mathbb{P}(B) + \mathbb{P}(A|B^c)\mathbb{P}(B^c) \tag{A.13} \end{equation}\]

Rozbicie wieloczłonowe:

\[\begin{equation} \mathbb{P}(A)=\sum_i \mathbb{P}(A \cap B_i) \tag{A.14} \end{equation}\]

\[\begin{equation} \mathbb{P}(A)=\sum_i \mathbb{P}(A|B_i)\mathbb{P}(B_i) \tag{A.15} \end{equation}\]

Twierdzenie Bayesa

Rozbicie dwuczłonowe:

\[\begin{equation} \mathbb{P}(B|A) = \frac{\mathbb{P}(A|B)\cdot \mathbb{P}(B)}{\mathbb{P}(A)} = \frac{\mathbb{P}(A|B)\cdot \mathbb{P}(B)}{\mathbb{P}(A|B)\mathbb{P}(B) + \mathbb{P}(A|B^c)\mathbb{P}(B^c)} \tag{A.16} \end{equation}\]

Rozbicie wieloczłonowe:

\[\begin{equation} \mathbb{P}(B_i|A) = \frac{\mathbb{P}(A|B_i)\cdot \mathbb{P}(B_i)}{\mathbb{P}(A)} = \frac{\mathbb{P}(A|B_i)\cdot \mathbb{P}(B_i)}{\sum_i \mathbb{P}(A|B_i)\mathbb{P}(B_i)} \\ = \frac{\mathbb{P}(A|B_i)\cdot \mathbb{P}(B_i)}{\mathbb{P}(A|B_1)\mathbb{P}(B_1)+\mathbb{P}(A|B_2)\mathbb{P}(B_2)+\ldots +\mathbb{P}(A|B_k)\mathbb{P}(B_k)} \tag{A.17} \end{equation}\]

A.2 Kombinatoryka

A.2.1 Wariacje \(n\) elementów branych po \(r\) (kolejność ma znaczenie)

Ze zwracaniem:

\[\begin{equation} Możliwości = n^r \tag{A.18} \end{equation}\]

Bez zwracania:

\[\begin{equation} Możliwości = \frac{n!}{(n-r)!} \tag{A.19} \end{equation}\]

A.2.2 Kombinacje \(n\) elementów branych po \(r\) (kolejność nie ma znaczenia)

Ze zwracaniem:

\[\begin{equation} Możliwości = \binom{n+r-1}{r} = \frac{\left(n+r-1\right)!}{r! \left( n-1 \right)!} \tag{A.20} \end{equation}\]

Bez zwracania:

\[\begin{equation} Możliwości = \binom{n}{r} = \frac{n!}{r! \left( n-r \right)!} \tag{A.21} \end{equation}\]

A.3 Zmienne losowe

A.3.1 Wzory ogólne dla zmiennej dyskretnej

Wartość oczekiwana:

\[\begin{equation} \mu=\mathbb{E}(X)=\sum_i x_i \mathbb{P}(x_i) \tag{A.22} \end{equation}\]

Wariancja:

\[\begin{equation} \sigma^2=\mathbb{V}(X)=\mathbb{E}[(X-\mu)^2]=\sum_i (x_i-\mu)^2 \mathbb{P}(x_i) = \sum x_i^2 \mathbb{P}(x_i)-\mu^2 \tag{A.23} \end{equation}\]

Odchylenie standardowe:

\[\begin{equation} \sigma=\sqrt{\sigma^2} \tag{A.24} \end{equation}\]

A.3.2 Wzory ogólne dla zmiennej ciągłej

Wartość oczekiwana:

\[\begin{equation} \mu=\mathbb{E}(X)=\int x f(x) dx \tag{A.25} \end{equation}\]

Wariancja:

\[\begin{equation} \sigma^2=\mathbb{V}(X)=\mathbb{E}[(X-\mu)^2]=\int (x-\mu)^2 f(x) dx = \int x^2 f(x) dx-\mu^2 \tag{A.26} \end{equation}\]

Odchylenie standardowe:

\[\begin{equation} \sigma=\sqrt{\sigma^2} \tag{A.27} \end{equation}\]

A.3.3 Rozkład dwumianowy

\[\begin{equation} \textbf{p}(x)={n\choose x}p^x q^{n-x} \text{, dla } x \in \{ 0, 1, 2, ..., n \} \tag{A.28} \end{equation}\]

\({n\choose x}\) To symbol Newtona, por. (A.21), zaś \(q = 1 - p\).

Wartość oczekiwana:

\[\begin{equation} \mu=np \tag{A.29} \end{equation}\]

Wariancja:

\[\begin{equation} \sigma^2= npq \tag{A.30} \end{equation}\]

Odchylenie standardowe:

\[\begin{equation} \sigma=\sqrt{npq} \tag{A.31} \end{equation}\]

A.3.4 Rozkład Poissona

\[\begin{equation} \textbf{p}(x)=\frac{\lambda^x e^{-\lambda}}{x!} \text{, dla } x \in \{ 0, 1, 2, ... \} \tag{A.32} \end{equation}\]

Wartość oczekiwana:

\[\begin{equation} \mu=\lambda \tag{A.33} \end{equation}\]

Wariancja:

\[\begin{equation} \sigma^2= \lambda \tag{A.34} \end{equation}\]

Odchylenie standardowe:

\[\begin{equation} \sigma=\sqrt{\lambda} \tag{A.35} \end{equation}\]

A.3.5 Rozkład hipergeometryczny

\[\begin{equation} \textbf{p}(x)=\frac{{r \choose x}{{N-r} \choose {n-x}}}{{N \choose n}} \text{, dla } x \in \{ max(0,n+r-N), ..., min(n,r) \} \tag{A.36} \end{equation}\]

Wartość oczekiwana:

\[\begin{equation} \mu=\frac{nr}{N} \tag{A.37} \end{equation}\]

Wariancja:

\[\begin{equation} \sigma^2 = \frac{r(N-r)n(N-n)}{N^2 (N-1)} \tag{A.38} \end{equation}\]

Odchylenie standardowe:

\[\begin{equation} \sigma=\sqrt{\sigma^2} \tag{A.39} \end{equation}\]

A.3.6 Rozkład jednostajny (ciągły)

\[\begin{equation} f(x)=\frac{1}{d-c} \text{ dla} \text{ x} \in \left[c,d\right] \text{, }\:\:\:\:\:\: f(x)=0 \text{ dla pozostałych} \tag{A.40} \end{equation}\]

Wartość oczekiwana:

\[\begin{equation} \mu=\frac{c+d}{2} \tag{A.41} \end{equation}\]

Wariancja:

\[\begin{equation} \sigma^2= \frac{(d-c)^2}{12} \tag{A.42} \end{equation}\]

Odchylenie standardowe:

\[\begin{equation} \sigma=\frac{(d-c)}{\sqrt{12}} \tag{A.43} \end{equation}\]

A.3.7 Rozkład wykładniczy

\[\begin{equation} f(x)=\lambda e^{-\lambda x}\:\:\:\:\:\:\: x \in \left[0, \infty \right) \tag{A.44} \end{equation}\]

Wartość oczekiwana:

\[\begin{equation} \mu=\frac{1}{\lambda} \tag{A.45} \end{equation}\]

Wariancja:

\[\begin{equation} \sigma^2=\frac{1}{\lambda^2} \tag{A.46} \end{equation}\]

Odchylenie standardowe:

\[\begin{equation} \sigma=\frac{1}{\lambda} \tag{A.47} \end{equation}\]

A.3.8 Rozkład Gaussa (normalny)

\[\begin{equation} f(x)=\frac{1}{\sigma \sqrt{2 \pi}} e^{-\frac{(x-\mu)^2}{2 \sigma^2}}\:\:\:\:\:\:\: x \in \left(-\infty, \infty \right) \tag{A.48} \end{equation}\]

Wartość oczekiwana:

\[\begin{equation} \mu=\mu \tag{A.49} \end{equation}\]

Wariancja:

\[\begin{equation} \sigma^2= \sigma^2 \tag{A.50} \end{equation}\]

Odchylenie standardowe:

\[\begin{equation} \sigma=\sigma \tag{A.51} \end{equation}\]

A.3.9 Standardowy rozkład normalny

\[\begin{equation} f(z)=\frac{1}{\sqrt{2 \pi}} e^{-\frac{1}{2}z^2}\text{; }\:\:\:\:\:\:\:\:\: z=\frac{x-\mu}{\sigma} \tag{A.52} \end{equation}\]

Wartość oczekiwana:

\[\begin{equation} \mu=0 \tag{A.53} \end{equation}\]

Wariancja:

\[\begin{equation} \sigma^2= 1 \tag{A.54} \end{equation}\]

Odchylenie standardowe:

\[\begin{equation} \sigma=1 \tag{A.55} \end{equation}\]

A.3.10 Rozkład normalny średniej z próby (przybliżenie dla dużych \(n\))

\[\begin{equation} f(\bar{x})=\frac{1}{{\sigma}_{\bar{x}}\sqrt{2 \pi}} e^{-\frac{1}{2}{\left(\frac{\bar{x}-\mu}{\sigma_{\bar{x}}}\right)^2}} \tag{A.56} \end{equation}\]

Wartość oczekiwana:

\[\begin{equation} \mu_{\bar{x}}=\mu \tag{A.57} \end{equation}\]

Wariancja:

\[\begin{equation} \sigma_{\bar{x}}^2= \frac{\sigma^2}{n} \tag{A.58} \end{equation}\]

Odchylenie standardowe:

\[\begin{equation} \sigma_{\bar{x}}=\frac{\sigma}{\sqrt{n}} \tag{A.59} \end{equation}\]

A.4 Przekształcenia zmiennych losowych

A.4.1 Dodawanie stałej do zmiennej

Wartość oczekiwana:

\[\begin{equation} \mathbb{E}(X + a) = \mathbb{E}(X) + a \tag{A.60} \end{equation}\]

Wariancja:

\[\begin{equation} \mathbb{V}(X + a) = \mathbb{V}(X) \tag{A.61} \end{equation}\]

A.4.2 Mnożenie zmiennych przez stałą

Wartość oczekiwana:

\[\begin{equation} \mathbb{E}(k\cdot X)=k \cdot \mathbb{E}(X) \tag{A.62} \end{equation}\]

Wariancja:

\[\begin{equation} \mathbb{V}(k \cdot X) = k^2 \cdot \mathbb{V}(X) \tag{A.63} \end{equation}\]

A.4.3 Dodawanie zmiennych losowych

Wartość oczekiwana:

\[\begin{equation} \begin{matrix} \mathbb{E}(X + Y)=\mathbb{E}(X) + \mathbb{E}(Y) \\ \mathbb{E}(X - Y)=\mathbb{E}(X) - \mathbb{E}(Y) \\ \end{matrix} \:\:\:\: \text{ nawet gdy X i Y są zależne} \tag{A.64} \end{equation}\]

Wariancja:

\[\begin{equation} \begin{matrix} \mathbb{V}(X + Y) = \mathbb{V}(X) + \mathbb{V}(Y) \\ \mathbb{V}(X - Y) = \mathbb{V}(X)\: \mathbf{+}\: \mathbb{V}(Y) \\ \end{matrix} \:\:\:\: \text{ tylko gdy X i Y są niezależne} \tag{A.65} \end{equation}\]

Odchylenie standardowe:

\[\begin{equation} \begin{matrix} \sigma_{X + Y} = \sqrt{\mathbb{V}(X) + \mathbb{V}(Y)} = \sqrt{\sigma_X^2 + \sigma_Y^2}\\ \sigma_{X - Y} = \sqrt{\mathbb{V}(X)\: \mathbf{+}\: \mathbb{V}(Y)}= \sqrt{\sigma_X^2 \mathbf{+} \sigma_Y^2} \\ \end{matrix} \:\:\:\: \text{ tylko gdy X i Y są niezależne} \tag{A.66} \end{equation}\]

A.4.4 Dodawanie \(n\) niezależnych zmiennych o jednakowych rozkładach (i.i.d.)

\(X_1, X_2, ..., X_n ~ i. i. d.\:\: \text{o średniej}\:\: \mu\:\: \text{i odchyleniu standardowym}\:\: \sigma\)

\(Y = X_1 + X_2 + ... + X_n\)

Wartość oczekiwana:

\[\begin{equation} \mathbb{E}(Y)=n \mu \tag{A.67} \end{equation}\]

Wariancja:

\[\begin{equation} \sigma_Y^2 = \mathbb{V}(Y) = n \sigma^2 \tag{A.68} \end{equation}\]

Odchylenie standardowe:

\[\begin{equation} \sigma_Y = \sigma \sqrt{n} \tag{A.69} \end{equation}\]

A.5 Wnioskowanie statystyczne

A.5.1 Przedziały ufności

Estymacja średniej w populacji (z):

\[\begin{equation} \bar{x} \pm z_{\alpha/2} \frac{\sigma}{\sqrt{n}}, \:\:\:\:\:\:\:\:\: \bar{x} \pm z_{\alpha/2} \frac{s}{\sqrt{n}} \tag{A.70} \end{equation}\]

Estymacja średniej w populacji (t):

\[\begin{equation} \bar{x} \pm t_{\alpha/2} \frac{s}{\sqrt{n}}, \:\:\: df=n-1 \tag{A.71} \end{equation}\]

Estymacja proporcji w populacji (duża próba):

\[\begin{equation} \hat{p}\pm z_{\alpha/2}\sqrt{\frac{\hat{p}\hat{q}}{n}} \tag{A.72} \end{equation}\]

A.5.2 Określanie wielkości próby

Estymacja średniej w populacji (z):

\[\begin{equation} n=\left\lceil\left(\frac{z_{\alpha/2}\cdot\sigma}{{e}}\right)^2\right\rceil \tag{A.73} \end{equation}\]

Estymacja proporcji w populacji:

\[\begin{equation} n=\left\lceil\frac{({z}_{\alpha/2})^2 \cdot p \cdot q}{{e}^2}\right\rceil \tag{A.74} \end{equation}\]

A.5.3 Testy hipotez dotyczące parametru populacji

Średnia w populacji (z):

\[\begin{equation} z=\frac{\bar{x}-\mu_0}{\sigma / \sqrt{n}}, \:\:\: z\approx \frac{\bar{x}-\mu_0}{s/ \sqrt{n}} \tag{A.75} \end{equation}\]

Średnia w populacji (t):

\[\begin{equation} t= \frac{\bar{x}-\mu_0}{s/ \sqrt{n}}, \:\:\: df=n-1 \tag{A.76} \end{equation}\]

Proporcja w populacji:

\[\begin{equation} z= \frac{\hat{p}-p_0}{\sqrt{p_0 q_0/n}} \tag{A.77} \end{equation}\]

A.5.4 Testy hipotez dotyczące różnicy parametrów

Średnia w populacji (z):

\[\begin{equation} z=\frac{(\bar{x}_1-\bar{x}_2)-D_0}{\sqrt{\frac{\sigma_1^2}{n_1}+\frac{\sigma_2^2}{n_2}}} \tag{A.78} \end{equation}\]

Średnia w populacji (t) — przy założeniu jednorodności wariancji:

\[\begin{equation} \begin{split} t=\frac{(\bar{x}_1-\bar{x}_2)-D_0}{\sqrt{s_p^2 \left(\frac{1}{n_1}+\frac{1}{n_2}\right)}}, \:\:\:\:\:\: df=n_1+n_2-2 \\ s_p^2=\frac{(n_1-1)s_1^2+(n_2-1)s_2^2}{n_1+n_2-2} \end{split} \tag{A.79} \end{equation}\]

Średnia w populacji (t) — bez założenia o jednorodności wariancji:

\[\begin{equation} \begin{split} t=\frac{(\bar{x}_1-\bar{x}_2)-D_0}{\sqrt{\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}}} \\ {df'}= \frac{\left(\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}\right)^2}{\frac{\left(\frac{s_1^2}{n_1}\right)^2}{n_1-1}+\frac{\left(\frac{s_2^2}{n_2}\right)^2}{n_2-1}}\\ \end{split} \tag{A.80} \end{equation}\]

Proporcja w populacji:

\[\begin{equation} \begin{split} z=\frac{(\hat{p}_1-\hat{p}_2)-0}{\sqrt{\hat{p}\hat{q} \left(\frac{1}{n_1}+\frac{1}{n_2}\right)}} \\ {}\hat{p}_1=\frac{x_1}{n_1}, \:\: \hat{p}_2=\frac{x_2}{n_2}, \:\: \hat{p}=\frac{x_1+x_2}{n_1+n_2} \end{split} \tag{A.81} \end{equation}\]

A.5.5 Przedziały ufności dla różnicy parametrów

Średnie w populacji (z):

\[\begin{equation} (\bar{x}_1-\bar{x}_2)\pm z_{\alpha/2}{\sqrt{\frac{\sigma_1^2}{n_1}+\frac{\sigma_2^2}{n_2}}} \tag{A.82} \end{equation}\]

Średnie w populacji (t) — dla równych wariancji:

\[\begin{equation} \begin{split} (\bar{x}_1-\bar{x}_2)\pm t_{\alpha/2}{\sqrt{s_p^2 \left(\frac{1}{n_1}+\frac{1}{n_2}\right)}} \\ {df}=n_1+n_2-2 \end{split} \tag{A.83} \end{equation}\]

Średnie w populacji (t) — bez założenia jednorodności wariancji:

\[\begin{equation} \begin{split} (\bar{x}_1-\bar{x}_2)\pm t_{\alpha/2}{\sqrt{\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}}} \\ {df'}= \frac{\left(\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}\right)^2}{\frac{\left(\frac{s_1^2}{n_1}\right)^2}{n_1-1}+\frac{\left(\frac{s_2^2}{n_2}\right)^2}{n_2-1}}\\ \end{split} \tag{A.84} \end{equation}\]

Średnie w populacji — wielkość efektu (d Cohena):

\[\begin{equation} d = \frac{\bar{x}_1-\bar{x}_2}{s_p}, \tag{A.85} \end{equation}\]

Proporcja w populacji:

\[\begin{equation} (\hat{p}_1-\hat{p}_2)\pm z_{\alpha/2}{\sqrt{\frac{\hat{p}_1\hat{q}_1}{n_1}+\frac{\hat{p}_2\hat{q}_2}{n_2}}} \tag{A.86} \end{equation}\]

A.5.6 Testy hipotez dotyczące różnicy parametrów — próby zestawione w pary

Średnia w populacji (z):

\[\begin{equation} z=\frac{\bar{x}_d-D_0}{\sigma_d/\sqrt{n_d}} \tag{A.87} \end{equation}\]

Średnia w populacji (t):

\[\begin{equation} t=\frac{\bar{x}_d-D_0}{s_d/\sqrt{n_d}}, \:\:\: {df}=n_d-1 \tag{A.88} \end{equation}\]

A.5.7 Przedziały ufności dla różnicy parametrów — próby zestawione w pary

Średnia w populacji (z):

\[\begin{equation} {}\bar{x}_d\pm z_{\alpha/2}\left({\frac{\sigma_d}{\sqrt{n_d}}}\right) \tag{A.89} \end{equation}\]

Średnia w populacji (t):

\[\begin{equation} {}\bar{x}_d\pm t_{\alpha/2}\left({\frac{s_d}{\sqrt{n_d}}}\right), \:\:\: {df}=n_d-1 \tag{A.90} \end{equation}\]

A.5.8 Test chi-kwadrat

\[\begin{equation} \chi^2 = \sum_{i} \frac{(O_i-E_i)^2}{E_i} \tag{A.91} \end{equation}\]

Liczebność oczekiwana w tabeli dwudzielczej:

\[\begin{equation} \text{Liczebność oczekiwana} = \frac{\text{Liczebność wiersza} \cdot \text{Liczebność kolumny}}{\text{Liczebność całkowita}} \tag{A.92} \end{equation}\]

Wielkość efektu — V Cramera

\[\begin{equation} V = \sqrt{\frac{\chi^2}{n \cdot\text{min}(c-1, r-1)}} \tag{A.93} \end{equation}\]

A.5.9 ANOVA (jednoczynnikowa)

Zmienność między grupami:

\[\begin{equation} SSTR = \sum_{i=1}^r n_i (\bar{x}_i-\bar{x})^2;\:\:\:\:MSTR=SSTR/(r-1) \tag{A.94} \end{equation}\]

Zmienność wewnątrz grup:

\[\begin{equation} \begin{split} SSE = \sum_{j=1}^{n_1}(x_{1j}-\bar{x}_1)^2 + \sum_{j=1}^{n_2}(x_{2j}-\bar{x}_2)^2+ \dots + \sum_{j=1}^{n_r}(x_{rj}-\bar{x}_r)^2;\\MSE=SSE/(n-r) \end{split} \tag{A.95} \end{equation}\]

Statystyka testowa:

\[\begin{equation} F_{(r-1,n-r)}=\frac{MSTR}{MSE} \tag{A.96} \end{equation}\]

Wielkość efektu:

\[\begin{equation} \eta^2 = \frac{SSTR}{SSTotal} \tag{A.97} \end{equation}\]

\[\begin{equation} \omega^2 = \frac{SSTR-(r-1)\cdot MSE}{SSTotal+MSE} \tag{A.98} \end{equation}\]

\[\begin{equation} f = \sqrt{\frac{\eta^2}{1-\eta^2}} \tag{A.99} \end{equation}\]