A Wzory
A.1 Podstawowe wzory rachunku prawdopodobieństwa
Suma zdarzeń („A lub B”) — zasada dodawania
Dla zdarzeń wykluczających się (rozłącznych):
P(A∪B)=P(A)+P(B)
P(A∪B∪C)=P(A)+P(B)+P(C)
Dla dowolnych zdarzeń:
P(A∪B)=P(A)+P(B)−P(A∩B)
P(A∪B∪C)=P(A)+P(B)+P(C)−P(A∩B)−P(A∩C)−P(B∩C)++P(A∩B∩C)
Iloczyn („A i B” — część wspólna, przekrój, przecięcie) — zasada mnożenia
Zdarzenia niezależne:
P(A∩B)=P(A)⋅P(B)
P(A∩B∩C)=P(A)⋅P(B)⋅P(C)
Dowolne zdarzenia:
P(A∩B)=P(A|B)⋅P(B)=P(B|A)⋅P(A)
P(A∩B∩C)=P(A|B∩C)⋅P(B|C)⋅P(C)=P(C|A∩B)⋅P(B|A)⋅P(A)=…
Prawdopodobieństwa warunkowe (A | B - „A pod warunkiem B”)
Zdarzenia niezależne:
P(A|B)=P(A);P(B|A)=P(B)
Zdarzenia dowolne:
P(A|B)=P(A∩B)P(B);P(B|A)=P(A∩B)P(A)
A.2 Kombinatoryka
A.2.1 Wariacje n elementów branych po r (kolejność ma znaczenie)
Ze zwracaniem:
Możliwości=nr
Bez zwracania:
Możliwości=n!(n−r)!
A.2.2 Kombinacje n elementów branych po r (kolejność nie ma znaczenia)
Ze zwracaniem:
\begin{equation} \text{Możliwości} = \binom{n+r-1}{r} = \frac{\left(n+r-1\right)!}{r! \left( n-1 \right)!} \tag{A.20} \end{equation}
Bez zwracania:
\begin{equation} \text{Możliwości} = \binom{n}{r} = \frac{n!}{r! \left( n-r \right)!} \tag{A.21} \end{equation}
A.3 Zmienne losowe
A.3.1 Wzory ogólne dla zmiennej dyskretnej
Wartość oczekiwana:
\begin{equation} \mu=\mathbb{E}(X)=\sum_i x_i \textbf{p}(x_i) \tag{A.22} \end{equation}
Wariancja:
\begin{equation} \sigma^2=\mathbb{V}(X)=\mathbb{E}[(X-\mu)^2]=\sum_i (x_i-\mu)^2 \textbf{p}(x_i) = \sum x_i^2 \textbf{p}(x_i)-\mu^2 \tag{A.23} \end{equation}
Odchylenie standardowe:
\begin{equation} \sigma=\sqrt{\sigma^2} \tag{A.24} \end{equation}
A.3.2 Wzory ogólne dla zmiennej ciągłej
Wartość oczekiwana:
\begin{equation} \mu=\mathbb{E}(X)=\int x f(x) dx \tag{A.25} \end{equation}
Wariancja:
\begin{equation} \sigma^2=\mathbb{V}(X)=\mathbb{E}[(X-\mu)^2]=\int (x-\mu)^2 f(x) dx = \int x^2 f(x) dx-\mu^2 \tag{A.26} \end{equation}
Odchylenie standardowe:
\begin{equation} \sigma=\sqrt{\sigma^2} \tag{A.27} \end{equation}
A.3.3 Rozkład dwumianowy
\begin{equation} \textbf{p}(x)={n\choose x}p^x q^{n-x} \text{, dla } x \in \{ 0, 1, 2, ..., n \} \tag{A.28} \end{equation}
{n\choose x} To symbol Newtona, por. (A.21), zaś q = 1 - p.
Wartość oczekiwana:
\begin{equation} \mu=np \tag{A.29} \end{equation}
Wariancja:
\begin{equation} \sigma^2= npq \tag{A.30} \end{equation}
Odchylenie standardowe:
\begin{equation} \sigma=\sqrt{npq} \tag{A.31} \end{equation}
A.3.4 Rozkład Poissona
\begin{equation} \textbf{p}(x)=\frac{\lambda^x e^{-\lambda}}{x!} \text{, dla } x \in \{ 0, 1, 2, ... \} \tag{A.32} \end{equation}
Wartość oczekiwana:
\begin{equation} \mu=\lambda \tag{A.33} \end{equation}
Wariancja:
\begin{equation} \sigma^2= \lambda \tag{A.34} \end{equation}
Odchylenie standardowe:
\begin{equation} \sigma=\sqrt{\lambda} \tag{A.35} \end{equation}
A.3.5 Rozkład hipergeometryczny
\begin{equation} \textbf{p}(x)=\frac{{r \choose x}{{N-r} \choose {n-x}}}{{N \choose n}} \text{, dla } x \in \{ max(0,n+r-N), ..., min(n,r) \} \tag{A.36} \end{equation}
Wartość oczekiwana:
\begin{equation} \mu=\frac{nr}{N} \tag{A.37} \end{equation}
Wariancja:
\begin{equation} \sigma^2 = \frac{r(N-r)n(N-n)}{N^2 (N-1)} \tag{A.38} \end{equation}
Odchylenie standardowe:
\begin{equation} \sigma=\sqrt{\sigma^2} \tag{A.39} \end{equation}
A.3.6 Rozkład jednostajny (ciągły)
\begin{equation} f(x)=\frac{1}{d-c} \text{ dla} \text{ x} \in \left[c,d\right] \text{, }\:\:\:\:\:\: f(x)=0 \text{ dla pozostałych} \tag{A.40} \end{equation}
Wartość oczekiwana:
\begin{equation} \mu=\frac{c+d}{2} \tag{A.41} \end{equation}
Wariancja:
\begin{equation} \sigma^2= \frac{(d-c)^2}{12} \tag{A.42} \end{equation}
Odchylenie standardowe:
\begin{equation} \sigma=\frac{(d-c)}{\sqrt{12}} \tag{A.43} \end{equation}
A.3.7 Rozkład wykładniczy
\begin{equation} f(x)=\lambda e^{-\lambda x}\:\:\:\:\:\:\: x \in \left[0, \infty \right) \tag{A.44} \end{equation}
Wartość oczekiwana:
\begin{equation} \mu=\frac{1}{\lambda} \tag{A.45} \end{equation}
Wariancja:
\begin{equation} \sigma^2=\frac{1}{\lambda^2} \tag{A.46} \end{equation}
Odchylenie standardowe:
\begin{equation} \sigma=\frac{1}{\lambda} \tag{A.47} \end{equation}
A.3.8 Rozkład Gaussa (normalny)
\begin{equation} f(x)=\frac{1}{\sigma \sqrt{2 \pi}} e^{-\frac{(x-\mu)^2}{2 \sigma^2}}\:\:\:\:\:\:\: x \in \left(-\infty, \infty \right) \tag{A.48} \end{equation}
Wartość oczekiwana:
\begin{equation} \mu=\mu \tag{A.49} \end{equation}
Wariancja:
\begin{equation} \sigma^2= \sigma^2 \tag{A.50} \end{equation}
Odchylenie standardowe:
\begin{equation} \sigma=\sigma \tag{A.51} \end{equation}
A.3.9 Standardowy rozkład normalny
\begin{equation} f(z)=\frac{1}{\sqrt{2 \pi}} e^{-\frac{1}{2}z^2}\text{; }\:\:\:\:\:\:\:\:\: z=\frac{x-\mu}{\sigma} \tag{A.52} \end{equation}
Wartość oczekiwana:
\begin{equation} \mu=0 \tag{A.53} \end{equation}
Wariancja:
\begin{equation} \sigma^2= 1 \tag{A.54} \end{equation}
Odchylenie standardowe:
\begin{equation} \sigma=1 \tag{A.55} \end{equation}
A.3.10 Rozkład normalny średniej z próby (przybliżenie dla dużych n)
\begin{equation} f(\bar{x})=\frac{1}{{\sigma}_{\bar{x}}\sqrt{2 \pi}} e^{-\frac{1}{2}{\left(\frac{\bar{x}-\mu}{\sigma_{\bar{x}}}\right)^2}} \tag{A.56} \end{equation}
Wartość oczekiwana:
\begin{equation} \mu_{\bar{x}}=\mu \tag{A.57} \end{equation}
Wariancja:
\begin{equation} \sigma_{\bar{x}}^2= \frac{\sigma^2}{n} \tag{A.58} \end{equation}
Odchylenie standardowe:
\begin{equation} \sigma_{\bar{x}}=\frac{\sigma}{\sqrt{n}} \tag{A.59} \end{equation}
A.4 Przekształcenia zmiennych losowych
A.4.1 Dodawanie stałej do zmiennej
Wartość oczekiwana:
\begin{equation} \mathbb{E}(X + a) = \mathbb{E}(X) + a \tag{A.60} \end{equation}
Wariancja:
\begin{equation} \mathbb{V}(X + a) = \mathbb{V}(X) \tag{A.61} \end{equation}
A.4.2 Mnożenie zmiennych przez stałą
Wartość oczekiwana:
\begin{equation} \mathbb{E}(k\cdot X)=k \cdot \mathbb{E}(X) \tag{A.62} \end{equation}
Wariancja:
\begin{equation} \mathbb{V}(k \cdot X) = k^2 \cdot \mathbb{V}(X) \tag{A.63} \end{equation}
A.4.3 Dodawanie zmiennych losowych
Wartość oczekiwana:
\begin{equation} \begin{matrix} \mathbb{E}(X + Y)=\mathbb{E}(X) + \mathbb{E}(Y) \\ \mathbb{E}(X - Y)=\mathbb{E}(X) - \mathbb{E}(Y) \\ \end{matrix} \:\:\:\: \text{ nawet gdy X i Y są zależne} \tag{A.64} \end{equation}
Wariancja:
\begin{equation} \begin{matrix} \mathbb{V}(X + Y) = \mathbb{V}(X) + \mathbb{V}(Y) \\ \mathbb{V}(X - Y) = \mathbb{V}(X)\: \mathbf{+}\: \mathbb{V}(Y) \\ \end{matrix} \:\:\:\: \text{ tylko gdy X i Y są niezależne} \tag{A.65} \end{equation}
Odchylenie standardowe:
\begin{equation} \begin{matrix} \sigma_{X + Y} = \sqrt{\mathbb{V}(X) + \mathbb{V}(Y)} = \sqrt{\sigma_X^2 + \sigma_Y^2}\\ \sigma_{X - Y} = \sqrt{\mathbb{V}(X)\: \mathbf{+}\: \mathbb{V}(Y)}= \sqrt{\sigma_X^2 \mathbf{+} \sigma_Y^2} \\ \end{matrix} \:\:\:\: \text{ tylko gdy X i Y są niezależne} \tag{A.66} \end{equation}
A.4.4 Dodawanie n niezależnych zmiennych o jednakowych rozkładach (i.i.d.)
X_1, X_2, ..., X_n ~ i. i. d.\:\: \text{o średniej}\:\: \mu\:\: \text{i odchyleniu standardowym}\:\: \sigma
Y = X_1 + X_2 + ... + X_n
Wartość oczekiwana:
\begin{equation} \mathbb{E}(Y)=n \mu \tag{A.67} \end{equation}
Wariancja:
\begin{equation} \sigma_Y^2 = \mathbb{V}(Y) = n \sigma^2 \tag{A.68} \end{equation}
Odchylenie standardowe:
\begin{equation} \sigma_Y = \sigma \sqrt{n} \tag{A.69} \end{equation}
A.5 Wnioskowanie statystyczne
A.5.1 Przedziały ufności
Estymacja średniej w populacji (z):
\begin{equation} \bar{x} \pm z_{\alpha/2} \frac{\sigma}{\sqrt{n}}, \:\:\:\:\:\:\:\:\: \bar{x} \pm z_{\alpha/2} \frac{s}{\sqrt{n}} \tag{A.70} \end{equation}
Estymacja średniej w populacji (t):
\begin{equation} \bar{x} \pm t_{\alpha/2} \frac{s}{\sqrt{n}}, \:\:\: df=n-1 \tag{A.71} \end{equation}
gdzie s to odchylenie standardowe z próby (pierwiastek wariancji z próby): \begin{equation} s = \sqrt{s^2}; \:\:\:\:\:\: s^2 = \frac{\sum_{i=1}^n\left(x_i-\bar{x}\right)^2}{n-1} \tag{A.72} \end{equation}
Estymacja proporcji w populacji (duża próba):
\begin{equation} \hat{p}\pm z_{\alpha/2}\sqrt{\frac{\hat{p}\hat{q}}{n}} \tag{A.73} \end{equation}
A.5.2 Określanie wielkości próby
Estymacja średniej w populacji (z):
\begin{equation} n=\left\lceil\left(\frac{z_{\alpha/2}\cdot\sigma}{{e}}\right)^2\right\rceil \tag{A.74} \end{equation}
Estymacja proporcji w populacji:
\begin{equation} n=\left\lceil\frac{({z}_{\alpha/2})^2 \cdot p \cdot q}{{e}^2}\right\rceil \tag{A.75} \end{equation}
A.5.3 Testy hipotez dotyczące parametru populacji
Średnia w populacji (z):
\begin{equation} z=\frac{\bar{x}-\mu_0}{\sigma / \sqrt{n}}, \:\:\: z\approx \frac{\bar{x}-\mu_0}{s/ \sqrt{n}} \tag{A.76} \end{equation}
Średnia w populacji (t):
\begin{equation} t= \frac{\bar{x}-\mu_0}{s/ \sqrt{n}}, \:\:\: df=n-1 \tag{A.77} \end{equation}
Proporcja w populacji:
\begin{equation} z= \frac{\hat{p}-p_0}{\sqrt{p_0 q_0/n}} \tag{A.78} \end{equation}
A.5.4 Testy hipotez dotyczące różnicy parametrów
Średnia w populacji (z):
\begin{equation} z=\frac{(\bar{x}_1-\bar{x}_2)-D_0}{\sqrt{\frac{\sigma_1^2}{n_1}+\frac{\sigma_2^2}{n_2}}}, \:\:\: z\approx \frac{(\bar{x}_1-\bar{x}_2)-D_0}{\sqrt{\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}}} \tag{A.79} \end{equation}
Średnia w populacji (t) — przy założeniu jednorodności wariancji:
\begin{equation} \begin{split} t=\frac{(\bar{x}_1-\bar{x}_2)-D_0}{\sqrt{s_p^2 \left(\frac{1}{n_1}+\frac{1}{n_2}\right)}}, \:\:\:\:\:\: df=n_1+n_2-2 \\ s_p^2=\frac{(n_1-1)s_1^2+(n_2-1)s_2^2}{n_1+n_2-2} \end{split} \tag{A.80} \end{equation}
(s_p^2 to wariancja zbiorcza)
Średnia w populacji (t) — bez założenia o jednorodności wariancji:
\begin{equation} \begin{split} t=\frac{(\bar{x}_1-\bar{x}_2)-D_0}{\sqrt{\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}}} \\ {df'}= \frac{\left(\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}\right)^2}{\frac{\left(\frac{s_1^2}{n_1}\right)^2}{n_1-1}+\frac{\left(\frac{s_2^2}{n_2}\right)^2}{n_2-1}}\\ \end{split} \tag{A.81} \end{equation}
Proporcja w populacji:
\begin{equation} \begin{split} z=\frac{(\hat{p}_1-\hat{p}_2)-0}{\sqrt{\hat{p}\hat{q} \left(\frac{1}{n_1}+\frac{1}{n_2}\right)}} \\ {}\hat{p}_1=\frac{x_1}{n_1}, \:\: \hat{p}_2=\frac{x_2}{n_2}, \:\: \hat{p}=\frac{x_1+x_2}{n_1+n_2} \end{split} \tag{A.82} \end{equation}
A.5.5 Przedziały ufności dla różnicy parametrów
Średnie w populacji (z):
\begin{equation} (\bar{x}_1-\bar{x}_2)\pm z_{\alpha/2}{\sqrt{\frac{\sigma_1^2}{n_1}+\frac{\sigma_2^2}{n_2}}}, \:\:\: (\bar{x}_1-\bar{x}_2)\pm z_{\alpha/2}{\sqrt{\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}}} \tag{A.83} \end{equation}
Średnie w populacji (t) — dla równych wariancji:
\begin{equation} \begin{split} (\bar{x}_1-\bar{x}_2)\pm t_{\alpha/2}{\sqrt{s_p^2 \left(\frac{1}{n_1}+\frac{1}{n_2}\right)}} \\ {df}=n_1+n_2-2 \end{split} \tag{A.84} \end{equation}
Średnie w populacji (t) — bez założenia jednorodności wariancji:
\begin{equation} \begin{split} (\bar{x}_1-\bar{x}_2)\pm t_{\alpha/2}{\sqrt{\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}}} \\ {df'}= \frac{\left(\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}\right)^2}{\frac{\left(\frac{s_1^2}{n_1}\right)^2}{n_1-1}+\frac{\left(\frac{s_2^2}{n_2}\right)^2}{n_2-1}}\\ \end{split} \tag{A.85} \end{equation}
Średnie w populacji — wielkość efektu (d Cohena):
\begin{equation} \begin{split} d = \frac{\bar{x}_1-\bar{x}_2}{s_p} \\ \\ s_p=\sqrt{\frac{(n_1-1)s_1^2+(n_2-1)s_2^2}{n_1+n_2-2}} \end{split} \tag{A.86} \end{equation}
Proporcja w populacji:
\begin{equation} (\hat{p}_1-\hat{p}_2)\pm z_{\alpha/2}{\sqrt{\frac{\hat{p}_1\hat{q}_1}{n_1}+\frac{\hat{p}_2\hat{q}_2}{n_2}}} \tag{A.87} \end{equation}
A.5.6 Testy hipotez dotyczące różnicy parametrów — próby zestawione w pary
Średnia w populacji (z):
\begin{equation} z=\frac{\bar{x}_d-D_0}{\sigma_d/\sqrt{n_d}},\:\:\:z\approx \frac{\bar{x}_d-D_0}{s_d/\sqrt{n_d}} \tag{A.88} \end{equation}
Średnia w populacji (t):
\begin{equation} t=\frac{\bar{x}_d-D_0}{s_d/\sqrt{n_d}}, \:\:\: {df}=n_d-1 \tag{A.89} \end{equation}
A.5.7 Przedziały ufności dla różnicy parametrów — próby zestawione w pary
Średnia w populacji (z):
\begin{equation} {}\bar{x}_d\pm z_{\alpha/2}\left({\frac{\sigma_d}{\sqrt{n_d}}}\right) ,\:\:\:{}\bar{x}_d\pm z_{\alpha/2}\left({\frac{s_d}{\sqrt{n_d}}}\right) \tag{A.90} \end{equation}
Średnia w populacji (t):
\begin{equation} {}\bar{x}_d\pm t_{\alpha/2}\left({\frac{s_d}{\sqrt{n_d}}}\right), \:\:\: {df}=n_d-1 \tag{A.91} \end{equation}
A.5.8 Test chi-kwadrat
\begin{equation} \chi^2 = \sum_{i} \frac{(O_i-E_i)^2}{E_i} \tag{A.92} \end{equation}
Liczebność oczekiwana w tabeli dwudzielczej:
\begin{equation} \text{Liczebność oczekiwana} = \frac{\text{Liczebność wiersza} \cdot \text{Liczebność kolumny}}{\text{Liczebność całkowita}} \tag{A.93} \end{equation}
Wielkość efektu — V Cramera:
\begin{equation} V = \sqrt{\frac{\chi^2}{n \cdot\text{min}(c-1, r-1)}} \tag{A.94} \end{equation}
A.5.9 ANOVA (jednoczynnikowa)
Zmienność między grupami:
\begin{equation} SSTR = \sum_{i=1}^r n_i (\bar{x}_i-\bar{x})^2;\:\:\:\:MSTR=SSTR/(r-1) \tag{A.95} \end{equation}
Zmienność wewnątrz grup:
\begin{equation} \begin{split} SSE = \sum_{j=1}^{n_1}(x_{1j}-\bar{x}_1)^2 + \sum_{j=1}^{n_2}(x_{2j}-\bar{x}_2)^2+ \dots + \sum_{j=1}^{n_r}(x_{rj}-\bar{x}_r)^2;\\MSE=SSE/(n-r) \end{split} \tag{A.96} \end{equation}
Statystyka testowa:
\begin{equation} F_{(r-1,n-r)}=\frac{MSTR}{MSE} \tag{A.97} \end{equation}
Wielkość efektu:
\begin{equation} \eta^2 = \frac{SSTR}{SSTotal} \tag{A.98} \end{equation}
\begin{equation} \omega^2 = \frac{SSTR-(r-1)\cdot MSE}{SSTotal+MSE} \tag{A.99} \end{equation}
\begin{equation} f = \sqrt{\frac{\eta^2}{1-\eta^2}} \tag{A.100} \end{equation}
A.6 Regresja liniowa
A.6.1 Model
Regresja prosta:
y_i = \beta_0 + \beta_1 x_i + \varepsilon_i, \tag{A.101}
\mu_{y_i} = \beta_0 + \beta_1 x_{i} \tag{A.102}
Regresja wieloraka:
y_i = \beta_0 + \beta_1 x_{i1} + \beta_2 x_{i2} + \dots + \beta_k x_{ik} + \varepsilon_i, \tag{A.103}
\mu_{y_i} = \beta_0 + \beta_1 x_{i1} + \beta_2 x_{i2} + \dots + \beta_k x_{ik} \tag{A.104}
A.6.2 Estymatory punktowe
Regresja prosta:
\widehat{\beta}_1 = \frac{\sum_{i=1}^{n} (x_i - \bar{x})(y_i - \bar{y})}{\sum_{i=1}^{n} (x_i - \bar{x})^2}, \tag{A.105}
\widehat{\beta}_0 = \bar{y} - \widehat{\beta}_1 \bar{x}, \tag{A.106} \widehat{\sigma}_\varepsilon = \sqrt{\widehat{\sigma}_\varepsilon^2} \tag{A.107} \widehat{\sigma}_\varepsilon^2 = \frac{\sum_i(y_i-\hat{y}_i)^2}{n-2} \tag{A.108}
Regresja wieloraka:
\hat{\boldsymbol{\beta}}=\left(\mathbf{X}^\top\mathbf{X}\right)^{-1}\mathbf{X}^\top \mathbf{y}, \tag{A.109}
\widehat{\sigma}_\varepsilon^2 = \frac{\sum_i(y_i-\hat{y}_i)^2}{n-k-1} \tag{A.110}
A.6.3 Przedziały ufności dla współczynników
Regresja prosta:
\hat{\beta}_j \pm t_{\alpha/2} \cdot \widehat{SE}(\hat{\beta}_j), \tag{A.111}
\widehat{SE}(\beta_1) = \frac{\widehat{\sigma}_\varepsilon}{\sqrt{\sum_i (x_i - \bar{x})^2}}, \tag{A.112}
\widehat{SE}(\beta_0) = \widehat{\sigma}_\varepsilon \sqrt{\frac{1}{n} + \frac{\bar{x}^2}{\sum_i (x_i - \bar{x})^2}} \tag{A.113}
Regresja wieloraka:
\hat{\beta}_j \pm t_{\alpha/2} \cdot \widehat{SE}(\hat{\beta}_j), \tag{A.114}
\widehat{SE}(\hat{\beta}_j) = \widehat{\sigma}_\varepsilon \sqrt{\left[\left( \mathbf{X}^\top\mathbf{X}\right)^{-1} \right]_{jj}} \tag{A.115}
A.6.4 Przedziały ufności dla wartości oczekiwanej zmiennej objaśnianej
Regresja prosta:
\hat{y}_h \pm t_{\alpha/2} \cdot \widehat{SE}(\hat{y}_h), \\ \widehat{SE}(\hat{y}_h) = \widehat{\sigma}_\varepsilon\sqrt{\frac{1}{n}+\frac{(x_h-\bar{x})^2}{\sum_i(x_i-\bar{x})^2}}, \tag{A.116}
Regresja wieloraka:
\hat{y}_h \pm t_{\alpha/2} \cdot \widehat{SE}(\hat{y}_h), \\ \widehat{SE}(\hat{y}_h) = \widehat{\sigma}_\varepsilon\sqrt{\mathbf{x}_h^\top (\mathbf{X}^\top\mathbf{X})^{-1}\mathbf{x}_h}. \tag{A.117}
A.6.5 Przedziały predykcji
Regresja prosta:
\hat{y}_h\pm t_{\alpha/2}\hat{\sigma}_\varepsilon\sqrt{1+\frac{1}{n}+\frac{(x_h-\bar{x})^2}{\sum_i(x_i-\bar{x})^2}}, \tag{A.118}
Regresja wieloraka:
\hat{y}_h\pm t_{\alpha/2}\hat{\sigma}_\varepsilon\sqrt{1+\mathbf{x}_h^\top (\mathbf{X}^\top\mathbf{X})^{-1}\mathbf{x}_h} \tag{A.119}