Rozdział 16 Testowanie hipotez dla dwóch średnich

16.1 Testowanie dwóch średnich — rozkład z próby

Dość często się zdarza, że testujemy nie jedną, a dwie populacje i interesuje nas różnica między średnimi (\(\mu_1-\mu_2\)).

Statystyką umożliwiającą szacowanie i testowanie jest różnica między średnimi z próby \(\bar{x}_1-\bar{x}_2\).

Zmienna \(\bar{X}_1-\bar{X}_2\) ma rozkład o średniej (\(\mu_1-\mu_2\)).

Jeżeli dwie próby są niezależne, to zmienna \(\bar{X}_1-\bar{X}_2\) ma rozkład o odchyleniu standardowym \(\sigma_{(\bar{X}_1-\bar{X}_2)}=\sqrt{\frac{\sigma_1^2}{n_1}+\frac{\sigma_2^2}{n_2}}\).

Jeżeli rozkład zmiennych \(X_1\) i \(X_2\) w populacjach (zmiennych, z których liczone są średnie) jest normalny, to powyższa statystyka ma rozkład normalny.

Jeżeli próby są odpowiednio duże, centralne twierdzenie graniczne pozwoli nam założyć, że powyższa statystyka ma rozkład w przybliżeniu normalny.

16.2 Test dwóch średnich oparty na statystyce \(z\)

  1. W teście dwóch średnich hipoteza zerowa brzmi, że różnica między średnimi w populacjach, z których pobieramy dwie próby, wynosi \(D_0\) (bardzo często hipotezą zerową jest to, że nie ma różnicy, czyli \(D_0=0\)):

\[ H_0: \mu_1-\mu_2 = D_0 \]

  1. Mamy trzy opcje hipotezy alternatywnej.
  • W teście dwustronnym:

\[H_A: \mu_1-\mu_2 \ne D_0\]

  • W teście lewostronnym:

\[H_A: \mu_1-\mu_2 < D_0 \]

  • W teście prawostronnym:

\[H_A: \mu_1-\mu_2 > D_0 \]

Jeżeli \(D_0=0\), hipotezy powyższe można zapisać \(H_A:\mu_1\ne\mu_2\), \(H_A:\mu_1<\mu_2\) i \(H_A:\mu_1>\mu_2\), a hipotezę zerową \(H_0: \mu_1=\mu_2\).

  1. Statystyka testowa \(z\):

\[z = \frac{(\bar{x}_1-\bar{x}_2)-D_0}{\sqrt{\sigma_1^2/n_1 +\sigma_2^2/n_2}}\:\:\text{ lub }\:\: z\approx\frac{(\bar{x}_1-\bar{x}_2)-D_0}{\sqrt{s_1^2/n_1 +s_2^2/n_2}}, \tag{16.1}\]

gdzie \(\bar{x}_i\) to średnia z próby \(i\), \(D_0\) to zakładana w hipotezie zerowej wartość różnicy między średnimi w dwóch populacjach, \(\sigma_i\) to odchylenie standardowe w populacji \(i\) (w tych przypadkach, kiedy jest znane), \(s_i\) to odchylenie standardowe z próbki \(i\) pobranej z populacji \(i\), a \(n_i\) to liczebność próbki \(i\).

  1. Obszar odrzucenia dobieramy tak, jak w innych testach \(z\).

  2. Należy pamiętać, że założeniem testu jest to, że pobrane próbki wylosowano niezależnie z dwóch badanych populacji (procesów). Warunkiem stosowania testu jest również to, żeby obie próby były wystarczająco duże (w praktyce \(n_1\ge 30\) i \(n_2\ge 30\)).

Uwaga! Test można stosować również dla małych prób, jeżeli znamy wartości \(\sigma\) (co zdarza się rzadko, ale czasem się zdarza) i dodatkowo rozkład cechy w populacjach jest normalny.

16.3 Test dwóch średnich \(t\)

Dla małych prób często zakładamy jednorodność wariancji, to znaczy przyjmujemy, że obie próby mają takie same wariancje (i odchylenia standardowe). W takiej sytuacji jesteśmy w stanie wyznaczyć (oszacować) wariancję zbiorczą:

\[ s_p^2=\frac{(n_1-1)s_1^2+(n_2-1)s_2^2}{n_1+n_2-2} \tag{16.2}\]

  1. W tym teście hipotezy zerowa i alternatywna mogą być sformułowane tak samo, jak w teście \(z\).

  2. Statystyka testowa \(t\):

\[t=\frac{(\bar{x}_1-\bar{x}_2)-D_0}{\sqrt{s_p^2 \left(\frac{1}{n_1}+\frac{1}{n_2}\right)}} \tag{16.3}\]

  1. Obszar odrzucenia ustalamy tak samo, jak w innych testach \(t\). Przyjmujemy liczbę stopni swobody \(n_1+n_2-2\).

  2. Test \(t\) opisany w tej części stosujemy, jeżeli próbki są losowe i dobrane niezależnie z dwóch badanych populacji. Powinniśmy założyć, że rozkład cech w populacjach jest normalny (lub przynajmniej zbliżony do normalnego) oraz że wariancje w obu populacjach są takie same. Analogiczne założenia stosujemy, kiedy wyznaczamy przedziały ufności z wykorzystaniem statystyki t.

Uwaga! Założenie o jednorodności wariancji jesteśmy w stanie uchylić, w takiej sytuacji możemy skorzystać ze wzoru Welcha–Satterthwaite'a (16.7).

16.4 Próby zestawione w pary

Zdarza się, że różnicę między średnimi możemy oszacować na podstawie prób zestawionych w pary. Mówimy czasem w takiej sytuacji o próbach „zależnych” (np. „test dla prób zależnych”).

Przykłady:

  • Różnica w średnim spalaniu paliwa w mieście i poza miastem — każda para obserwacji to para wyników uzyskanych dla tego samego pojazdu.

  • Różnica w średniej szybkości czytania przed kursem i po kursie — każda para obserwacji to para wyników dla tego samego uczestnika uzykana przed i po kursie.

W takiej sytuacji wzory i procedury, z których korzystamy są analogiczne do tych, które stosujemy dla testu jednej średniej. Różnicę w każdej parze traktujemy jako pojedynczą obserwację.

Ponieważ test dla prób zestawionych w pary jest silniejszy niż test dla prób niezależnych, niekiedy usiłuje się stworzyć takie pary nawet wtedy, kiedy nie są one naturalne. Na przykład porównuje się średnie zarobki mężczyzn i kobiet tworząc pary osób o podobnych kompetencjach i doświadczeniu albo porównuje się średnie ceny w dwóch sieciach sklepów dobierając pary sklepów położonych obok siebie. Ważne jest, żeby takie pary stworzyć przed przeprowadzeniem badania (dobieranie par post factum jest nieuzasadnione i intelektualnie nieuczciwe).

16.5 Wzory

16.5.1 Przedziały ufności dla różnicy parametrów — wzory

Średnie w populacjach (z):

\[\begin{equation} (\bar{x}_1-\bar{x}_2)\pm z_{\alpha/2}{\sqrt{\frac{\sigma_1^2}{n_1}+\frac{\sigma_2^2}{n_2}}} \tag{16.4} \end{equation}\]

Średnie w populacjach (t), przy założeniu równości wariancji:

\[\begin{equation} \begin{split} (\bar{x}_1-\bar{x}_2)\pm t_{\alpha/2}{\sqrt{s_p^2 \left(\frac{1}{n_1}+\frac{1}{n_2}\right)}} \\ {df}=n_1+n_2-2, \end{split} \tag{16.5} \end{equation}\]

gdzie \(s_p^2\) to wariancja zbiorcza:

\[\begin{equation} s_p^2=\frac{(n_1-1)s_1^2+(n_2-1)s_2^2}{n_1+n_2-2} \tag{16.6} \end{equation}\]

Jeżeli nie możemy założyć równości wariancji, stosujemy następującą formułę:

\[\begin{equation} \begin{split} (\bar{x}_1-\bar{x}_2)\pm t_{\alpha/2}{\sqrt{\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}}} \\ {df'}= \frac{\left(\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}\right)^2}{\frac{\left(\frac{s_1^2}{n_1}\right)^2}{n_1-1}+\frac{\left(\frac{s_2^2}{n_2}\right)^2}{n_2-1}}\\ \end{split} \tag{16.7} \end{equation}\]

Liczba stopni swobody (\(df'\)) uzyskana na podstawie powyższej formuły jest najczęściej ułamkowa. Korzystając z tablic (lub z arkuszy kalkulacyjnych, gdzie rozkład t jest dostępny tylko dla naturalnych \(df\)) zaokrąglamy liczbę stopni swobody do najbliższej liczby całkowitej.

16.5.2 Testy hipotez dotyczące różnicy parametrów — wzory

Średnie w populacjach (z):

\[\begin{equation} z=\frac{(\bar{x}_1-\bar{x}_2)-D_0}{\sqrt{\frac{\sigma_1^2}{n_1}+\frac{\sigma_2^2}{n_2}}} \tag{16.8} \end{equation}\]

Średnie w populacjach (t), przy założeniu równości wariancji:

\[\begin{equation} \begin{split} t=\frac{(\bar{x}_1-\bar{x}_2)-D_0}{\sqrt{s_p^2 \left(\frac{1}{n_1}+\frac{1}{n_2}\right)}}, \:\:\:\:\:\: df=n_1+n_2-2 \\ s_p^2=\frac{(n_1-1)s_1^2+(n_2-1)s_2^2}{n_1+n_2-2} \end{split} \tag{16.9} \end{equation}\]

Średnie w populacjach (t), bez założenia równości wariancji:

\[\begin{equation} \begin{split} t=\frac{(\bar{x}_1-\bar{x}_2)-D_0}{\sqrt{\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}}} \\ {df'}= \frac{\left(\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}\right)^2}{\frac{\left(\frac{s_1^2}{n_1}\right)^2}{n_1-1}+\frac{\left(\frac{s_2^2}{n_2}\right)^2}{n_2-1}}\\ \end{split} \tag{16.10} \end{equation}\]

16.5.3 Przedziały ufności dla różnicy średnich — próby zestawione w pary

Średnia róznica w populacji (z):

\[\begin{equation} {}\bar{x}_d\pm z_{\alpha/2}\left({\frac{\sigma_d}{\sqrt{n_d}}}\right) \tag{16.11} \end{equation}\]

Średnia różnica w populacji (t):

\[\begin{equation} {}\bar{x}_d\pm t_{\alpha/2}\left({\frac{s_d}{\sqrt{n_d}}}\right), \:\:\: {df}=n_d-1 \tag{16.12} \end{equation}\]

16.5.4 Testy hipotez dotyczące różnicy średnich — próby zestawione w pary

Średnia różnica w populacji (z):

\[\begin{equation} z=\frac{\bar{x}_d-D_0}{\sigma_d/\sqrt{n_d}} \tag{16.13} \end{equation}\]

Średnia różnica w populacji (t):

\[\begin{equation} t=\frac{\bar{x}_d-D_0}{s_d/\sqrt{n_d}}, \:\:\: {df}=n_d-1 \tag{16.14} \end{equation}\]

16.6 Przedziały ufności a testy

Przy analizie wyników testów oraz przedziałów ufności dla różnicy średnich można zwrócić uwagę, że:

  1. jeżeli przedział ufności zawiera w sobie zero, to test dwustronny stwierdzi brak przesłanek do odrzucenia hipotezy zerowej mówiącej, że parametr wynosi zero;

  2. jeżeli przedział ufności zawiera wyłącznie liczby dodatnie, to można wnioskować, że różnica \(\mu_1-\mu_2\) jest dodatnia, czyli \(\mu_1>\mu_2\).

  3. jeżeli przedział ufności zawiera wyłącznie liczby ujemne, to można wnioskować, że różnica \(\mu_1-\mu_2\) jest ujemna, czyli \(\mu_1<\mu_2\).

16.7 Wielkość efektu

Kiedy mówimy, że różnica między średnimi w próbach z dwóch populacji (albo inna zależność zmierzona w próbie) jest istotna statystycznie, to stwierdzamy, że ta różnica (lub inna zaobserwowana w próbie zależność) pozwala odrzucić hipotezę zerową. Statystyczna istotność nie oznacza istotności w sensie potocznym i praktycznym. W statystyce istotność praktyczną (np. siłę zależności) określa się mianem wielkości efektu.

Najczęstszą miarą wielkości efektu dla różnicy średnich jest d Cohena:

\[\begin{equation} d = \frac{\bar{x}_1-\bar{x}_2}{s_p}, \tag{16.15} \end{equation}\]

gdzie \(s_p\) to zbiorcze odchylenie standardowe, czyli pierwiastek z wariancji zbiorczej opisanej wzorem (16.2).

Interpretacja wielkości efektu zależy od dziedziny. Kierunkowo można się posłużyć skalą: 0,2 — efekt mały, 0,5 — efekt średni, 0,8 — efekt duży, 1,2 — efekt bardzo duży.

16.9 Szablony

Arkusze kalkulacyjne

Test i przedziały dla 2 średnich — arkusz Google

Test i przedziały dla 2 średnich — szablon w Excelu

Kod w R

# Test z dla dwóch średnich
# Wielkość próby 1:
n1 <- 100
# Średnia w próbie 1:
xbar1 <- 76.5
# Odchylenie standardowe w próbie 1:
s1 <- 38.0

# Wielkość próby 2:
n2 <- 100
# Średnia w próbie 2:
xbar2 <- 88.1
# Odchylenie standardowe w próbie 2:
s2 <- 40.0

# Poziom istotności:
alpha <- 0.05

# Wartość null w hipotezie zerowej (zwykle 0):
mu0 <- 0

# Hipoteza alternatywna (znak): "<"; ">"; "<>"; "≠"
alt <- "<"

# Obliczenia:
# Statystyka testowa z:
test_z <- (xbar1-xbar2-mu0)/sqrt(s1^2/n1+s2^2/n2)

# Wartość krytyczna (test z):
crit_z <- if (alt == "<") {qnorm(alpha)} else if (alt == ">") {qnorm(1-alpha)} else {qnorm(1-alpha/2)}

# Wartość p (test z):
p.value.z = if(alt == ">"){1-pnorm(test_z)} else if (alt == "<") {pnorm(test_z)} else {2*(1-pnorm(abs(test_z)))}

print(c('Średnia 1' = xbar1, 
        'Odchylenie st. 1' = s1,
        'Liczebność 1' = n1,
        'Średnia 2' = xbar2, 
        'Odchylenie st. 2' = s2,
        'Liczebność 2' = n2,
        'Hipoteza zerowa' = paste0('mu1-mu2 = ', mu0),
        'Hipoteza alt.' = paste0('mu1-mu2 ', alt, ' ', mu0),
        'Statystyka testowa z' = test_z,
        'Wartość krytyczna z' = crit_z,
        'Wartość p (test z)' = p.value.z
))
##            Średnia 1     Odchylenie st. 1         Liczebność 1            Średnia 2 
##               "76.5"                 "38"                "100"               "88.1" 
##     Odchylenie st. 2         Liczebność 2      Hipoteza zerowa        Hipoteza alt. 
##                 "40"                "100"        "mu1-mu2 = 0"        "mu1-mu2 < 0" 
## Statystyka testowa z  Wartość krytyczna z   Wartość p (test z) 
##   "-2.1024983574238"  "-1.64485362695147" "0.0177548216928505"
# Test t dla dwóch średnich
# Wielkość próby 1:
n1 <- 14
# Średnia w próbie 1:
xbar1 <- 185.2142
# Odchylenie standardowe w próbie 1:
s1 <- 7.5261

# Wielkość próby 2:
n2 <- 19
# Średnia w próbie 2:
xbar2 <- 184.8421
# Odchylenie standardowe w próbie 2:
s2 <- 5.0471

# Poziom istotności:
alpha <- 0.05

# Wartość null w hipotezie zerowej (zwykle 0):
mu0 <- 0

# Hipoteza alternatywna (znak): "<"; ">"; "<>"; "≠"
alt <- "≠"

# Założenie o równości wariancji (TRUE/FALSE):
eqvar <- FALSE

# Obliczenia
# Zbiorcze odchylenie standardowe:
sp <- sqrt(((n1-1)*s1^2+(n2-1)*s2^2)/(n1+n2-2))

# Statystyka testowa t:
test_t <- if(eqvar) {(xbar1-xbar2-mu0)/sqrt(sp^2*(1/n1+1/n2))} else {(xbar1-xbar2-mu0)/sqrt(s1^2/n1+s2^2/n2)}

# Liczba stopni swobody:
df<-if(eqvar) {n1+n2-2} else {(s1^2/n1+s2^2/n2)^2/((s1^2/n1)^2/(n1-1)+(s2^2/n2)^2/(n2-1))}

# Wartość krytyczna (test t):
crit_t <- if (alt == "<") {qt(alpha, df)} else if (alt == ">") {qt(1-alpha, df)} else {qt(1-alpha/2, df)}

# Wartość p (test t):
p.value.t = if(alt == ">"){1-pt(test_t, df)} else if (alt == ">") {pt(test_t, df)} else {2*(1-pt(abs(test_t),df))}

print(c('Średnia 1' = xbar1, 
        'Odchylenie st. 1' = s1,
        'Liczebność 1' = n1,
        'Średnia 2' = xbar2, 
        'Odchylenie st. 2' = s2,
        'Liczebność 2' = n2,
        'Hipoteza zerowa' = paste0('mu1-mu2 = ', mu0),
        'Hipoteza alt.' = paste0('mu1-mu2 ', alt, ' ', mu0),
        'Statystyka testowa t' = test_t,
        'Wartość krytyczna t' = crit_t,
        'Wartość p (test t)' = p.value.t
))
##            Średnia 1     Odchylenie st. 1         Liczebność 1            Średnia 2 
##           "185.2142"             "7.5261"                 "14"           "184.8421" 
##     Odchylenie st. 2         Liczebność 2      Hipoteza zerowa        Hipoteza alt. 
##             "5.0471"                 "19"        "mu1-mu2 = 0"        "mu1-mu2 ≠ 0" 
## Statystyka testowa t  Wartość krytyczna t   Wartość p (test t) 
##  "0.160325899672522"   "2.07753969816904"     "0.874131604618"
# Na podstawie danych (test t)

# Dwa wektory z danymi:
data1 <- c(1.2, 3.1, 1.7, 2.8, 3.0)
data2 <- c(4.2, 2.7, 3.6, 3.9)

# Zapisanie wyników testu do obiektu
# Należy wybrać wartość parametru alternative: "two.sided" (domyślnie), "less" lub "greater" oraz założenie odnośnie równości wariancji (domyślnie FALSE)
test_result <- t.test(data1, data2, alternative="two.sided", var.equal = TRUE)

# Wyświetlanie wyników testu. Można wyświetlać tylko poszczególne składowe wyniku (np. test_result$statistic)
print(test_result)
## 
##  Two Sample t-test
## 
## data:  data1 and data2
## t = -2.3887, df = 7, p-value = 0.04826
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -2.46752406 -0.01247594
## sample estimates:
## mean of x mean of y 
##      2.36      3.60

Kod w Pythonie

import math
from scipy.stats import norm

# Test z dla dwóch średnich
# Wielkość próby 1:
n1 = 100
# Średnia w próbie 1:
xbar1 = 76.5
# Odchylenie standardowe w próbie 1:
s1 = 38.0
# Wielkość próby 2:
n2 = 100
# Średnia w próbie 2:
xbar2 = 88.1
# Odchylenie standardowe w próbie 2:
s2 = 40.0
# Poziom istotności:
alpha = 0.05
# Wartość null w hipotezie zerowej (zwykle 0):
mu0 = 0
# Hipoteza alternatywna (znak): "<"; ">"; "<>"; "≠"
alt = "<"

# Obliczenia:
# Statystyka testowa z:
test_z = (xbar1 - xbar2 - mu0) / math.sqrt(s1**2 / n1 + s2**2 / n2)

# Wartość krytyczna (test z):
if alt == "<":
    crit_z = norm.ppf(alpha)
elif alt == ">":
    crit_z = norm.ppf(1 - alpha)
else:
    crit_z = norm.ppf(1 - alpha / 2)

# Wartość p (test z):
if alt == ">":
    p_value_z = 1 - norm.cdf(test_z)
elif alt == "<":
    p_value_z = norm.cdf(test_z)
else:
    p_value_z = 2 * (1 - norm.cdf(abs(test_z)))

results = {
    'Średnia 1': xbar1,
    'Odchylenie st. 1': s1,
    'Liczebność 1': n1,
    'Średnia 2': xbar2,
    'Odchylenie st. 2': s2,
    'Liczebność 2': n2,
    'Hipoteza zerowa': f'mu1-mu2 = {mu0}',
    'Hipoteza alt.': f'mu1-mu2 {alt} {mu0}',
    'Statystyka testowa z': test_z,
    'Wartość krytyczna z': crit_z,
    'Wartość p (test z)': p_value_z
}

for key, value in results.items():
    print(f"{key}: {value}")
## Średnia 1: 76.5
## Odchylenie st. 1: 38.0
## Liczebność 1: 100
## Średnia 2: 88.1
## Odchylenie st. 2: 40.0
## Liczebność 2: 100
## Hipoteza zerowa: mu1-mu2 = 0
## Hipoteza alt.: mu1-mu2 < 0
## Statystyka testowa z: -2.102498357423799
## Wartość krytyczna z: -1.6448536269514729
## Wartość p (test z): 0.017754821692850486
# Test t dla dwóch średnich
from scipy.stats import t
# Wielkość próby 1:
n1 = 14
# Średnia w próbie 1:
xbar1 = 185.2142
# Odchylenie standardowe w próbie 1:
s1 = 7.5261
# Wielkość próby 2:
n2 = 19
# Średnia w próbie 2:
xbar2 = 184.8421
# Odchylenie standardowe w próbie 2:
s2 = 5.0471
# Poziom istotności:
alpha = 0.05
# Wartość null w hipotezie zerowej (zwykle 0):
mu0 = 0
# Hipoteza alternatywna (znak): "<"; ">"; "<>"; "≠"
alt = "≠"
# Założenie o równości wariancji (True/False)
eqvar = False

# Obliczenia:
# Zbiorcze odchylenie standardowe:
sp = math.sqrt(((n1 - 1) * s1**2 + (n2 - 1) * s2**2) / (n1 + n2 - 2))

# Statystyka testowa t i liczba stopni swobody:
if eqvar:
    test_t = (xbar1 - xbar2 - mu0) / math.sqrt(sp**2 * (1/n1 + 1/n2))
    df = n1 + n2 - 2
else:
    test_t = (xbar1 - xbar2 - mu0) / math.sqrt(s1**2 / n1 + s2**2 / n2)
    df = (s1**2 / n1 + s2**2 / n2)**2 / ((s1**2 / n1)**2 / (n1 - 1) + (s2**2 / n2)**2 / (n2 - 1))

# Wartość krytyczna (test t):
if alt == "<":
    crit_t = t.ppf(alpha, df)
elif alt == ">":
    crit_t = t.ppf(1 - alpha, df)
else:
    crit_t = t.ppf(1 - alpha / 2, df)

# Wartość p (test t)
if alt == ">":
    p_value_t = 1 - t.cdf(test_t, df)
elif alt == "<":
    p_value_t = t.cdf(test_t, df)
else:
    p_value_t = 2 * (1 - t.cdf(abs(test_t), df))

results = {
    'Średnia 1': xbar1,
    'Odchylenie st. 1': s1,
    'Liczebność 1': n1,
    'Średnia 2': xbar2,
    'Odchylenie st. 2': s2,
    'Liczebność 2': n2,
    'Hipoteza zerowa': f'mu1-mu2 = {mu0}',
    'Hipoteza alt.': f'mu1-mu2 {alt} {mu0}',
    'Statystyka testowa t': test_t,
    'Wartość krytyczna t': crit_t,
    'Wartość p (test t)': p_value_t
}

for key, value in results.items():
    print(f"{key}: {value}")
## Średnia 1: 185.2142
## Odchylenie st. 1: 7.5261
## Liczebność 1: 14
## Średnia 2: 184.8421
## Odchylenie st. 2: 5.0471
## Liczebność 2: 19
## Hipoteza zerowa: mu1-mu2 = 0
## Hipoteza alt.: mu1-mu2 ≠ 0
## Statystyka testowa t: 0.16032589967252212
## Wartość krytyczna t: 2.0775396981690264
## Wartość p (test t): 0.8741316046180003
    
# Na podstawie danych (test t)
from scipy.stats import ttest_ind, t

# Dwa wektory z danymi:
data1 = [1.2, 3.1, 1.7, 2.8, 3.0]
data2 = [4.2, 2.7, 3.6, 3.9]

# Zapisanie wyników testu do obiektu
# Należy wybrać wartość parametru alternative: "two.sided" (domyślnie), "less" lub "greater" oraz założenie odnośnie równości wariancji (domyślnie FALSE)
test_result = ttest_ind(data1, data2, alternative='two-sided', equal_var=True)

print(test_result)
## TtestResult(statistic=-2.3886571085065054, pvalue=0.04826397365151946, df=7.0)

16.10 Zadania

Zadanie 16.1 (McClave and Sincich 2012) Niezależne próby losowe (po 100 obserwacji każda) są pobierane z dwóch populacji o rozkładzie normalnym z następującymi średnimi i odchyleniami standardowymi:

Populacja 1: \(\mu_1=14\), \(\sigma_1=4\)

Populacja 2: \(\mu_2=10\), \(\sigma_2=3\)

Niech \(\bar{x}_1\) i \(\bar{x}_2\) oznaczają średnie z tych dwóch prób.

  1. Podaj średnią oraz odchylenie standardowe rozkładu statystyki z próby \(\bar{X}_1\).

  2. Podaj średnią oraz odchylenie standardowe rozkładu statystyki z próby \(\bar{X}_2\).

  3. Załóżmy, że masz za zadanie obliczyć różnicę między dwiema średnimi z próby (\(\bar{x}_1\)-\(\bar{x}_2\)). Podaj średnią oraz odchylenie standardowe rozkładu zmiennej \(Y=\bar{X}_1-\bar{X}_2\).

  4. Czy statystyka Y będzie miała rozkład normalny?

Zadanie 16.2 Przedział ufności dla \(\mu_1-\mu_2\) to \((-20; 8)\). Który z poniższych wniosków otrzymamy, przeprowadzając test odpowiedniej hipotezy?

  1. \(\mu_1>\mu_2\)

  2. \(\mu_1<\mu_2\)

  3. \(\mu_1=\mu_2\)

  4. brak istotnej różnicy między średnimi.

Zadanie 16.3 Przedział ufności dla \(\mu_1-\mu_2\) to (-20; -8). Który z poniższych wniosków otrzymamy, testując odpowiednią hipotezę?

  1. \(\mu_1>\mu_2\)

  2. \(\mu_1<\mu_2\)

  3. \(\mu_1=\mu_2\)

  4. brak istotnej różnicy między średnimi.

Zadanie 16.4 (McClave and Sincich 2012) Dwie niezależne próby losowe z dwóch populacji o rozkładzie normalnym zwróciły następujące rezultaty:

Próba 1: 1,2; 3,1; 1,7; 2,8; 3,0

Próba 2: 4,2; 2,7; 3,6; 3,9

  1. Wyznacz łączną ocenę wspólnej dla obu populacji wariancji \(\sigma^2\).

  2. Czy dane dostarczają wystarczających przesłanek, żeby stwierdzić, że \(μ_2>μ_1\)? Przetestuj przy α=0,10.

  3. Znajdź 90-procentowy przedział ufności dla (\(μ_1-μ_2\)).

  4. Która z dwóch procedur wnioskowania: test hipotezy statystycznej z punktu b czy przedział ufności z punktu c dostarcza więcej informacji o (\(μ_1-μ_2\))?

Zadanie 16.5 (Aczel and Sounderpandian 2018) Producent samochodów chce ocenić wydajność silnika napędzanego nową mieszanką w porównaniu do zastosowania czystej benzyny. Podczas 100 prób odbytych przy użyciu mieszanki otrzymano średnią ocenę 76,5 (w skali od 0 do 100) z odchyleniem standardowym 38. Dla 100 prób odbytych przy użyciu benzyny średnia wyniosła 88,1, a odchylenie standardowe 40. Przeprowadź test dwustronny, przyjmując α = 0,05, a następnie wyznacz 95-procentowy przedział ufności dla różnicy między średnimi.

Zadanie 16.6 (Aczel and Sounderpandian 2018) „Active Trader” porównał zyski z inwestycji firm, stosujących dwie strategie: ogłaszania lub nie swoich wstępnych wyników. Zbadano dwie próby losowe firm, obie o liczebności 28. W pierwszej grupie średnia stopa zwrotu wyniosła 0,19%, w drugiej 0,72%. Odchylenia standardowe w obu próbach wyniosły odpowiednio 5,72% i 5,10%. Przeprowadź test równości średnich, przyjmując α = 0,01 i zbuduj 99-procentowy przedział ufności dla różnicy między średnimi. Jakie założenia trzeba było poczynić?

Zadanie 16.7 (Aczel and Sounderpandian 2018) Firma rozważa zaoferowanie swoim pracownikom jednego z dwóch pakietów świadczeń. Wybrano losową próbę pracowników, z których każdy ocenił oba pakiety w skali od 0 do 100. Porządek prezentowania obu pakietów każdemu pracownikowi w próbie był przypadkowy. Otrzymano następujące wyniki (w przypadku obu szeregów pierwsza liczba to oceny dokonane przez pierwszego pracownika, druga liczba to oceny dokonane przez drugiego pracownika, itd.):

Pakiet A: 45, 67, 63, 59, 77, 69, 45, 39, 52, 58, 70, 46, 60, 65, 59, 80

Pakiet B: 56, 70, 60, 45, 85, 79, 50, 46, 50, 60, 82, 40, 65, 55, 81, 68

Czy można twierdzić, że pracownicy preferują jeden z pakietów? Odpowiedź uzasadnij.

Zadanie 16.8 W 2022 studenci statystyki matematycznej, którzy przesłali mem mieli lepsze wyniki niż studenci, którzy mema nie przesłali.

Czy różnica była istotna statystycznie?

Jakie założenia należy przyjąć?

Dane

Zadanie 16.9 (Agresti, Franklin, and Klingenberg 2016) W pewnym badaniu spytano mężczyzn i kobiety, ile czasu tygodniowo poświęcają obowiązkom domowym. Otrzymano następujące dane:

Płeć Wielkość próby Średnia Odchylenie standardowe
Kobiety 476 33,0 21,9
Mężczyźni 496 19,9 14,6

O ile godzin średnio więcej od mężczyzn kobiety spędzały na obowiązkach domowych w próbie? Jakie jest oszacowanie tej różnicy dla populacji (podaj 95-procentowy przedział ufności)? Przeprowadź odpowiedni test pokazujący, czy średni czas poświęcany obowiązkom domowym przez kobiety jest inny niż czas poświęcany przez mężczyzn.

Literatura

Aczel, A. D., and J. Sounderpandian. 2018. Statystyka w Zarządzaniu. PWN. https://ksiegarnia.pwn.pl/Statystyka-w-zarzadzaniu,731934758,p.html.
Agresti, Alan, Christine Franklin, and Bernhard Klingenberg. 2016. Statistics: The Art and Science of Learning from Data. 4th edition. Pearson.
McClave, J. T., and T. T. Sincich. 2012. Statistics. Pearson Education. https://books.google.pl/books?id=gcYsAAAAQBAJ.