Enkelvoudig Anova. Enkelvoudig Anova voor het vergelijken van de groepsgemiddelden



Dovnload 41.69 Kb.
Datum22.08.2016
Grootte41.69 Kb.
Enkelvoudig Anova.
Enkelvoudig Anova voor het vergelijken van de groepsgemiddelden.

De standaardvorm van de data:

Groep 1: x x x x x

Groep 2: x x x x

Groep 3: x x x x x

Groep nominaal en onafhankelijk, y afhankelijk en interval.


F-toets in Anova-model.

H0: Geen verschil Groepsgemiddelden: μ1= μ2= μ3

H1: Tenminste twee van de gemiddelden verschillen.
Anovamodel:

Bron df SS MS F significance

Between I-1 SSG MSG=SSG/I-1 MSG/MSE p-waarde

Within N-I SSE MSE=SSE/N-I

C.Total N-1 SST
N= aantal waarnemingen in de steekproef

I= aantal groepen in de steekproef

n= aantal waarnemingen per Groep

SSG= Σ n * (groepsgemiddelde – totaalgemiddelde)2

SSE= Σ(n - 1) * s2 van de Groep

s2POOLED= MSE

SST= SSG + SSE en ook: SST= Σ(losse y - steekproefgemiddelde)2

F* in F-tabel met df1=I-1 en df2=N-I

F > F* en de H0 wordt verworpen

p-waarde < α en de H0 wordt verworpen (p-waarde is gegeven in SPSS)


Inzichtelijk overzicht kernbegrippen.

F om na te gaan of verschil tussen behandelingen significant is.

tussen de y-waarden te verklaren.

SSG= verschillen tussen de groepsgemiddelden.

SSE= verschillen binnen de groep
Lezen van computeruitdraai.

Als sig Levene < 0,05 -> Varianties verschillen.

Als sig Anova < 0,05 -> Gemiddelden verschillen.
Assumpties Anova.

1. De varianties van de groepen zijn gelijk (homogeniteit),

dwz. gelijke spreiding rond het gemiddelde in alle groepen.

- Testen met Levene.

- Vuistregel: OK als grootste s minder dan 2x zo groot als kleinste s.
2. Normaal verdeeld, dwz. symmetrische spreiding rond het gemiddelde

met de meeste uitkomsten in de buurt van het gemiddelde.

Als Q-plot rechte lijn: OK.

Sowieso OK als n > 10.


3. Waarnemingen onafhankelijk,

bijv. tieners niet vragen in een groepje laten beantwoorden.

Anova Robuust, dwz. afwijking van de assumpties weinig invloed

op conclusies, muv. 3: waarnemingen moeten onafhankelijk zijn.



Contrasten.
Contrast c (ψ).

Contrast toets als vooraf bepaald= a priori= planned.

Anova hoeft niet significant te zijn.
Contrasten zijn om groepsgemiddelden te vergelijken.

a1 * 1 + a2 * 2 -> is contrast als a1 + a2= 0

Schatting van contrast c met groepsgemiddelden.

SEcontrast= sPOOLED * √∑(a2/n)

sPOOLED = √MSE uit Anova-tabel

a zijn de getalletjes in het contrast

n is het aantal waarnemingen per groep
t-toets voor contrast.

H0: Contrast = 0

H1: Contrast ≠ 0
schatting contrast c

t=

SEcontrast

t* in t-tabel met df=N-I (I=aantal groepen).


Nadeel: met 1 toets is foutkans α=0,05 opgebruikt.

Met elke volgende toets neemt de totale foutkans verder toe:

Totale foutkans αFAM= 1 - (1-α)k met k=aantal toetsen

Voordeel: meer power dan Anova


Toetsen met interval.

Interval: contrast c  t* * SEcontrast

Als contrast=0 niet in interval -> H0 verwerpen.
Achteraf vergelijken van gemiddelden= multipele vergelijkingen.

Mag alleen als Anova significant.

Multipele vergelijkingen als achteraf bepaald: a posteriori, Post Hoc

Mogelijke toetsen: LSD, Bonferroni, Tukey


LSD: Vaste foutkans α. Als meerdere toetsen loopt αFAM snel op.
Bonferroni: t-tabel met α/k met k=aantal toetsen.

Tukey: t**-waarde die ervoor zorgt dat je alle gemiddelden

kan vergelijken met totale foutkans α=0,05.


Toets met interval en Minimum Significance Difference.

MSD: t** * sPOOLED * √(1/n1 + 1/n2)

t** is weer verschillend voor LSD, Bonferroni en Tukey.

(Mean Groep 1 - Mean Groep 2) > MSD ->

H0 dat groepen gelijk zijn verwerpen.
A priori meer power dan a posteriori.

Logica: Als je vooraf een voorspelling doet en je onderzoek bevestigt je voorspelling, dan is dat zeer overtuigend.

Als je eerst allerlei data verzamelt en je komt dan met een stelling die precies past bij je data, dan is dat veel minder overtuigend.

Apriori met contrasten meer power dan F-Anova.



Tweeweg Anova.
De standaardvorm van de data:

B1 B2 B3

A1 x x x x x x

A2 x x x x x x
F-toets in Anova-model.

H0: Alle A-gemiddelden gelijk

H0: Alle B-gemiddelden gelijk

H0: Geen interactie

Hoofdeffecten A en B + interactie-effect.
Source df SS MS F sig

GROEP JK-1 SSG SSG/JK-1 MSG/MSE p-value

A J-1 SSA SSA/J-1 MSA/MSE p-value

B K-1 SSB SSB/K-1 MSB/MSE p-value

AB (J-1)(K-1) SSAB SSAB/(J-1)(K-1) MSAB/MSE p-value

ERROR N-JK SSE SSE/N-JK

C.Total N-1 SST
N= aantal waarnemingen in de steekproef

J= aantal A-klassen

K= aantal B-klassen

n= aantal waarnemingen per cel

SSG= SSA + SSB + SSAB

SST= SSA + SSB + SSAB + SSE

F* in F-tabel met df1=J-1, K-1 of (J-1)(K-1) en df2=N-JK

F > F* en de H0 wordt verworpen

p-value < α en de H0 wordt verworpen
Interactie.

Interactie treedt op als een combinatie van A en B een apart effect heeft bovenop de hoofdeffecten A en B.

Voorbeeld: Dosis valium heeft effect. Dosis alcohol heeft effect. De combinatie van valium en alcohol heeft extra effect bovenop de 2 effecten afzonderlijk.
Voordelen van 2-weg Anova.

- Je test A, gecorrigeerd voor de invloed van de verscholen variabele B.

- Je kunt interactie nagaan.

- Efficiënter want preciezere schatting en minder proefpersonen.

- Lagere error variantie.
De celgemiddelden in een figuurtje.

- Als lijntje pieken en dalen heeft -> A-effect.

- Als lijntje hoger ligt -> B-effect.

- Als lijntjes niet parallel -> Interactie






B2 B1



B1

B2


A1 A2 A3 A1 A2 A3 A1 A2 A3
ECO, Regressie.
Het lineaire model.

y = b0 + b1 * x1

Doel Model is voorspellen en verklaren van y.

Residu= y- y= gemeten y – geschatte y= afwijking punt van lijntje.

De lijn wordt zo geschat dat ∑residuen2 wordt geminimaliseerd

=kleinste kwadratenmethode

Het model begint ergens: (intercept=b0) en heeft richting: (helling=b1).

b1 is effect van x1 op y als x1 met 1 punt stijgt.


Model SS df MS F sig

Regression SSM 1 MSM=SSM/1 MSM/MSE p-waarde

Residual SSE n-2 MSE=SSE/n-2

Total SST n-1 MST=SST/n-1

aantal verklarende variabelen=1 (b0 niet meetellen, simpel p=1)

SSM= ∑(schatting - gemiddelde)2= ∑(y - y)2

SSE= ∑(meting - schatting )2= ∑(y - y)2

SST= ∑(meting - gemiddelde)2= ∑(y - y)2


MSE= s2 en MST= s2y

Verschil s en sy:

s =gemiddelde afwijking losse punten met lijntje.

sY =gemiddelde afwijking losse punten met gemiddelde y.


Variance-Accounted-For simple: R2= rxy2 = SSM/SST
F-Modeltoets voor hele Model:

H0: R2=0

Als p-waarde < α -> H0 verwerpen.

Of met F=MSM/MSE met F-tabel met df1=1 en df2=n-2

Voor testen: t2=F en t*2=F*
Coefficients:

Model Std. Error t sig

Constant b0 se(b0) b0/se(b0)

X1 b1 se(b1) b1/se(b1) p-waarde


t-toets voor 1 predictor: β1=0

H0:β=0, als p-waarde < α -> H0 verwerpen.

Als eenzijdig alternatief, SIG in SPSS delen door 2

Of: t= b/seb met t-tabel: df=n-2


Betrouwbaarheidsintervallen voor β.

b ± t* . seb met t* in t-tabel met df=n-2


Betrouwbaarheidsinterval voor gemiddelde μy: μy ± t* * Sμ

Voorspellingsinterval voor 1 losse waarneming y: y ± t* * Sy

t* in t-tabel met df=n-2 _

- Foutmarge kleiner als x dichter bij x.

- Foutmarge bij gemiddelde kleiner dan bij losse waarneming (=meer risico).


Rekenformules:

sy

b1= rxy *

sx


_ _

b0= y - b1 * x




∑e2

s2=



n-2





De regressielijn als reeks van gemiddelde.

Elke waarde van X heeft een gemiddelde µy.

Gemeten Y liggen normaal verdeeld rond dat gemiddelde µy.

µy= β0 + β1x




Overzicht van het toetsen.
1. Toetsen met betrouwbaarheidinterval.

Een btbhi is alles wat de H0 mag zijn:

H0 ligt in het btbhi en wordt niet verworpen.

Voorbeeld: μ=10 en btbhi (9, 13) en de H0 wordt niet verworpen.

H0 ligt niet in het btbhi en wordt verworpen.

Voorbeeld: μ=10 en btbhi (6, 9) en de H0 wordt verworpen.


2. Toetsen met p-waarde en Statistische Significantie α.

Uitgangspunt: H0 is waar.

De p-waarde is de waarschijnlijkheid van een uitkomst als de H0 waar is.

p-waarde is oppervlakte in de staart.

Als de p-waarde < α -> H0 verwerpen.

Als de p-waarde > α -> H0 niet verwerpen.

In SPSS kan je p-waarde aflezen.

Bij eenzijdige t-toets -> p-waarde SPSS door 2 delen.


Significantie α.

Uitgangspunt: H0 is waar.

α is de kans dat een ware H0 wordt verworpen.

Ware H0 verwerpen= Type-I fout.

α het liefst 0, maar in de praktijk meestal 0,05.

α=0,05 betekent maximaal 5% kans dat ware H0 wordt verworpen.


- Toets voor correlatiecoëfficiënt ρ.

Geval 1.

H0: ρ = 0

Ha: ρ <,≠,> 0
t* in t-tabel met df=n-2


r*√n-2


t= √( )

√1-r2
Geval 2.

H0: ρ = ρ0 (=ander getal dan 0)

Ha: ρ <,≠,> ρ0 (=ander getal dan 0)
z* in z-tabel of onderste regel t-tabel
rz – ρz

z=



1/√n-3
Fisher’s Z-transformatie van r naar rz en van ρ naar ρz

1+r


½*ln( )

1-r


Fisher z transformatie omdat r niet normaal verdeeld is en zr wel.
- Interval voor het correlatiecoëfficiënt ρ en zρ.
rz ± z* * 1/√n-3 -> (L, R)
Je kan interval weer terugrekenen naar ρ:

Linkerkant interval:

e(2*L) - 1

e(2*L) + 1


Rechterkant interval:

e(2*R) - 1



e(2*R) + 1







De database wordt beschermd door het auteursrecht ©opleid.info 2017
stuur bericht

    Hoofdpagina