P. 1
Epidemiologie & Biostatistiek III Samenvatting

Epidemiologie & Biostatistiek III Samenvatting

|Views: 32|Likes:
Published by Stuvia.com

More info:

Published by: Stuvia.com on Jul 18, 2013
Copyright:Traditional Copyright: All rights reserved
List Price: $3.95 Buy Now

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
See more
See less

07/14/2014

$3.95

USD

pdf

Samenvatting Epidemiologie &

Biostatistiek III
door
Naomi12
De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
Koop en Verkoop al je samenvattingen, aantekeningen, onderzoeken, scripties, collegedictaten, en
nog veel meer..
www.stuvia.com
1
Epidemiologie en biostatistiek III

Herhaling [Jos Twisk]
Typen onderzoek
- Observationeel
o Case-control  retrospectief  selectie cases vergelijken met controles
o Cohort 
 Retrospectief  terugvragen naar determinant (nu bepaalde
gezondheidstoestand meten en dit relateren met vroeger)
 Transversaal  nu (lastig om oorzaak en gevolg weer te geven)
 Prospectief  volgen (kost veel tijd en geld)
- Experimenteel
o Prospectief  effect medicijnen

Vertekening
- Effect modificatie
o Definitie  het effect is anders voor verschillende groepen
- Confounding
o Definitie  het gevonden effect is (gedeeltelijk) veroorzaakt door een andere
variabele, de confounder
o Twee punten nodig voor confouding:
 Samenhangend met de uitkomst
 Samenhangend met de determinant
o Effecten  onderschatting of overschatting wanneer je rekening houd met
confounding
- Mediator
o Dit ligt in het causale pad van oorzaak en gevolg
o Zelfde als confounder
o Bijvoorbeeld: roken  bloeddruk omhoog  MI
o Andere effect interpretatie voor nodig
o Drie punten nodig voor confounding:
 Samenhangend met de uitkomst
 Samenhangend met de determinant
 Wel in causale pad

Continu Dichotoom Dichotoom+tijd
2 groepen



Je bent dan geïnteresseerd in een
verband tussen twee variabelen
Methode:
Onafhankelijke t-
toets

Effectmaat:
-verschil in
gemiddelden
Methode:
Chi-kwadraat
toets

Effectmaat:
-RR/RV/OR
Methode
Log Rank Toets
> 2 groepen

Je bent dan geïnteresseerd in een
verband tussen meerdere variabelen
Methode:
ANOVA

Effectmaat:
-verschil in
gemiddelden
Methode:
Chi-kwadraat
toets

Effectmaat:
-RR/RV/OR
Methode:
Log Rank Toets
De relatie tussen een
continue/dichotome/dichotome+tijd-
uitkomstvariabele en andere
variabele
(2 groepen/meer dan 2 groepen)
Je gaat dan een verband voorspellen
(lineair verband/kwadratisch verband)

Methode:
Lineaire regressie

Effectmaat:
-Regressie
coëfficiënt
Methode:
Logistische
regressie

Effectmaat:
-OR
Methode:
Cox-regressie

Effectmaat:
HR (hazard)

Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
2
Keuze voor een statistische techniek
- Onderzoeksvraag
- Verdeling van de uitkomstvariabele
o Continu (alles mogelijk) of discreet (hele getallen)
o Dichotoom (0 en 1)
o Dichotoom + tijd (survival)

Continue uitkomstvariabele
- 1) Descriptive statistics  eerste stap bij analyse
o Gaat over de uitkomstvariabele die je hebt gemeten
o Gemiddelde en SD (kleine spreiding  grotere betrouwbaarheid)
- 2) Analyses
o Methode:
 Analyseren van het verschil tussen de voormeting en de nameting
(bijvoorbeeld)
 Vergelijken van verschilscores
o T-test  vergelijking gemiddelde groepen (mean difference)
 Hoort een betrouwbaarheidsinterval bij
 Grootte hangt af van het aantal mensen  meer mensen = kleiner
betrouwbaarheidsinterval
 Spreiding  hoe groter, des te groter het betrouwbaarheidsinterval
 P-waarde  kleiner dan 0.05 = significant
- Testen h0 (h0 = er is geen verschil)
 Nadeel: je kan niks met confounding/effectmodificatie
- Aanname
o De te analyseren variabele is normaal verdeeld
o Wat als dit niet het geval is?
 Dan zegt het gemiddelde niet zo veel (komt door uitbijters), wanneer je dit
vergelijkt dan bereken je meer de uitbijters
o Niet-normaal verdeelde variabelen, oplossing voor scheef naar rechts data:
 Logtransformatie
- Het verschil van 2 gemiddelde van de logaritmes is dan de uitkomst
- Deze kun je terugtransformeren naar je oorspronkelijke data d.m.v. e-
macht  dan wordt het een ratio i.p.v. verschil
 Non-parametrische toetsen
- Wanneer transformatie niet kan
- Dan transformeer je de gegevens in rangnummers en daar doe je
dan uitspraken over, maan dan kom je nooit meer terug naar je
oorspronkelijke data
- Je kan dan alleen een p-waarde berekenen (dus geen effect en
betrouwbaarheidsinterval) met de rangsomtoets/Mann-Whitney toets
- Vergelijken van drie gemiddelde waardes/groepen
o Oftewel: vergelijken van de verschillen tussen de drie groepen
 Toepassen  variantie analyse (maar alleen p-waarde als uitkomst)
- Analyseren van continue determinant en continue uitkomstmaat
o Voorbeeld: in hoeverre is leeftijd geassocieerd met pijnverandering?
o Leeftijd is een continue variabele  geen t-test en geen ANOVA
o 1) Eerst grafiek maken  x-as: determinant(voorspeller/co-variabele), y-as:
uitkomstvariabele
 Je maakt een scatterplot (alle observaties worden in de grafiek geplaatst)
o 2) Analyse: lineaire regressie analyse
 De afstand van de puntjes tot de lijn moeten zo klein mogelijk zijn  die lijn
beschrijft dan het beste de relatie tussen x en y (determinant en
uitkomstvariabele)
- De lijn wordt gekenmerkt door twee dingen:
o Y= b0 + b1 X
o B0 = de waarde van de uitkomst wanneer x = 0
o B1 = is het effect (de waarde als de determinant met 1
verschilt)
Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
3
 De lineaire regressie coëfficiënt is gelijk aan het verschil in de
uitkomstvariabele wanneer de determinant 1 eenheid verschilt
 Voorbeeld:
- We veronderstellen een lineair verband tussen X en Y
- Pijn verschil= b0 + b1 x leeftijd
- B0 = pijnverschil bij leeftijd 0
- B1 = verschil tussen leeftijd 1 en leeftijd 0, verschil tussen leeftijd 2
en leeftijd 1 etc.
o 3) Confounding en effectmodificatie
 Eerst scatterplot maken
 Dan lineaire regressie analyse  weer een lijn voorspellen
 Y = b0 + b1 X
- X is nu 0 of 1 (placebo of medicatie gemiddelde)
- B1  is het effect tussen de twee gemiddelde waardes/groepen
o In voorbeeld: -2.800
- B0  gemiddelde groep 0 (placebo)
- Vergelijking van 3 groepen
o Y = b0 + b1 groep (0,1,2,)
 B0 = uitkomst wanneer x 0 is, oftewel waarde van groep 0
 Maar dan heb je dat b1 niet klopt  verschil tussen de groepen is niet
hetzelfde; dus geen lineair verband en de constante klopt niet. Je wilt de
onderlinge verschillen weten, dus maak je gebruik van dummy variabelen.
o Groep is echter geen continue variabele, maar een categoriale variabele die
geanalyseerd kan worden met dummies
Groep: Dummie 1 Dummie 2
0 0 0
1 1 0
2 0 1

o Y = b0 + b1D1 + b2D2
o Waarde groep 0: y0 = b0
o Waarde groep 1: y1= b0 + b1
o Waarde groep 2: y2 = b0+b2
o Nadeel: je refereert het altijd aan een groep (de referentiegroep)
o B0 = gemiddelde van groep 0
o B1 = verschil tussen groep 1 en 0
o B2 = verschil tussen groep 2 en 0

Dichotome uitkomstmaten
- Drie effectmaten
o RV, RR, OR
- 1 toets: chi-kwadraat toets
o Bij de chi-kwadraattoets worden de verwachte aantallen in de cellen vergeleken met
de geobserveerde aantallen
o Hoe groter dat verschil, des te hoger de chi-kwadraat waarde  des te lager de p-
waarde
o Ook te gebruiken bij vergelijken met 3 groepen  moet je opsplitsen in 2x2 tabellen
o De toets zegt dus niks over de effectgrootte
- Logistische regressie
o Verschil 2 en 3 groepen
o Is vergelijkbaar als lineaire regressie, alleen ziet de uitkomstvariabele er een beetje
raar uit (is natuurlijke logaritme)
o LN[odds(y=1)] = b0 + b1 x groep
o De regressiecoefficient kan worden omgezet in een odds ratio  met emacht  OR =
EXP (b)
o Met 3 groepen worden weer de dummies gemaakt
 Uitkomst  3 odds ratios
- Relatie tussen dichotome variabele en een continue variabele geldt natuurlijk hetzelfde
o Effectmaat is de odds ratio voor een verschil in een eenheid in de determinant
Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
4
- Dichotome uitkomstvariebele + een tijdsindicator
o Voorbeeld: Herstel + tijd waarop herstel plaatsvindt
o Survival analyse
 Twee overlevingscurven (kaplan meier curven) kunnen met elkaar vergelijken
worden met behulp van de log-rank toets
 Geeft alleen p-waarde dus geen effect schatting
o Cox-regressie analyse
 Zowel de verschillen tussen twee groepen als de verschillen tussen 3
groepen kun je hiermee analyseren
 De uitkomstvariabele ziet er anders uit
 Ln[hazard] = baseline hazard + b1 x groep
- Uitkomst terugtransformeren  exp (b)
o Deze interpreteer je als een hazard ratio
 Je ziet nu geen b0
- Er is geen b0, want het is een functie over de tijd. De kans op herstel
veranderd over de functie dus dit kan niet weergeven worden in een
getal
 B1 wordt wel weergeven  effect gemiddeld over de tijd (=verhouding van
twee curven over de tijd)  veranderd ook over de tijd
o Hetzelfde geldt voor drie groepen  dummies maken
 Effectmaat is de hazard ratio voor een verschil in 1 eenheid in de determinant
 Aanname: proportionele hazards

Opmerkingen regressie analyse
- Controle op lineariteit van continue determinanten
o Toevoegen kwadraatterm  significant?  dan is het kwadratische verband beter
dan het lineaire verband
o Determinant opdelen in groepen (kwartielen)
 Kijken of de regressie coëfficiënt gelijk op loopt  hier valt geen rechte lijn
door te trekken
- De effecten per groep moet je dan rapporteren
- Confounding en effectmodificatie
o Effectmodificatie  het effect is anders voor verschillende groepen
 Toevoegen interactieterm (b3): vermenigvuldigen van de twee variabelen
waar het over gaat
- Uitkomst = b0 + b1 x groep + b2 x sekse + b3 x groep x sekse
- B1 = interventie effect effect voor sekse = 0
- B1 + B3 = interventie effect voor sekse = 1
o Als deze twee bovenstaande verschillen, dan is er sprake
van effectmodificatie
o Kijken of dit (b3) significant is
o Confounding  het gevonden effect is (gedeeltelijk) veroorzaakt door een andere
variabele, de confounder
 Toevoegen variabele aan regressiemodel en kijken of de regressie coëfficiënt
van de determinant verandert
 Vuistregel = meer dan 10% verandering = confounding
 Elegante oplossing: presenteren van zowel ongecorrigeerde als
gecorrigeerde resultaten (in de praktijk wordt de 10% niet gebruikt, en altijd
de ongecorrigeerde en gecorrigeerde resultaten gepresenteerd(doe dit ook in
je opdracht), tenzij je heel veel confounders hebt):
- Ruw, gecorrigeerde modellen met b, 95% BI en p-waarde

Predictiemodel
- Beste en meest eenvoudige model (combinatie van variabelen) om een bepaalde
uitkomstvariabele te voorspellen
- Dan ben je geïnteresseerd in alles en niet op een ding
- Strategieën: forward en backward



Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
5
ANOVA & regressie [Lothar Kuijper]

Regressie revisited
Lineaire regressie
- Hoe sterk is de samenhang tussen bijv. leeftijd (x) en bloeddruk (y)
- Intercept  lijn
o Y = b0 + b1x (regressievergelijking)
o Y = 0.3898x + 107.69
o Voor elk levensjaar (eenheid van leeftijd) neemt de bloedruk met 0.39 mm Hg toe
o Bij een leeftijd van 0 jaar (een pasgeborene) is de bloeddrukwaarde 107.7 mm Hg
- Het best passende verband analyseer je door de variantie te analyseren

Variantie
- Spreidingsmaat in onderzoeksgegevens
- Formule
o Teller: kwadratensom (waarneming en gemiddelde)
o Noemer: aantal vrijheidsgraden
- Wortel van de variantie heet de standaarddeviatie
- Voor berekening kwadratensom in gehele meetreeks gebruik je steekproefgemiddelde
o Voor elk meetpunt vergelijk je die met het gemiddelde en dit kwadrateer je
- Kwadratensom: afstanden datapunten en rode lijn

Basis gedachte regressie
- Deel van de variatie in gegevens is te verklaren door
determinant
o Methode: varieer met de sterkte van het
verband rond (Xgem; Ygem), zodat de
optelsom gekwadrateerde afstanden
geminimaliseerd wordt
- Resulterend verband is de regressievergelijking:
o Y= 0,3898x + 107.69

Vergelijking kwadratensommen
- Hoe lager resterende kwadratensom, des te beter de fit, maar is deze voldoende verlaagd om
te kunnen spreken van statistische significantie?
- 6573.9
- 5707.1

Oplossen van spreiding
- Door te fitten/passen los je een deel van de spreiding op
o Door te variëren met de hellingshoek
o Dat is de kwadratensom die hoort bij deze
hoek
 6573.9 – 5707.1 = 866.8
- Totale spreiding: 6573.9
- Spreiding die we kwijtgeraakt zijn:
( )
1
var
2
÷
÷
=
¿
n
x x
i
80
100
120
140
160
180
0 20 40 60 80
( ) 9 . 6473
2
= ÷
¿
y y
i
( ) ( ) 1 . 5707
2
1 0
= + ÷
¿ i i
x b b y
Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
6
o 866.8 / 6573.9 = 0.118 = 11.8% (=R
2
: percentage van de spreiding dat verklaard
wordt door de determinant)

Van kwadratensom naar variantie
- Variantie is de totale gegevensverzameling
- Een variantie is een kwadratensom gedeeld door het aantal vrijheidsgraden
o Van elke geschatte parameter raak je een vrijheidsgraad kwijt
 Populatiegemiddelde (n-1)
 Hellingshoek heeft er 1 nodig
 Wat overblijft is de residuele/onverklaarde variantie
- Elke determinant heeft zijn eigen variantie
- Voorbeeld (in stappen)








Variantie analyse [wat we nu hebben n.a.v. het voorbeeld: ]
- Kwadratensom per spreidingsbron
- D.f. per spreidingsbron
o Variantie is deling van die twee
- Synoniem variantie = mean square (ms)
- Door MS van een spreidingsbron af te zetten tegen residuele spreiding kunnen we statistische
significantie onderzoeken
o F-toets maakt dit mogelijk

Variantieanalyse
- Als er in werkelijkheid geen verband bestaat, dan wordt de variatie in de hellingshoek van
gevonden verband door toeval bepaald en eveneens de spreiding in residuen
(toevalsspreiding)
o En dan zouden de ms regresie en ms residuen dezelfde verwachtingswaarde hebben
o F-toets: kijken of varianties significant van elkaar verschillen
Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
7

- F-toets:
o H0: twee variantieschattingen zijn uitkomstig uit populaties met een gelijke variantie
(F (uitkomst) van 1)
o Formule: Ms regressie/Ms residuen = F (dan zou F 1 moeten zijn als er geen verband
is)
 Hoe groter F  des te meer spreiding wordt opgelost en hoe sterker het pleit
voor het niet waar zijn van de h0
 Gebruik F-verdeling met df1 vrijheidsgraden in de teller en df2 in de noemer
voor bepaling p-waarde
- Interpretatie p: de kans op het vinden van het gerealiseerde verband, of extremer, is 5.8% als
je aanneemt dat h0 klopt
- Conclusie voorbeeld: de kans op het toevallig vinden van deze hellingshoek, of meer
afwijkend van 0, bedraagt 5.8%


Samenvatting
- Regressie is een vorm van variantieanalyse
- Je splitst de totale spreiding in je gegevens in een deel dat je kwijtraakt door de best
passende lijn te fitten + in een deel dat overblijft (toevalsspreiding)
o R
2
geeft de verhouding tussen die twee
o Je gebruikt de MS’s (varianties) voor de F-toets

ANOVA
- Analysis of variance
- Gebruiken bij: categoriale determinanten

Voorbeeld supermarktonderzoek
- Aantal variabelen – 1
o Vrijheidsgraden
o Elke dummy is een te schatten parameter: je schat dus twee hellingshoeken



- Dummies nadelen:
o Referentiegroep moeten veranderen voor andere vergelijkingen
o Je krijgt geen eenduidig antwoord wanneer je dummies verschillende p waarden heeft
(wel of niet significant)
o Dummy regressie geeft geen antwoord op een overall effect van aanprijzing in de
supermarkt

residuen
regressie
2
1
,
2 1
MS
MS
MS
MS
F
df df
= =
Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
8
0
3
6
9
12
15
Groep 1 Groep 2 Groep 3
- Oplossing:
o ANOVA
o Het splitst de totale variantie in gegevens in
 Een deel dat je kwijtraakt als je ze indeelt in groepen
 Een deel dat overblijft (toevalsspreiding)
o Voorbeeld:
 H0: voor alle populaties geldt dat de verwachtinswaarde gelijk is
 H1: minstens een van de verwachtingswaarden verschilt van de andere
 Als we h0 verwerpen, dan concluderen we dat de aankoop van de gezonde
producten samenhangt met de wijze van adverteren

ANOVA – werking
- Gegevens en groepsgemiddelden hebben een spreiding
- Is toeval een goede verklaring zijn voor de spreiding in
groepsgemiddelden?
o In het voorbeeld: zou best een toeval zijn
o ANOVA geeft hier antwoord op
- Stappenplan:
o Bepaal kwadratensom alle gegevens
o Bepaal residuele kwadratensom na analyse van
gegevens per groep
o Bepaal het aantal vrijheidsgraden
 1. Alle groepen bij elkaar (=totaal) – gemiddelde van gegevens
- Bepaald kwadratensom
- Resultaat in dit voorbeeld = 2545
 2. Bepaal voor elke groep de kwadratensom rond groepsgemiddelde
- Per groep moet je optellen (= residuen)
- Resultaat in dit voorbeeld = 2217.5
- Je ziet dan een vermindering in het voorbeeld
 3. Van elkaar aftrekken (=regressie)
 4. Aantal vrijheidsgraden voor dummies: 3-1 = 2
 5. Resterend aantal: 89-2 = 87
- Immers voor elke groep 30-1 = 29 df




o Mean square
 MS (mean square) regressie: 163.7
 MS residuen: 25.5
 Dit is een groot verschil

Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
9
0
10
20
30
aanbieding aanbieding +
gezond
gezond
P
r
o
d
u
c
t
e
n

p
e
r

p
e
r
s
o
o
n
o Als h0 waar is, dan bepaalt het toeval in hoeverre de groepsgemiddelden van elkaar
verschillen
 En verwacht je dat MS regressie en MS residuen gelijk zijn en dit test je met
de F-toets [Ftest = MSregressie/MSresiduen
 Uitkomst in voorbeeld = 6.42
o F-toets:
 Als H0 juist is, dan volgt Ftest een F-verdeling, met:
- 2 vrijheidsgraden in de teller
- 87 vrijheidsgraden in de noemer
- Computer berekend p-waarde  0.0025

o Conclusie:
 We kunnen concluderen dat de h0 [die stelt dat de drie vormen van
advertentie dezelfde aanschaf gezonde producten oplevert] moet worden
verworpen  minstens een van de strategieën heeft een afwijkend effect
 De drie strategieën hebben dus echt een effect op de aankoop van een
product
 Let op: dit zijn andere conclusies als die mogelijk waren bij dummy-regressie
 je doet immers een eenduidige, overall uitspraak
- Aannames ANOVA:
o Residuen normaal verdeeld
o Varianties van residuen per groep gelijk
o Waarnemingen onafhankelijk
o Bij elke statistische analyse hoort beoordeling van deze veronderstellingen

Testen aannames:
- Tabel:
o Residuen normaal verdeeld?
 > lijkt niet ernstig
o Varianties van residuen per groep gelijk?
 > lijkt redelijk te kloppen
o Voor beide evaluaties zijn statistische toetsen
beschikbaar, maar af te raden omdat:
 In de werkelijkheid is geen enkele
variabele echt normaal verdeeld
 Geen twee populaties hebben echt
dezelfde variantie
 Wanneer de onderzoekspopulatie maar groot genoeg is, kun je dat aantonen
 Zolang de onderzoekpopulatie te klein is, zal je dat ook niet detecteren
- Heb je power voor nodig
o ANOVA-technieken zijn redelijk robuust  beperkte afwijkingen t.o.v.
veronderstellingen geven geen ernstige vertekening in statistische conclusies en hoe
groter de schending, des te groter de kans op statistische fouten
- Problemen bij bijv. scheef naar rechts:
o Binnen ANOVA kun je ook logtransformatie doen
o Als dit niet kan: non-parametrische toetsen

ANOVA in formulevorm
- Toevalsspreiding heet ook wel:
o Within group variance of residual variance
o Errorvariantie of MSE (mean square error)
o Gewogen gemiddelde van spreiding binnen
groepen
o Teller = SS, noemer = df


( ) ( ) ( )
( )
j N
s n
j N
s n s n s n
MSE
j
i
i i
j j
÷
÷
=
÷
÷ + + ÷ + ÷
=
¿
=1
2
2 2
2 2
2
1 1
1
1 ... 1 1
Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
10
- Factoriele spreiding heet ook wel:
o Between group variantie
o Mean square group of MSG
o Spreiding in groepsgemiddelden zelf
o Teller = SS, noemer = df
- Benodigdheden:
o Gemiddelde van alle waarnemingen, groepsgemiddelden, sd, aantal waarnemingen
per groep, aantal groepen
- Between group:
o factoriele spreiding (spreiding in groepsgemiddelden zelf)
- Within group:
o toevalsspreiding (gewogen gemiddelde spreiding binnen groep zelf

Tabel resultaten ANOVA style

0.25 % (p-waarde)  Als alle groepen dezelfde verwachtingswaarde hebben, dan is de kans om
het gerealiseerde verschil in groepsgemiddelden te vinden (of extremer) < 0.25%

- Welke groep maakt het verschil?
o Daarover doet ANOVA geen uitspraak
o Als dat je vraagstelling is, dan voer je na de ANOVA alsnog een dummyregressie uit
 Post-hoc testing
- Gevaar afhankelijk van uitkomst ANOVA
- Je wist immers al van een significant effect
- Als dit effect een type-1 fout is, dan is de post hoc analyse ook
Conclusie:
- Regressie: effect
- ANOVA: verschillen tussen groepen

T-toets en ANOVA
- Standaardfout = variantie
- Beiden met gemiddelden
- T
2
volgt een f-verdeling
- T-toets = 2 groepen
- ANOVA = maakt niet uit hoeveel groepen

Aanprijzing + korting
- Twee vraagstellingen in een
- Multipele regressie of twee-weg anova
- Dan krijg je drie keer een h0 [met eentje over
effect modificatie]

Two-way ANOVA
- Bepaal totale spreiding in gegevens (sum of squares)
- Bepaal SS binnen alle negen afzonderlijke combinatiebehandelingen
- Bepaal SS voor de drie aanprijzing strategieën
- Bepaal ook SS voor de drie prijsstrategieën
- Resterend gedeelte van SS wordt door interactie veroorzaakt
- Tabel:
o Aanprijzing, prijs, interactie, error (toevalsspreiding)
o Totaal hetzelfde als daarnet
o Aanprijzing ook hetzelfde
( ) ( ) ( )
( )
1
1
...
1
2
2 2
2 2
2
1 1
÷
÷
=
÷
÷ + + ÷ + ÷
=
¿
=
j
x x n
j
x x n x x n x x n
MSG
j
i
i i
j j
Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
11

- Sum of squares bepalen voor prijs
o SSG = 156.9
- Error bepalen
o Toevalsspreiding gebaseerd op 9 gemiddelden (3 prijs en 3 groepen)
o 3x3 studiedesign
o SS error = 1923
o Df = 9 x 10 – 1 waarnemigen = 81 df
o Wat je nu ziet in de tabel is dat de toevalsspreiding lager is geworden
[interactie kun je nu aanvullen]
- Nu voor elke variantie de significantie berekenen en kijken of het afwijkt van de error
significantie
o Aanprijzing/error
o Prijs/error
o Interactie/error
o Uitkomst = Ftest
- Interactie is dus niet significant:
o H0 niet verworpen: geen bewijs dat het effect van aanprijzing op aantal gekochte
gezonde items afhangt van de korting erop, dus de interactieterm kan weg



o Er is een relatie tussen strategie van aanprijzing en aantal gekochte gezonde items
(p<0.01)
o Er is een relatie tussen korting en aantal gekochte gezonde items (p<0.05)
- Dus dan kom je weer terug op een tabel zonder de interactie term  let op de cijfers
veranderen dan [zie tabel hierboven]
- De conclusies betreffen overall effecten
o Er is een effect van prijsstrategie, maar hoe groot?
o Er is een effect van korting, maar hoe groot
- Voor het schatten van omvang effect  doe je post hoc test (dummy regressie)
o Maar dan krijg je een mega groot model (8 parameters (b1) en 1 intercept (b0))
o Je begint dan ook eerst met interacties
o Hercodering nodig
o Dus dat is heel omslachtig werk en levert problemen op
Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
12
 Toename op kans op type 1 fout met toenemend aantal parameters
 In dummy regressie corrigeer je niet voor dit ongewenste effect
 Binnen ANOVA kun je dit wel:
- Post-hoc analyses, betrouwbaarheidsintervallen gebaseerd op
andere verdelingen, houd rekening met multiple testing en keuze
verdeling is afhankelijk met aantal vergelijkingen die je wilt maken

Conclusie
- Dummyregressie
o Schat effecten tussen verschillende niveaus van determinant
o Levert een grote ANOVA-tabel met grote kans op type 1 fouten
- ANOVA
o Richt zich op overall-effecten van determinant
o Geeft geen effectschattingen tot post-hos analyse
o Minder gevoel voor verkeerde statistische beslissingen













































Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
13
Werkgroepopdrachten ANOVA

In een studie naar de effecten van natuurgeneeswijzen op depressie werd een groep van 40
mensen met matige depressie met één uit vier mogelijke medicaties behandeld. Tien individuen
ontvingen de placebo-behandeling. Tien anderen kregen amitryptiline, een conventionele
behandeligsmethode, weer tien anderen kregen extracten van Sint-Janskruid
(kruidengeneeswijze) en de laatste tien kregen een homeopathische verdunning (10
13
keer
verdund) van een mengsel van medicamenten.
Aan de wijze waarop de medicatie werd aangeboden konden de patiënten niet zien wat ze
kregen. Een verpleegkundige nam voorafgaand en daarna wekelijks vanaf de start van het
onderzoek bloed af en bepaalde daarbij het nuchtere serotoninegehalte (een marker voor
depressiviteit; hoe hoger het serotoninegehalte, des te depressiever). Het verschil tussen voor-
en nametingen stond in het onderzoek centraal.
In de resultatensectie staat
No treatment effect was found (F(3,36)=1.98; p=0.13) after 7 days of treatment

a. Geef commentaar op deze conclusie.

Dat klopt niet: er is weliswaar geen statistisch significant effect gevonden, maar dat wil
niet zeggen dat er helemaal geen effect was. De overschrijdingskans van 13% zegt al dat er
wel iets van een verschil tussen de behandelingen was aangetroffen.

b. Wat wordt bedoeld met F(3,36)?
Dit betekent dat de F-verdeling gebruikt is, met 3 vrijheidsgraden in de teller (daar staat
de variantieschatting voor het behandelingseffect) en 36 in de noemer (daar staat de
variantieschatting voor de toevalsspreiding).
De auteurs komen in de discussie uitvoerig terug op hun analyses en de bevindingen tijdens de
studie. Ze rapporteren
The treatment was stopped after eight weeks. At that moment, the drop-out rate was no longer
evenly distributed across treatment groups (_
2
= 9.52; p<0.05). At this moment, there was a
statistically significant effect of treatment on serotonin levels (F(3,24)=4.14; p=0.02). Dummy
analyses revealed that the effect of amityptiline was stronger when compared to the placebo-
treatment (t24 = 3.167; p=0.004)

c. Hoeveel mensen zijn er in de tussentijd uitgevallen?
Het totale aantal vrijheidsgraden is van 39 (36+3) naar 27 (24+3) gegaan, dus zijn we van
40 naar 28 deelnemers gegaan.
d. De t-verdeling met 24 vrijheidsgraden is gebruikt, terwijl de onderling vergeleken
groepen samen nooit meer dan 20 individuen kunnen bevatten. Leg uit hoe dat kan.
Voor de standaardfout worden binnen een ANOVA-context niet alleen gegevens over de
mensen in de onderling vergeleken groepen gebruikt, maar alle informatie die we kunnen
Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
14
gebruiken om de toevalsspreiding te schatten wordt aangewend. En daarvoor hadden we
24 vrijheidsgraden ter beschikking.
e. Leg aan de hand van d. uit waarom een ANOVA efficiënter is dan een t-toets.
Hoe meer vrijheidsgraden, hoe meer informatie. Hoe meer informatie, des te nauwkeuriger
worden onze schattingen. Als we met een zelfde aantal gegevens met methode A in staat
zijn tot nauwkeuriger schattingen dan met methode B, dan is methode A efficiënter.
Vul onderstaande ANOVA-tabel in.

Bron van
spreiding
SS d.f. MS Ftest p-waarde
Tussen 191.9 3 64.0 4.14 0.017
Binnen 371.1 24 15.5
Totaal 563.1 27

Uit van de gegevens in bovenstaand kader valt helaas niet op te maken in welke groep(en) de
uitval het hoogst was. Toch is dit wel te voorspellen.

f. In welk van de groep(en) zal naar verwachting de uitval het hoogste zijn?

Normaal gesproken in de groep waar men het minste profijt trok van de behandeling
(‘Waarom zou ik hier nog langer aan meedoen? Het helpt toch niet’).

g. Wat verwacht je op grond daarvan met betrekking tot het werkelijke effect van
amitryptiline ten opzichte van de placebo-behandeling? Leg uit.
De uitvallers zullen doorgaans het meeste in de placebogroep en in de groep van de
homeopatische middeltjes zitten. Van die groepen krijgt men dus een te positief beeld. Dat
vertaalt zich naar een onderschatting van het effect van amitryptiline.



VRAAG 2

Gedrag van dieren kan in sommige gevallen goed worden gebruikt om menselijk gedrag te
bestuderen. Zo worden apen veelal gebruikt om experimenteel onderzoek naar sociaal gedrag te
doen (daar zijn mensen zelf niet altijd voor geschikt). Zo deed de Nederlandse gedragbioloog
Frans de Waal met zijn collega’s waarnemingen aan capucijnaapjes om de oorsprong en
evolutionaire betekenis van jaloezie te bestuderen.

In een vergelijkbare studie gingen een paar Leidse biologiestudenten aan de slag. De proefopzet
was grofweg de volgende: aapjes werden in één van de volgende vier experimentele settings
geplaatst, waarna herhaald werd geobserveerd wat het dier met een aangeboden stukje
komkommer deed.

Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
15
Setting
1 Aap 1 wordt in een kooi gezet naast een kooi met aap 2. Beide apen krijgen na het
vervullen van een opdracht een stukje komkommer
2 Aap 1 wordt in een kooi gezet naast een kooi met aap 2. Terwijl aap 2 na de
opdracht zichtbaar een (veel lekkerdere) druif krijgt, geeft men aap 1 daar een
stukje komkommer voor
3 Aap 1 wordt in een kooi gezet naast een kooi met aap 2. Aap 1 krijgt na het vervullen
van de opdracht een stukje komkommer. Aap 2 krijgt op dat moment een druif,
maar zonder ervoor een opdracht te hoeven vervullen
4 Aap 1 wordt in kooi naast een lege kooi gezet. De aap krijgt na het vervullen van de
opdracht een stukje komkommer. Op dat moment wordt in de andere kooi, buiten
het bereik van aap 1, een druif gelegd

Elke aap werd 200 keer geobserveerd: 50 keer per conditie. Daarbij werd bemonsterd of de aap
1) het stukje komkommer opat of bewaarde om later op te eten of 2) het stukje komkommer
teruggooide naar de verzorger (waarschijnlijk puur uit ergernis). De fractie teruggegooide
komkommerstukjes per conditie werd gemeten. De waarnemingen staan hieronder.

Conditie Aap 1 Aap 2 Aap 3 Aap 4 Aap 5
1 0.12 0.08 0.16 0.02 0.06
2 0.28 0.18 0.14 0.30 0.30
3 0.46 0.30 0.22 0.68 0.46
4 0.32 0.20 0.20 0.42 0.50

De studenten rapporteren hun bevindingen.

There was a statistically significant effect of the treatment condition on the behaviour of the
capuchin monkeys. This effect was analysed using an ANOVA (F3,16 = 7.08; p = 0.003).

a. Wat zijn de toetsingsveronderstellingen voor de ANOVA. Ben je het eens met de keuze
voor ANOVA-technieken?

1) De gegevens moeten onafhankelijk van elkaar zijn. Daar is in dit geval niet echt sprake
van (maar we kunnen desgewenst corrigeren voor deze afhankelijkheid door de
spreiding van de afhankelijke factor ‘individu’ te schatten).
2) De gegevens moeten normaal verdeeld zijn. Echter: de getallen in de tabel zijn
samenvattingen van dichotome gegevens (een aap gooit de komkommer terug of niet).
Wanneer dichotome observaties maar vaak genoeg worden herhaald, dan kan men hun
gedrag beschrijven met een normale verdeling. In dit geval worden de waarnemingen
50 keer herhaald. Dat lijkt voldoende.
3) De populatievariantie moeten voor elke groep gelijk zijn. Dat is twijfelachtig: kleine
fracties hebben minder spreiding dan fracties die in de buurt van de 0.5 liggen. In deze
studie zijn zowel kleine fracties (Aap 4, conditie 1, heeft maar 1 keertje een
komkommerstukje teruggegooid) als fracties in de buurt van de 0.5 waargenomen
(Aap 5 gooide 25/50 keer de komkommer terug in conditie 4). Daarom moeten we wat
voorzichtig zijn met het ten uitvoer brengen van een ANOVA.
Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
16
b. Geef aan in welke componenten de spreiding is opgesplitst en geef daar commentaar op.

We weten dat er 20 waarnemingen zijn en we zien een F-verdeling gebruikt worden met
drie vrijheidsgraden in de teller en 16 in de noemer. Daarna zijn de vrijheidsgraden op (3 +
16 = 19, wat hoort bij een totaal aantal van 20). Dus de spreiding is uitsluitend opgeknipt
in een deel dat wordt verklaard door de behandeling en een deel dat wordt toegeschreven
aan toeval. Het deel dat wordt verklaard door het herhaald waarnemen aan dezelfde aap
is hierbij buiten beschouwing gelaten.

De studenten gaan verder bij het beschrijven van de resultaten, omdat ze wilden weten welke
fracties nu verantwoordelijk waren voor het gevonden statistisch significante verschil. Daarvoor
gebruiken ze een post-hoc test, de zogeheten Tukey’s Honestly Significant Difference test.

Tukey’s honestly significant difference (HSD) test showed that any difference in the fraction of
cucumbers thrown across treatments, larger than 0.217, is statistically significant. Therefore,
the throwing fraction in condition one (fraction of cucumber throwers 0.088) differs
significantly from this fraction in condition three (0.424, p = 0.002) and four (0.328, p=0.028).

Een andere student, we noemen hem Theo, doet precies dezelfde analyses, maar dan met een
dummy-regressie. Hij produdeert de volgende regressietabel.

Model
Coëfficiënten
ttest p
Betrouwbaarheidsinterval
B Std.Error onder boven
Cons 0.088 0.054 1.64 0.120 -0.026 0.202
Dummy1 0.152 0.076 2.00 0.062 -0.009 0.313
Dummy2 0.336 0.076 4.43 0.000 0.175 0.497
Dummy3 0.240 0.076 3.16 0.006 0.079 0.401

Deze student inspecteert zijn regressietabel en vergelijkt deze met de lopende tekst van de
andere studenten. Waar zijn kompanen een verschil van 0.217 tussen twee
regressiecoëfficiënten tot statistisch significant bestempelen, komt Theo tot een verschil van
0.161; een veel kleiner getal.

c. Reconstrueer dit getal (hint: het aantal gebruikte vrijheidsgraden is 16).

De standaardfout is 0.76. De t-waarde is 2.11 (in het boek van Jos Twisk kun je dan niet zo
nauwkeurig reconstrueren uit tabel 3.9, maar je ziet dat hij iets boven de 2.00 moet liggen).
Vermenigvuldig deze met elkaar en je komt op de juiste marge: 0.161.
0.076 kan je opzoeken in t-tabel. De T waarde die je dan vind is 2.11, in de tabel zie je 2.00. Je kijkt bij
10 vrijheidsgraden Je wilt weten waar die 0.076 zit.
SD = 2.11
2.11/1 = ?/0.076  0.076 x 2.11 = 0.16036


Meer uitleg: algemeen gesproken kun je terugvallen op de ‘basisformule’ voor het
berekenen van een betrouwbaarheidsinterval. Een dergelijk interval bestaat altijd uit:

Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
17
- Een gemiddelde (of een proportie)
- Een standaardfout rond dat gemiddelde, die een maat is voor de nauwkeurigheid.
Zo’n standaardfout is de standaardafwijking rond de gegevens, gedeeld door het
aantal waarnemingen. Hoe groter dat aantal, des te kleiner de standaardfout en
des te nauwkeuriger de schatting voor het populatiekenmerk waar je het
betrouwbaarheidsinterval voor maakt
- Een waarde van een kansverdeling, die hoort bij een bepaald percentage
betrouwbaarheid. Dat kan een t zijn (bij kwantitatieve gegevens) of een z (bij
proporties) en de waarde wordt groter naarmate de betrouwbaarheid toeneemt.
Namelijk: hoe hoger je de kans wilt dat je de populatieparameter in het
betrouwbaarheidsinterval vangt, des te breder dat interval moet zijn

De omvang van een betrouwbaarheidsinterval is niet afhankelijk van het gemiddelde,
maar alleen van de t-waarde en de standaardfout. De formule is alsvolgt:

̅




De marge is dus het gedeelte achter de . De standaardfout is gegeven in de tabel: die heeft
een waarde van 0.076. We moeten dan dus alleen nog op zoek naar de t-waarde (met 24
vrijheidsgraden) die behoort bij een betrouwbaarheid van 95%. In het boek van Jos Twisk
zie je voor een t-waarde van 2.00 bij 20 d.f. een tweezijdige verschrijdingskans van 0.059
staan. Deze kans zal voor 24 d.f. ietsje kleiner zijn, maar niet kleiner dan 0.05 (als je bij 50
d.f. kijkt, dan is de betreffende overschrijdingskans 0.051). Willen we toch op een
overschrijdingskans komen van precies 0.05, behorende bij een BI95%, dan zal de waarde
van t iets omhoog moeten. Deze blijkt dus in de praktijk 2.11 te zijn. Vermenigvuldig je
0.076 met 2.11, dan kom je op 0.161 (afrondingsfoutjes daargelaten).

d. Hoe komt het dat Theo in staat is om een kleiner verschil tussen behandelingen al
statistisch significant te noemen?

Dat komt, doordat hij geen rekening houdt met de fouten die kunnen optreden bij multiple
testing. Wanneer je dat wel doet, dan mag je een verschil minder gemakkelijk statistisch
betekenisvol gaan noemen. Een breder betrouwbaarheidsinterval voorziet daarin.

e. Wie heeft er gelijk? Theo of zijn kompanen? Leg uit waarom.

De kompanen. Theo heeft een kans van ruim 14% (je kunt het narekenen) dat minstens één
van zijn betrouwbaarheidsintervallen een verschil tussen behandelingen suggereert dat er
in werkelijkheid niet is.
Kans op type 1 fout bij t-test:
N= aantal dummies
1-(0,95)
n
=
1-(0,95)
3
= 0.14 = 14%
Hoe meer variabelen/dummies je toevoegt, des te meer kans op type 1 fout.



Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
18
Student Ria vraagt zich af of de apen zelf, ongeacht de behandeling die ze op dat moment krijgen,
verschillen in hun neiging om de stukjes komkommer terug te gooien naar de verzorger. Ze
breidt de tabel met de gegevens uit met het gemiddelde en de standaarddeviatie per aap en
berekent met de onder de tabel staande formule de SSwithin:


Conditie Aap 1 Aap 2 Aap 3 Aap 4 Aap 5
1 0.12 0.08 0.16 0.02 0.06
2 0.28 0.18 0.14 0.30 0.30
3 0.46 0.30 0.22 0.68 0.46
4 0.32 0.20 0.20 0.42 0.50
Gemiddelde 0.295 0.190 0.180 0.355 0.330
St.dev 0.140 0.090 0.036 0.274 0.200

( )
¿
=
÷ =
j
i
i i
s n SS
1
2
within
1
f. Verklaar wat er in deze formule gebeurt. Vul de formule in en bereken SSwithin.

SSwithin staat voor de kwadratensom die de toevalsvariatie voorstelt. Binnen het somteken
dat loopt van i = 1 tot j, staat j voor het aantal apen. ni staat voor het aantal
waarnemingen per aap en si staat voor de standaarddeviatie in de waarnemingen per aap.
Uitgewerkt:
( )
( ) ( ) ( ) ( )
( )
432 . 0
2 . 0 1 4
274 . 0 1 4 036 . 0 1 4 090 . 0 1 4 140 . 0 1 4
1
2
2 2 2 2
1
2
within
=
· ÷ +
· ÷ + · ÷ + · ÷ + · ÷ =
÷ =
¿
=
j
i
i i
s n SS


Na te hebben vastgesteld dat het gemiddelde van alle waarnemingen 0.27 bedraagt, berekent ze
ook de SSbetween met de daartoe geëigende formule die hieronder staat.

( )
¿
=
÷ =
j
i
i i
x x n SS
1
2
between

g. Verklaar ook wat er in deze formule gebeurt. Vul ook hier de formule in en bereken
SSbetween.
SSbetween staat voor de kwadratensom die wordt opgelost door de factor ‘individu’. Ook hier
staat j voor het aantal apen en ni voor het aantal waarnemingen per aap. Maar: in dit geval
hebben we te maken met het gemiddelde per aap,
i
x , en het gemiddelde van alle
waarnemingen, x . Die laatste heeft de waarde 0.27. Ingevuld:

Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
19
( )
( ) ( ) ( ) ( )
( )
104 . 0
27 . 0 330 . 0 4
27 . 0 355 . 0 4 27 . 0 180 . 0 4 27 . 0 190 . 0 4 27 . 0 295 . 0 4
2
2 2 2 2
1
2
between
=
÷ · +
÷ · + ÷ · + ÷ · + ÷ · =
÷ =
¿
=
j
i
i i
x x n SS

h. Maak onderstaande ANOVA-tabel compleet.

Bron van
spreiding
SS d.f. MS Ftest p-waarde
Tussen 0.104 4 0.026 0.90 0.488
Binnen 0.432 15 0.029
Totaal 0.536 19

i. Wat is je conclusie wat betreft Ria’s vraagstuk?

Het lijkt er niet op dat de apen een verschillende frequentie van teruggegooide
komkommerstukjes hebben. Netjes gezegd: er is geen aanwijzing voor een verschil in
gooifrequentie tussen individuele apen.

De docent is het met de gang van zaken niet helemaal eens. Hij beweert dat beide
vraagstellingen (verschillen apen in gooigedrag? en leiden verschillende behandelingen tot
verschillend gooigedrag?) het beste in één keer kunnen worden uitgevoerd.

j. Deze gang van zaken zal de kwadratensommen van de beide factoren niet veranderen
(ook te zien aan de gereduceerde ANOVA-tabel op de volgende pagina). Toch blijkt zowel
de p-waarde voor het effect van de behandeling, als de p-waarde die gaat over het
verschil in gooigedrag tussen apen in het algemeen behoorlijk kleiner te zijn geworden.
Leg uit hoe dat kan gebeuren.

Dat komt doordat de totale spreiding gelijk blijft, maar het deel dat aan toeval kan worden
toegeschreven met elke factor waarvoor je corrigeert kleiner wordt. Je neemt dus een
behoorlijke hoeveelheid ruis weg. Daar staat dan wel weer een verlies van vrijheidsgraden
tegenover, maar dat verlies (van 15 naar 12) is relatief beperkt. Daardoor wordt de
MSwithin een stuk kleiner, en daar zet je de andere factoren tegen af.

Er is een verschil tussen de behandeling en niet de apen. Als jij meerdere factoren gaat toevoegen,
dan vind je daar een verklaarde variantie hiervoor. Hoe meer je toevoegt, hoe meer je kan verklaren.


Bron van
Spreiding
MS Ftest p
Individu 0.026 2.47 0.0016
Behandeling 0.102 9.68 0.1013
Toeval 0.011

Let op: in deze tabel was op het werkcollege zelf nog een foutje.
Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
20
Een andere docent, die gewend is alles met dummy-regressies uit te voeren, laat de resultaten
van een dergelijke analyse zien. De tabel hieronder bevat de gegevens.

Model
Coëfficiënten
ttest p
Betrouwbaarheidsinterval
B Std.Error onder boven
Cons 0.113 0.065 1.742 0.107 -0.028 0.254
dtreat1 0.152 0.065 2.343 0.037 0.110 0.293
dtreat2 0.336 0.065 5.179 0.000 0.195 0.477
dtreat3 0.240 0.065 3.699 0.003 0.099 0.381
dmonk1 -0.105 0.073 -1.448 0.173 -0.263 0.053
dmonk2 -0.115 0.073 -1.585 0.139 -0.273 0.043
dmonk3 0.060 0.073 0.827 0.424 -0.098 0.218
dmonk4 0.035 0.073 0.483 0.638 -0.123 0.193

k. Vergelijk de ANOVA-tabel en de regressietabel. Trek conclusies over de studie aan de
hand van beide tabellen. Bediscussieer de bruikbaarheid van beide tabellen met
betrekking tot de studie.

De ANOVA-tabel is een stuk overzichtelijker en maakt twee eenduidige conclusies mogelijk.
Conclusie 1: de nulhypothese dat de behandelingen allemaal hetzelfde effect op de fractie
teruggegooide komkommerstukjes hebben, wordt krachtig verworpen. Er is dus een effect
van de behandeling. Conclusie 2: de nulhypothese dat apen onderling verschillen in hun
neiging komkommer te gooien, kan niet worden verworpen.

Als je kijkt naar de dummyregressie, dan vinden we drie statistisch significante effecten die
we moeten interpreteren: behandeling 1 en 2 hebben een verschillend effect op de
gooifrequentie; behandeling 1 en 3 hebben een verschillend effect op de gooifrequentie en
behandeling 1 en 4 ook. Hoe het tussen behandeling 2 en 3, 2 en 4, of 3 en 4 zit, weten we
niet. Daarvoor zouden we de dummies anders moeten coderen om zo een andere
referentiecategorie te verkrijgen. Ergo: we zijn nog niet klaar! Geen van de apen 2, 3, 4 en 5
verschillen statistisch significant in hun gooifrequentie van aap 1. Hoe dat tussen de andere
apen onderling zit, daarover vertelt deze tabel ons niets. Ook daarvoor zullen we andere
referentiecategorieën moeten gebruiken. Maar er is ook goed nieuws te melden: we hebben
effectschattingen. Zo kunnen we bijvoorbeeld bij 95% betrouwbaarheid stellen dat
behandeling 3 tussen de 19.5% en 47.7% meer teruggegooide komkommerstukjes oplevert
in vergelijking met behandeling 1, hoewel daarin nog niet de correctie voor het multipele
testen zit verwerkt.

ANOVA overal beeld en dummy apart. Bij regressie: 2 significant. Maar we hadden net gezien dat de
kans juist hierdoor groter wordt op type 1 fout. De ANOVA is overzichtelijker.
Maar.. de assumpties voldoen niet dus zelf zou ik een regressie doen





Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal
21
l. Wanneer we op grond van de ANOVA-tabel een post hoc analyse zouden doen, hoe
zouden de betreffende p-waarden zich dan verhouden tot degene die we in de
dummyregressieanalyse aantreffen?

Die p-waarden zouden allemaal hoger zijn, om ervoor te zorgen dat niet elke test op zich
een 5% kans op een type-I fout geeft, maar de overall kans op 1 (of meer) type-I fouten 5%
is. De betrouwbaarheidsintervallen worden dan dus ook breder. Dat is ook nodig, want we
maken 6 vergelijkingen tussen behandelingen (1 vs. 2; 1 vs. 3; 1 vs 4; 2 vs 3; 2 vs 4; 3 vs 4)
en 10 vergelijkingen tussen apen (reken zelf maar na). Bij 16 vergelijkingen is de kans dat
je er minstens eentje significant zult vinden, terwijl er eigenlijk niks aan de hand is al
opgelopen tot 56%. Als je wilt dat die kans maar 5% is, dan zul je per test een veel kleinere
o moeten kiezen.

Conclusie:
Wanneer en ANOVA  als je meerdere groepen wilt vergelijken: type 1 fout neemt af
Within en between belangrijk en eenweg en tweeweg. En je neemt ruis weg.

Tentamen:
Er komt een vraag over ANOVA, maar meer over multiple testing









Stuvia.com - De Marktplaats voor het Kopen en Verkopen van je Studiemateriaal

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->