ANOVA är ett robust test, men olämpligt i vissa situationer.
En enkelriktad ANAlysis Of VARiance, eller ANOVA, är en statistisk metod som används för att jämföra medelvärdet för mer än två uppsättningar data, för att se om de skiljer sig statistiskt från varandra. SPSS, ett statistiskt analyspaket, tillåter användning av en enkelriktad ANOVA i dess stora svit av procedurer. ANOVA är dock inte ett perfekt test och kommer under vissa omständigheter att ge missvisande resultat.
Exempel begränsningar
ANOVA-testet antar att proverna som används i analysen är "enkla slumpmässiga prover". Detta innebär att ett urval av individer (datapunkter) tas från en större population (en större datapool). Proverna måste också vara oberoende -- det vill säga de påverkar inte varandra. ANOVA är generellt lämpligt för att jämföra medelvärden i kontrollerade studier, men när proverna inte är oberoende måste ett upprepat mättest användas.
Dagens video
Normal distribution
ANOVA utgår från att uppgifterna i grupperna är normalfördelade. Testet kan fortfarande utföras om så inte är fallet - och om överträdelsen av detta antagande endast är måttlig är testet fortfarande lämpligt. Men om data är långt från normalfördelningen kommer testet inte att ge korrekta resultat. För att komma runt detta, antingen transformera data med SPSS "Compute"-funktionen innan analysen körs, eller använd ett alternativt test som ett Kruskal-Wallace-test.
Lika standardavvikelser
En annan begränsning av ANOVA är att den förutsätter att grupperna har samma, eller mycket likartade, standardavvikelser. Ju större skillnad det är i standardavvikelser mellan grupperna, desto större är chansen att slutsatsen av testet är felaktig. Liksom normalfördelningsantagandet är detta inte ett problem så länge standardavvikelserna inte är enormt olika och urvalsstorlekarna för varje grupp är ungefär lika stora. Om så inte är fallet är ett Welch-test ett bättre alternativ.
Flera jämförelser
När du kör en ANOVA i SPSS berättar det resulterande F-värdet och signifikansnivån dig bara om minst en grupp i din analys skiljer sig från minst en annan. Den berättar inte hur många grupper, eller vilka grupper, som skiljer sig statistiskt. För att fastställa detta måste uppföljande jämförelser göras. Detta är sällan ett problem i små analyser, men ju fler grupper som ingår i uppföljningstest, desto större är chansen att göra ett typ I-fel, vilket antar en effekt där det finns är inte en.