Skillnad mellan standardavvikelse och standardfel

Introduktion

Standard Deviation (SD) och Standard Error (SE) är till synes liknande terminologier; De är dock begreppsmässigt så varierade att de används nästan utbytbart i statistiklitteraturen. Båda termerna föregås vanligtvis av en plus-minus-symbol (+/-) som indikerar att de definierar ett symmetriskt värde eller representerar ett värdeområde. Biverkningarna visas alltid med ett medelvärde (medelvärde) för en uppsättning uppmätta värden.

Intressant har ett SE inget att göra med standarder, med fel eller med kommunikation av vetenskapliga data.

En detaljerad titt på ursprunget och förklaringen av SD och SE kommer att avslöja, varför professionella statistiker och de som använder den markant, tenderar båda att fel.

Standardavvikelse (SD)

En SD är a beskrivande statistik som beskriver spridningen av en distribution. Som en metrisk är det användbart när data distribueras normalt. Det är dock mindre användbart när data är mycket snedställda eller bimodala eftersom det inte beskriver mycket väl fördelningens form. Vanligtvis använder vi SD när vi rapporterar egenskaperna hos provet, eftersom vi avser att beskriva hur mycket data varierar runt genomsnittet. Annan användbar statistik för att beskriva spridningen av data är interkvartilintervall, 25: e och 75: e procentilen, och datahöjdsintervallet.

Figur 1. SD är ett mått på spridningen av data. När data är ett prov från en normalt distribuerad distribution, förväntar man sig att två tredjedelar av data ligger inom 1 standardavvikelse för medelvärdet.

Variansen är a beskrivande statistik också, och den definieras som kvadraten av standardavvikelsen. Det rapporteras vanligtvis inte när man beskriver resultat, men det är en mer matematiskt trakterbar formel (a.v.s. summan av kvadrerade avvikelser) och spelar en roll vid beräkningen av statistik.

Till exempel, om vi har två statistik P & Q med kända variationer var(P) & var(Q), då varians av summan P + Q är lika med summan av avvikelserna: var(P) +var(Q). Det är nu uppenbart varför statistiker gillar att prata om avvikelser.

Men standardavvikelser har en viktig betydelse för spridningen, särskilt när data distribueras normalt: Intervallet betyder +/ - 1 SD kan förväntas fånga 2/3 av provet och intervallet betyder +- 2 SD kan förväntas fånga 95% av provet.

SD ger en indikation på hur långt de enskilda svaren på en fråga varierar eller "avviker" från medelvärdet. SD berättar för forskaren hur spridningen av svaren är - är de koncentrerade runt medelvärdet eller spridda överallt? Räknade alla dina svarande på din produkt i mitten av din skala, eller godkände någon det och vissa avvisar det?

Tänk på ett experiment där respondenterna uppmanas att betygsätta en produkt på en serie attribut på 5-punktsskala. Medelvärdet för en grupp av tio respondenter (märkt "A" till "J" nedan) för "bra värde för pengarna" var 3,2 med ett SD på 0,4 och medelvärdet för "produktsäkerhet" var 3,4 med ett SD på 2,1.

Vid första anblicken (ser bara på medel) verkar det som om tillförlitligheten var högre än värdet. Men högre SD för tillförlitlighet skulle kunna indikera att svaren var väldigt polariserade, som de flesta respondenterna inte hade några pålitlighetsproblem (betygsatt attributet "5"), men ett mindre men viktigt segment av respondenterna hade ett pålitlighetsproblem och betygsatt attributet "1". Om man tittar på medelvärdet enbart berättar bara en del av berättelsen, men oftare är det inte vad forskarna fokuserar på. Fördelningen av svar är viktig att överväga och SD ger en värdefull beskrivande åtgärd av detta.

Svarande Bra värde för pengarna Produktsäkerhet
en 3 1
B 3 1
C 3 1
D 3 1
E 4 5
F 4 5
G 3 5
H 3 5
jag 3 5
J 3 5
Betyda 3,2 3,4
Std. dev. 0,4 2,1

Första undersökningen: Svarande betygsätter en produkt på 5-punktsskala

Två mycket olika fördelningar av svar på en 5-poängsskala kan ge samma medelvärde. Tänk på följande exempel som visar svarvärden för två olika betyg.

I det första exemplet (Betyg "A") är SD noll eftersom ALLA svar var exakt medelvärdet. De enskilda svaren avviker inte alls från medelvärdet.

I betyg "B", trots att gruppen betyder detsamma (3.0) som första fördelningen, är Standardavvikelsen högre. Standardavvikelsen på 1,15 visar att de enskilda svaren, i genomsnitt *, var lite över 1 poäng bort från medelvärdet.

Svarande Betyg "A" Betyg "B"
en 3 1
B 3 2
C 3 2
D 3 3
E 3 3
F 3 3
G 3 3
H 3 4
jag 3 4
J 3 5
Betyda 3,0 3,0
Std. dev. 0,00 1,15

Andra undersökningen: Respondenter betygsätter en produkt på 5-punktsskala

Ett annat sätt att titta på SD är att plotta distributionen som ett histogram av svar. En distribution med låg SD skulle visa sig som en lång smal form, medan ett stort SD skulle anges med en bredare form.

SD anger i allmänhet inte "rätt eller fel" eller "bättre eller sämre" - ett lägre SD är inte nödvändigtvis mer önskvärt. Den används rent som en beskrivande statistik. Det beskriver fördelningen i förhållande till medelvärdet.

TTeknisk ansvarsfriskrivning relaterad till SD

Att tänka på SD som en "genomsnittlig avvikelse" är ett utmärkt sätt att begripligt förstå dess mening. Det är emellertid inte faktiskt beräknat som ett medelvärde (om så skulle vi skulle kalla det "genomsnittlig avvikelse"). Istället är det "standardiserat", en något komplicerad metod att beräkna värdet med summan av kvadraterna.

För praktiska ändamål är beräkningen inte viktig. De flesta tabuleringsprogram, kalkylblad eller andra datahanteringsverktyg kommer att beräkna SD för dig. Viktigare är att förstå vad statistiken förmedlar.

Standard fel

Ett standardfel är en inferential statistik som används vid jämförelse av provmedel (medelvärden) över populationer. Det är ett mått på precision av provmedlet. Provmedelvärdet är en statistik som härrör från data som har en underliggande distribution. Vi kan inte visualisera det på samma sätt som data, eftersom vi har utfört ett enda experiment och har ett enda värde. Statistisk teori säger att provet betyder (för ett stort "tillräckligt" prov och under några regelbundna förhållanden) är ungefär normalt fördelat. Standardavvikelsen för denna normala fördelning är vad vi kallar standardfelet.

figur 2. Fördelningen vid bottenpressänder fördelningen av data, medan fördelningen på toppen är den teoretiska fördelningen av provmedlet. SD på 20 är ett mått på spridningen av data, medan SE av 5 är ett mått på osäkerhet kring provmedlet.

När vi vill jämföra resultaten av ett tvåprovsexperiment av Behandling A mot Behandling B, måste vi uppskatta hur exakt vi har mätt de medel.

Vi är faktiskt intresserade av hur exakt vi har mätt skillnaden mellan de två sätten. Vi kallar denna åtgärd standardfelet för skillnaden. Du kanske inte förvånad att veta att standardfelet i skillnaden i provmedlet är en funktion av medelfelens fel:

Nu när du har förstått att standardvärdet för medelvärdet (SE) och standardavvikelsen för distributionen (SD) är två olika djur, kanske du undrar hur de blev förvirrad i första hand. Medan de skiljer sig begreppsmässigt har de ett enkelt förhållande matematiskt:

,där n är antalet datapunkter.

Observera att standardfelet beror på två komponenter: provets standardavvikelse och provets storlek n. Detta gör intuitiv mening: ju större standardavvikelsen för provet är desto mindre precis kan vi handla om vår uppskattning av det sanna medlet.

Också den stora provstorleken, desto mer information vi har om befolkningen och ju mer precist vi kan uppskatta det sanna medlet.

SE är en indikation på genomsnittets tillförlitlighet. Ett litet SE är en indikation på att medelvärdena är en mer exakt reflektion av den faktiska populationen. En större provstorlek kommer normalt att resultera i ett mindre SE (medan SD inte påverkas direkt av provstorlek).

Den största undersökningsundersökningen innebär att man gör ett urval från en befolkning. Vi gör sedan slutsatser om befolkningen från resultaten från det provet. Om ett andra prov togs, kommer resultaten troligtvis inte exakt att matcha det första provet. Om medelvärdet för ett betygsattribut var 3,2 för ett prov, kan det vara 3,4 för ett andra prov av samma storlek. Om vi ​​skulle rita ett oändligt antal prover (av samma storlek) från vår befolkning kunde vi visa de observerade metoderna som en fördelning. Vi kunde sedan beräkna ett medelvärde av alla våra provmedel. Detta betyder lika med den sanna befolkningens medelvärde. Vi kan också beräkna SD av fördelningen av provmedel. SD för denna fördelning av provmedel är SE av varje enskilt provmedelvärde.

Vi har sålunda vår viktigaste observation: SE är SD för populationens medelvärde.

Prov Betyda
1:a 3,2
2:e 3,4
3:e 3,3
4:e 3,2
5:e 3,1
... . ... .
... . ... .
... . ... .
... . ... .
... . ... .
Betyda 3,3
Std. dev. 0,13

Tabell som illustrerar förhållandet mellan SD och SE

Det är nu klart att om SD av denna fördelning hjälper oss att förstå hur långt ett prov betyder från den sanna populationen, så kan vi använda detta för att förstå hur exakt varje enskilt prov betyder i förhållande till det sanna medlet. Det är kärnan i SE.

I själva verket har vi bara dragit ett enda prov från vår befolkning, men vi kan använda detta resultat för att ge en uppskattning av tillförlitligheten hos vårt observerade provmedelvärde.

Faktum är att SE säger att vi kan vara 95% övertygade om att vårt observerade provvärde är plus eller minus ungefär 2 (faktiskt 1,96) Standardfel från populationens medelvärde.

Nedanstående tabell visar fördelningen av svar från vårt första (och enda) prov som används för vår forskning. SE 0,13, som är relativt liten, ger oss en indikation på att vårt medel är relativt nära det sanna medlet av vår totala befolkning. Felmarginalen (vid 95% förtroende) för vårt medelvärde är (ungefär) dubbelt så mycket (+/- 0.26), vilket berättar att det sanna medelvärdet sannolikt är mellan 2,94 och 3,46.

Svarande Betyg
en 3
B 3
C 3
D 3
E 4
F 4
G 3
H 3
jag 3
J 3
Betyda 3,2
Std. Fela 0,13

Sammanfattning

Många forskare misslyckas med att förstå skillnaden mellan standardavvikelse och standardfel, även om de vanligtvis ingår i dataanalys. Medan de faktiska beräkningarna för standardavvikelse och standardfel ser väldigt ut, representerar de två mycket olika men kompletterande åtgärder. SD berättar om formen av vår distribution, hur nära de enskilda datavärdena är från medelvärdet. SE berättar hur nära vårt medelvärde är det sanna genomsnittet av den totala befolkningen. Tillsammans bidrar de till att ge en mer komplett bild än den enda som ensam kan berätta för oss.