statistisk analyse i spss - universitetet i oslobe spss om å kjøre en kjapp bootstrap samtidig hak...
TRANSCRIPT
STATISTISK ANALYSE I SPSS
Anne Schad Bergsaker
26. februar 2019
FØR VI BEGYNNER...
LÆRINGSMÅL
1. Kjenne til de vanligste testene som kan brukes i statistiskanalyse
2. Vite forskjell på parametriserte og ikke-parametrisertetester
3. Vite hvilke statistiske tester som bør brukes når
4. Vite når du må bruke robuste metoder
5. Kunne tolke resultatene fra en test i SPSS, og vite om enmodell du har laget er god eller ikke
1
TEKNISKE FORUTSETNINGER
Hvis du ikke har SPSS nå, bruk remote desktop: stat.uio.no,eller kiosk
Data som brukes til eksempler og oppgaver er hentet fra SPSSsurvival manual, og kan lastes ned frahttps://www.allenandunwin.com/spss under Data Files &
Exercises eller fra kurssiden http://www.uio.no/for-ansatte/kompetanse/tema/data/it-forskning/spss-26.02.19.html.
Prøv å gjøre og følge de samme stegene som jeg gjørunderveis. Har du spørsmål eller problemer, rop ut!
2
TYPISKE FORUTSETNINGER FOR
ANALYSER
TILFELDIGHET
Alle deltakere/caser i et datasett bør så langt det lar seg gjørevære tilfeldig utvalgt. Dette er en antakelse som all statistiskanalyse har til felles.
Dersom individer ikke er tilfeldig utvalgt, vil man kunne fåproblemer med feilkilder, og det blir vanskeligere å trekkegenerelle konklusjoner, fordi du ikke lenger kan anta at utvalgetditt er representativt for populasjonen.
3
UAVHENGIGHET
Målinger utført på samme person vil avhenge av hverandre.Målinger utført på individer i samme gruppe, f.eks. medlemmeri en familie kan påvirke hverandre, og vil ikke nødvendigvisvære uavhengige.
I vanlig regresjonsanalyse må data være uavhengige.
For t-test og ANOVA finnes det spesielle løsninger når man hardata fra samme person over tid, eller under ulike testforhold(repeated measures).
Det er mer komplisert å komme rundt problemer der individerhar påvirket hverandre. Dette er utenfor hva vi rekker å gågjennom på dette kurset.
4
OUTLIERS/UTELIGGERE
Ekstreme verdier som skiller seg veldig mye fra resten avdataene vil alltid ødelegge for tester/modeller, ettersom disseenkeltpunktene vil passe dårlig med modellen, og dermedredusere målene på hvor god modellen er.
Hvis du har uteliggere, vurder om du skal transformere ellertrimme datasettet (ta bort de øverste og nederst 5%, 10%, etc),eller ta bort enkeltpunkter (hvis det ser ut som dette erfeilmålinger). Alternativt, bruk robuste metoder som ikkepåvirkes så mye av uteliggere.
Hvis du tar bort punkter MÅ du rapportere dette, og begrunnehvorfor. Det holder ikke å si at de ikke passer med modellen.Det er modellen som skal tilpasses dataene, ikke dataene somskal tilpasses modellen.
5
LINEARITET OG ADDITIVITET
De fleste testene vi utfører antar et lineært forhold mellomvariabler. Et ikke-lineært forhold mellom variabler vil ikkenødvendigvis bli oppdaget, og en modell som baserer seg pålinearitet vil ikke passe godt til ikke-lineære forhold mellomvariabler.
Additivitet vil si at en modell basert på flere variabler bestrepresenteres ved at effektene av disse variablene leggessammen.
6
HOMOSKEDASTISITET/LIK VARIANS
Avvik mellom modellen du lager og dataene dine kalles gjernefor residualer. I tillegg til at residualene bør være normalfordelt,bør de også være omtrent like store gjennom hele modellen,altså ha konstant varians. Tilsvarende bør varians i ulikegrupper som sammenlignes, være relativt lik.
Hvis feilen modellen gjør endrer seg ettersom verdiene vi girsom input øker, har vi ikke en homoskedastisk modell. Vi har etproblem: heteroskedastisitet.
7
NORMALITET ELLER NORMALFORDELING
De aller fleste tester antar at ett eller annet knyttet til dataenedine er normalfordelt (enten at avvikene mellom rådata ogmodell er normalfordelt, eller at estimatene du lager kommer fraen normalfordelt samplingsfordeling), og bruker dette til sinfordel. Dette gjelder f.eks. t-test, ANOVA, Pearson-korrelasjonog lineær regresjon.
På grunn av sentralgrenseteoremet vet vi at for store datasett(mer enn 30 caser), vil samplingsfordelinger nærme seg ennormalfordeling uansett. Har du mye spredning eller uteliggeretrenger du flere caser, og det er uansett lurt å ha minst 100 forå være trygg, aller helst flere.
Uansett kan det være en god idé å sjekke om dataene ernormalfordelt før vi begir oss ut på noe mer avansert statistiskanalyse. 8
NORMALITET
For å sjekke om dataene er normalfordelt bruker vi ExploreAnalyze > Descriptive Statistics > Explore
• Dependent list:Variabelen/variablene som duønsker å analysere
• Factor list: Kategorisk variabelsom kan gruppere data i denavhengige variablen.
• Label cases by: Merke caser,slik at f.eks. outliers blir enkleå identifisere.
9
NORMALITET
Explore: Plots
• Boxplots: Factor levels together - Dersomdet er angitt en faktor-variabel vil dettevelge å plotte dem sammen
• Boxplots: Dependents together - Dersomman har valgt mer enn en avhengigvariabel, vil dette plotte dem sammen
• Descriptive: Histogram er som regel detmest informative valget
• Normality plots with tests: Plott og tabellersom kan gjøre det tydeligere om envariabel er normalfordelt eller ikke
10
NORMALITET
Output: Tests of Normality og Extreme Values
• Tests of Normality: For at disse skalsi at fordelingen er normal må sigmavære større enn 0.05. MEN, detteskjer nesten aldri når man har storedatasett. Derfor er det bedre å se påplottene for å avgjøre dette.
• Extreme values: De fem største ogminste verdiene.
11
NORMALITET
• Histogram: Her ser vi atdataene er litt skjevtfordelt, men at denoverordnede fordelingener nær ennormalfordeling likevel
• Boxplot: Viser mye avdet samme somhistogrammet
12
NORMALITET
• Normal Q-Q plot: Den skrå linjenangir forventet verdi dersomdataene var normalfordelt.Unntatt i den høyre halen,sammenfaller dataene ognormalfordelingen veldig bra
• Detrended normal Q-Q plot: Herblir avvik mellom normalfordelingog data tydeligere. Her er detingen klar avvikende trend, menvi ser enda tydeligere at høyrehale er ’tyngre’ enn forventet foren normalfordeling
13
HJELP, DATAENE MINE TILFREDSSTILLER IKKE FORUTSETNIN-GENE!
I en del tilfeller vil du kunne velge en ikke-parametrisert test,som ikke har disse strenge forutsetningne
Trimme data: Ta bort de høyeste og laveste 5%, 10%, 15%, etc,alternativt trimme basert på standardavvik
Windsorizing: Erstatte verdiene til ekstreme målinger, med denhøyeste (eller laveste) verdiene som ikke er en outlier
Bootstrapping: Lage seg mange hypotetiske sampler, basert påde verdiene man allerede har, og gjøre de samme analysenepå disse samplene
Transformere variabler som er milevis unna normalfordeling
14
BOOTSTRAPPING
Bootstrapping er en form for robust analyse, og er den sombrukes oftest, og som er enklest å implementere i SPSS.
Bootstrapping vil si at SPSS behandler ditt utvalg som en slagspopulasjon, som den velger nye utvalg fra (med tilbakelegging).Den trekker N caser fra ditt utvalg, regner ut de statistiskestørrelsene vi har bedt om, og går videre til å gjøre dette pånytt, til den har samlet 1000 (eller flere, det velger du selv) nyeutvalg, som den bruker som utgangspunkt til å lagekonfidensintervaller rundt de estimerte verdiene, f.eks.gjennomsnitt eller korrelasjonskoeffisient. Vanligvis tilsvarer Ndet antall caser du har i ditt eget opprinnelige sample.
15
TRANSFORMASJON AV ’UNORMALE’ DATA
Siste utvei, og kan gjøre det vanskeligere å tolke resultatene.
16
ANTALL CASER/DATAPUNKTER
Det er ikke ett enkelt svar på hvor mye data du trenger for åkunne bruke en test, eller forvente å finne signifikante svar påspørsmål. Det vil avhenge av typen test, og størrelsen påeffekten du undersøkter. Jo mindre effekt, jo flere caser trengerdu.
Sentralgrenseteoremet tilsier at selv om populasjonen duhenter data fra ikke er normalfordelt, vil estimatene dine hanormalfordelt sampliongsfordeling så lenge du har minst 30caser, men 30 er minstekravet, og stemmer ikke alltid.
Har du mye spredning i dataene dine, trenger du flere caserenn 30, og ser du etter små effekter eller forskjeller mellomgrupper, trenger du mange flere caser.
17
UTFORSKE FORHOLD MELLOM
VARIABLER
KORRELASJON
Korrelasjon angir lineære forhold mellom to kontinuerlige variabler.Dersom to variabler er korrelert vil en endring i den enekorrespondere med en endring i den andre.
Korrelasjon er et tall mellom -1 og 1, der 1 antyder perfekt korrelasjon.Hvis den ene variablen øker, vil den andre øke tilsvarende.
Korrelasjon lik -1 er også en form for perfekt korrelasjon, men detantyder at om den ene variablen øker, vil den andre minketilsvarende. Dette er hva vi kaller negativ korrelasjon.
Korrelasjon lik 0 betyr at variablene ikke har noen sammenheng medhverandre. Om den en øker, vil den andre oppføre seg helt vilkårlig.
Blir veldig påvirket av uteliggere
Pearson-korrelasjon er en parametrisert test, Spearman-korrelasjoner ikke-parametrisert. Har du få caser, kan det være lurt å brukeSpearman.
18
KORRELASJON
19
FORUTSETNINGER FOR VANLIG KORRELASJON
Du trenger to (eller flere) kontinuerlige variabler som du skalteste for sammenheng mellom
Forholdet mellom dem bør være lineært, for å finne noensammenheng
Det burde ikke være noen utpregede uteliggere
Variablene bør være omtrent normalfordelt, men dette er kunviktig hvis du har små datasett.
Hvis du ønsker å se på korrelasjon mellom ordinale ogkontinuerlige variabler bør du heller bruke Spearman ellerKendalls tau. Spearman er også å foretrekke når du har myeoutliers. Har du ikke normalfordelte data og med litt få caser,kan du bruke bootstrap sammen med vanlig Pearsonkorrelasjon. 20
KORRELASJON
Finne korrelasjon mellom to variable: Analyze > Correlate >Bivariate
Vi brukerdatasettetsurvey.sav. Angivariabler duønsker å finnekorrelasjonmellom. Pass påat Pearson erhaket av, og atTwo-tailed ervalgt.
21
HÅNDTERING AV MANGLENDE DATA
Velg Exclude cases pairwise, for åinkludere mest mulig av dataene dine ianalysen.Exclude cases listwise vil eksludereenhver case som har manglende data iseg, uavhengig av om dette punktet skalbrukes i analysen eller ikke.
22
BOOTSTRAPPING
Dersom du ikke er helt sikkerpå om du har nok data til atsentralgrenseteoremetredder deg fra manglendenormalfordeling, så kan dube SPSS om å kjøre enkjapp bootstrap samtidigHak av for Perform bootstrap,og angi antall ganger. 1000er default, og er som regelnok, men om du vil kan du beom 2000 f.eks. Velg Biascorrected accelerated.
23
KORRELASJON
Ettersom vi utførte enbootstrap sammen medkorrelasjonsanalysen får vimed noen ekstra rader, somangir konfidenintervallenerundt estimatene våre forgjennomsnitt og korrelasjon.Konfidenintervallene støtterdet signifikansnivået angir, atvi har signifikant korrelasjon,og at den i dette tilfellet erstor. (Liten effekt: r≥0.1,Middels: r≥0.3, Stor: r≥0.5).
24
KORRELASJON
Finne gruppert korrelasjon mellom to variable
• For å finnekorrelasjon mellomvariable, i ulikegrupper, kan dubruke Split File
• Data > Split File >Compare groups
25
PARTIELL KORRELASJON
Analyze > Correlate > PartialBrukes for å se hvorstor del av korrelasjonskyldes sammenhengmed og variasjon i entredje variabel. Flytt devariablene du erinteressert i over iboksen Variables, ogden du vil kontrollerefor i Controlling for.
26
PARTIELL KORRELASJON
Det er nyttig å hake av Zero-ordercorrelations. Dette gir etsammenligningsgrunnlag, ettersomSPSS også skriver ut korrelasjon mellomvariablene når man IKKE tar hensyn tilvariasjonen i kontrollvariablen.
27
PARTIELL KORRELASJON
Korrelasjon når man tar hensyn til en tredje variabel kansammenlignes med korrelasjon når man ikke tar hensyn. Erdisse helt like, har kontrollvariablen ingen innvirkning. I defleste tilfeller vil korrelasjonen være litt lavere, noen ganger myelavere (confounding).
28
LINEÆR REGRESJON
Brukes for å se etter sammenhenger mellom variabler. Kan duforutse en kontinuerlig variabel basert på andre kontinuerligedata?
Finner bare lineære sammenhenger
Feilen vi gjør (avvik mellom utvalg og populasjon) må væreuavhengige
Bør ha mange flere målinger enn variabler, tommelfingerregeler N>50+8m, der m er antall uavhengige variabler, men detteer ikke noe fasitsvar
Mange tror at prediktorer/uavhengige variabler trenger å værenormalfordelt, men det er ikke tilfelle.
Avvik mellom målte verdier og predikerte verdier kallesresidualer, og disse må granskes litt ekstra i etterkant. 29
ANTALL CASER
Antall caser du bør haavhenger av hvor mangeuavhengige variabler duønsker å inludere i modellen,og hvor stor (eller liten)effekten du ser etter er.(Basert på figur hentet fraField, 2017)
30
FORUTSETNINGER FOR LINEÆR REGRESJON
Du bør ha en kontinuerlig utfallsvariabel, og en eller flerekontinuerlige eller dikotome kategoriske uavhengige variabler
Det bør være en lineær sammenheng mellom utfallsvariablenog de uavhengige variablene, og den samlede effekten børkunne uttrykkes ved summen av variablene
Det bør ikke være noen utpregede uteliggere
Observasjoner bør være uavhengige
Dataene bør være homoskedastiske (dette er noe du kansjekke etter at du har laget modellen)
Residualene bør være normalfordelt (dette kan du først sjekkeetter at du har laget modellen)
Hvis du har mer enn en uavhengig variabel, bør disse ikke væresterkt korrelert med hverandre, altså ingen multikolinearitet.
31
LINEÆR REGRESJON
Analyze > Regression > Linear
Vi bruker datasettetsurvey.sav. Flytt denavhengige variablenover til Dependent, ogstart med et utvalg avde uavhengigevariablene du vil hamed i modellen iboksen Independents.Trykk på Next.
32
LINEÆR REGRESJON
Legg til resten avvariablene du vil hamed i boksenIndependents. Vil dusammenligne med enenda mer komplisertmodell, trykker du påNext enda en gang. Vildu ha med allevariabler fra start,legger du alle inn iførste omgang, uten ålage flere blokker.
33
LINEÆR REGRESJON
Linear Regression: StatisticsPass på at Estimates ogConfidence intervals er haketav i Regression Coeff., og tamed Model fit, R squaredchange, Descriptives, Partand partial correlations,Collinearity diagnostics ogCasewise diagnostics. Da fårdu god oversikt over hvorgod modellen er.
34
LINEÆR REGRESJON
Linear Regression: Options
La default-verdiene stå.Dette er en av få analyserhvor det er bedre å brukeExclude cases listwise ennExclude cases pairwise.Bruker du pairwise risikererdu at modellen gir absurde(og fullstendige gale)resultater, som at modellendin forklarer mer enn 100%av den totale variasjonene ogden slags.
35
LINEÆR REGRESJON
Linear Regression: PlotsFordi residualene er det vihar mest nytte av å se påplotter vi standardisertepredikerte verdier (ZPRED)mot standardiserte residualer(ZRESID). I tillegg velger viHistorgram, Normalprobability plot og Produceall partial plots.
36
LINEÆR REGRESJON
Linear Regression: Save
For å undersøke om vi harutpregede uteliggere, eller casersom har stor påvirkning påmodellen, lagrer vi flere variablersom knytter seg til residualene ogde estimerte verdiene. Disse vil blilagt til som egne variabler lengst tilhøyre i datasettet.
37
LINEÆR REGRESJON
Descriptives gir enkelbeskrivende statistikk for allevariabler, både avhengig oguavhengige. Correlationsangir Pearson korrelasjonmellom variablene. Her kanman sjekke at de uavhengigekorrelerer med denavhengige, samt at deuavhengige ikke korrelererveldig mye med hverandre.Korrelasjon mellomprediktorer på over 0.9 erikke bra.
38
LINEÆR REGRESJON
R Square angir hvormye av variabilitet iavhengig variabel sombeskrives av modellen(gang med 100 for å få%). ANOVA-tabellenangir om modellen i sinhelhet er signifikant. Idette tilfellet er beggesignifikante, menmodell 2 beskriver mervariabilitet.
39
LINEÆR REGRESJON
Coefficients angir parametrene som forteller om effekten avhver enkelt variabel (B), og om disse er signifikante (Sig.). Betalar deg sammenligne effekten av hver variabel mot hverandre,som om de var målt på samme skala. VIF er et mål påmultikolinearitet. Verdier over 10 er bekymringsverdige.
40
LINEÆR REGRESJON
Spesielt målene på Mahal.Distance og Cook’s Distanceer nyttige for å se etteruteliggere og caser med påpåvårkning på modellen.Med fire uavhengige variableer kritisk øvre verdi forMahalanobis 18.47. Detpunktet med Mahal. på 18.64kan finnes i datasettet, mener ikke så stor at vi bekymreross. Kritisk verdi for Cooks er1. Alt under er greit.
41
LINEÆR REGRESJON
Residualene er relativtnormalfordelt, så det erliten grunn til åbekymre seg for disse.Hadde ikke det værttilfellet burde vi haprøvd å bootstrappe,for å få mer påliteligekonfidensintervaller ogsignifikansnivåer
42
LINEÆR REGRESJON
P-P plottet viser defaktiske residualenemot det man forventer,gitt en normalfordeling.Disse bør ligge langsden svarte linjen, ogdet gjør de, hvilketforsterker argumentetfor at residualene ernormalfordelte.
43
LINEÆR REGRESJON
Predikert verdi plottetmot residualer brukesspesielt for å sjekke omdata erhomoskedastiske. Hvispunktene har entrakt-form er det tegnpå heteroskedastisitet,og vi bør bruke robustemetoder. Sky-form(sånn som her) er detvi vil ha.
44
LINEÆR REGRESJON
Siste sjekk av linearitet og korrelasjon er å se på scatterplot avalle uavhengige variabler mot den avhengige variablen. Ikkeoverraskende ser vi lite tegn til korrelasjon mellom utfall og deto variablene som ikke ga signifikans i modellen.
45
LINEÆR REGRESJON
Ved å plotte standardiserte residualer mot de ulike uavhengigevariablene kan vi sjekke at feilen vi gjør ser uavhengig ut. Herbør det ikke være noen tydelige trender.
46
UTFORSKE FORSKJELLER MELLOM
GRUPPER
LITEN DISCLAIMER
Selv om t-test og ANOVA ofte presenteres som noe helt annetenn lineær regresjon, er det egentlig akkurat det samme. Altsammen baserer seg på den samme lineære modellen.Grunnen til at de holdes separat, er rent historisk. Derfor er detikke så veldig farlig om du er usikker på om du vil utforskeforskjeller mellom grupper, eller forhold mellom variabler.
47
T-TEST
Sammenligne data fra to grupper, for å se om de er forskjellige.Brukes typisk når man har gjort kontrollerte studier.
Vær bevisst på at det finnes (i hovedsak) to ulike t-tester; en foruavhengige grupper, og en for målinger på samme gruppe vedto tidspunkt (repeated measures).
Alternativ dersom kriterier ikke er møtt: Mann Whitney U-test(for uavhengige data), Wilcoxon Signed Rank-test (foravhengige data), t-test kombinert med bootstrap.
48
FORUTSETNINGER FOR UAVHENGIG T-TEST
Du trenger en kontinuerlig avhengig variabel og en kategoriskuavhengig variabel med to nivåer/kategorier
Uavhengige observasjoner/grupper. Dette betyr at hverdeltaker kun kan tilhøre en av gruppene, f.eks. menn ogkvinner, røykere og ikke-røykere.
Tilfeldig utvalg
Ingen utpregede uteliggere
Den avhengige variablen bør være normalfordelt innenfor hverav kategoriene i den uavhengige variablen.
Variansen i den avhengige variablen bør være omtrent lik i deto kategoriene angitt av den uavhengige variablen. Grupper børheller ikke være veldig ulik størrelse.
49
T-TEST
Analyze > Compare Means > Independent Samples T Test
Vi bruker datasettet survey.sav.Flytt den avhengige kontinuerligevariablen til boksen TestVariable(s), og den uavhengigekategoriske variablen til GroupingVariable. Selv om du kan testeflere avhengige variabler avganger, bør du ikke gjøre det, menheller bruke MANOVA.
50
T-TEST
Trykk på Define Groups...
Her gjelder det å huske hvordanden kategoriske variablen er kodet.Angi hva de to gruppene skalvære. Her er kjønn kodet som1=Mann og 2=Kvinne, så vi angir 1og 2 og trykker Continue. Haddede vært kodet som 0 og 1, ville viskrevet inn de verdiene.
51
T-TEST
Group Statistics gir litt info om de to gruppene, gjennomsnitt,standardavvik, etc. Independent Samples Test forteller oss omhvor stor forskjellen er (Mean difference), og om den ersignifikant (Sig. 2-tailed). Dersom Levene’s test ikke ersignifikant (kolonne nr 2), kan vi se på første rad (Equalvariances assumed). t-testen i dette tilfellet er ikke signifikant.
52
MANN WHITNEY U-TEST
Ikke-parametrisert variant av vanlig t-test for uavhengigemålinger. Du trenger en kontinuerlig variabel, og en kategoriskvariabel med to grupper. Alternativ om du har mye outliers.
Analyze > Nonparametric Tests > Independent Samples
Velg Customizeanalysis og trykk påFields
53
MANN WHITNEY U-TEST
Velg Use custom fieldassignments, og flyttden avhengigevariabelen over i feltetTest Fields. Flytt denuavhengige variablenover i Groups, og trykkpå Settings.
54
MANN WHITNEY U-TEST
Hak av påMann-Whitney U (2samples), og trykkPaste.
55
MANN WHITNEY U-TEST
Sammendraget av testen forteller hva som er hypotesen vitester mot (ingen forskjell mellom grupper), og hvakonklusjonen av testen er, basert på signifikans. I dette tilfelleter det ikke signifikant forskjell mellom gruppene, og vi beholdernullhypotesen.
56
MANN WHITNEY U-TEST
Signifikans-verdien fra testen, med tilhørende test-statistikkvises i tabellen Independent Samples Mann-Whitney U....Histogrammene over de to gruppene støtter resultatet avtesten, at det ikke er noen stor forskjell mellom gruppene.
57
FORUTSETNINGER FOR REPEATED MEASURES T-TEST
Du trenger en avhengig variabel som er kontinuerlig og måltved to ulike tidspunkt eller under to ulike forhold
Tilfeldig utvalg
Det bør ikke være noen utpregede uteliggere i differansenmellom de to nivåene/tidspunktene
Forskjellen mellom målingene ved tidspunkt en og tidspunkt tobør være omtrent normalfordelt.
Dataene bør være arrangert slik at alle deltaker kun har en rad,med målinger fra ulike tidspunkt som ulike variabler.
58
T-TEST (REPEATED MEASURES)
Analyze > Compare Means > Paired Samples T Test
Vi bruker datasettetexperim.sav. Flyttvariablen sominneholder målingerved tidspunkt/forhold nr1 over i boksen PairedVariables. Flytt derettervariablen sominneholder målinger fratidspunkt/forhold nr 2.
59
T-TEST (REPEATED MEASURES)
Paired Samples Statistics inneholder beskrivende statistikksom gjennomsnitt og standardavvik for de to uliketidspunktene.Paired Samples Correlations angir korrelasjonmellom målingene fra de to ulike tidspunktene.
60
T-TEST (REPEATED MEASURES)
Siste tabell angir om testen er signifikant eller ikke, og hva somer gjennomsnittlig forskjell mellom de totidspunktene/forholdene. Her er forskjell 2.67, og testen erhøyst signifikant (p<0.001).
61
WILCOXON SIGNED RANK-TEST
Ikke-parametrisert alternativ til repeated measures t-test. Dutrenger en kontinuerlig variabel målt ved to ulike tidspunkt.Spesielt egnet om du har mye outliers.
Analyze > Nonparametric Tests > Legacy Dialogs > 2 RelatedSamples
Flytt først målinger fraførste tidspunkt over iTest Pairs, derettermålinger fra tidspunktnr 2. Hak av forWilcoxon.
62
WILCOXON SIGNED RANK-TEST
Two-Related-Samples: OptionsHak av for Quartiles (ogDescriptives om du ønsker littdeskriptiv statistikk i tillegg).Exclude cases test-by-testgjør at alle som har data forbegge tidspunkt, men someventuelt mangler data iandre variabler fortsatt tasmed i analysen.
63
WILCOXON SIGNED RANK-TEST
Descriptive Statistics angirde ulike kvartilene. Her ser viat det er tegn til forskjellermellom målinger fra uliketidspunkt, ettersom allekvartiler for tidspunkt 2 erlavere enn for tidspunkt 1.Test Statistics bekrefter dette(p<0.001). Effekten kanberegnes vha r=z/(2*N) derN er antall caser, som i dettetilfellet blir -4.18/(2*30)=0.54,som tilsvarer en stor effekt.
64
ANOVA - ANALYSIS OF VARIANCE
Sammenligne data fra to eller flere grupper for å se om de erforskjellige.
Vær bevisst på at testen må tilpasses til om du har uavhengigegrupper (ulike deltakere i hver gruppe), eller om det er desamme som inngår i hver av gruppene (repeated measures).ANOVA antar at alle grupper har omtrent like stor spredning(standardavvik).
Alternativ dersom kriterier ikke er møtt: Kruskal Wallis-test,Friedman-test, bootstrap, andre robuste metoder
65
FORUTSETNINGER FOR UAVHENGIG ANOVA
Du trenger en kontinuerlig avhengig variabel, og en kategoriskuavhengig variabel med minst to kategorier
Uavhengige målinger, slik at deltakere kun forekommer i en avgruppene angitt av den kategoriske variablen, ogenkeltindivider ikke har fått påvirke hverandre
Tilfeldig utvalg
Ingen utpregede uteliggere
Den avhengige variablen bør være omtrent normalfordeltinnenfor de ulike kategoriene angitt av den uavhengigevariablen
Variansen til de ulike kategoriene bør være tilnærmet lik.Grupper bør heller ikke være veldig ulik størrelse.
66
ANOVA - ANALYSIS OF VARIANCE
Analyze > Compare Means > One way ANOVA
Vi bruker datasettetsurvey.sav. Flytt denavhengige variablenover i vinduetDependent List, og denkategoriske variablen tilFactor.
67
ANOVA - ANALYSIS OF VARIANCE
One way ANOVA: Options
Hak av for Descriptive,Homogeneity of variance,Brown-Forsythe og Welch underStatistics og velg Means plot. For åfå med mest mulig data i analysen,velg Exclude cases analysis byanalysis.
68
ANOVA - ANALYSIS OF VARIANCE
One way ANOVA: Post Hoc Multiple Comparisons
Her kan du velge fra et utvalgav post hoc-tester. SjekkSPSS sin dokumentasjon fordetaljer om hver test. Vivelger Tukey (hvis vi haromtrent lik varians ogstørrelse på grupper),Bonferroni (kontrollerer fortype I feil) og Games-Howell(i tilfelle det er ulikhet ivarians).
69
ANOVA - ANALYSIS OF VARIANCE
Descriptives gir beskrivende statistikk for den avhengigevariablen innenfor de ulike gruppene definert av denuavhengige variablen.
70
ANOVA - ANALYSIS OF VARIANCE
Test of Homogeneity... angir om vikan anta at variansen er omtrentlike stor i de ulike gruppene. Her ernullhypotesen at de er like, så viønsker at Sig. skal være større enn0.05. Robust Tests of Equality ofMeans angir testresultater som børbrukes dersom variansen ikke erlik, og angir omtrent det sammesom vanlig ANOVA. I dette tilfellet,at det er signifikant forskjell mellomgruppene.
71
ANOVA - ANALYSIS OF VARIANCE
Siden vi kan anta lik variansbaserer vi oss på vanligANOVA, som også sier at deter signifikante forskjellermellom gruppene (Sig. =0.01). Posthoc-testresultatene angirhvilke grupper som ersignifikant ulike frahverandre. Her ser vi at detkun er signifikant forskjellmellom første og sistealdersgruppe.
72
ANOVA - ANALYSIS OF VARIANCE
Gjennomsnitt i hver aldersgruppe plottet mot aldersgruppeneindikerer også en tydelig trend, med økende optimisme medalder.
73
KRUSKAL WALLIS
Ikke-parametrisert alternativ til ANOVA for uavhengigemålinger. Du trenger en kontinuerlig variabel og en kategoriskvariabel med tre eller flere grupper.
Analyze > Nonparametric parametric Tests > IndependentSamples
I Fields-tabben, flyttden avhengigevariablen over i TestFields, og denkategoriskeuavhengige variablentil Groups.
74
KRUSKAL WALLIS
Under Settings, velgKruskal-Wallis 1-wayANOVA, og pass på atMultiple comparisonsstår på All pairwise.Velg Test for OrderedAlternatives dersomden kategoriskevariablen er ordnet.Trykk Paste.
75
KRUSKAL WALLIS
Hypothesis Test Summaryangir hva null-hypotesen er,og om den bør forkastes. Idette tilfellet sier den at vi børgå for alternativ hypoteste, atdet er forskjell på gruppeneog at den endrer segkonsekvent ettersom alderøker. Spesifikk test-statistikkog signifikans vises også iIndependent-SamplesKruskal-Wallis...
76
KRUSKAL WALLIS
Boxplot av dataene frade ulikealdersgruppene ser uttil å bekrefte atoptimisme økerettersom alder øker.
77
KRUSKAL WALLIS
Pairwise comparisons... forteller oss at det kun er signifikantforskjell mellom første og siste aldersgruppe.
78
FORUTSETNINGER FOR REPEATED MEASURES ANOVA
Du trenger en kontinuerlig variabel som er målt ved minst toulike tidspunkt eller eksperimentelle forhold
Tilfeldig utvalg
Ingen utpregede uteliggere
Den avhengige variablen bør være omtrent normalfordelt vedhvert av tidspunktene eller ved hver av de ulike eksperimentelleoppsettene
Variansen til den avhengige variablen ved de ulike tidspunktenebør være tilnærmet lik
Variansen til differansen mellom alle mulige par av tisdpunkterbør være tilnærmet lik for alle parkombinasjoner (kalles oftesfærisitet). Hvis ikke må korreksjoner brukes.
79
ANOVA - ANALYSIS OF VARIANCE (REPEATED MEASURES)
Analyze > General Linear Model > Repeated Measures
Vi bruker datasettetexperim.sav. Først må vi’lage’ en faktor som definerereffekter som skal testes forflere personer/caser vedulike tidspunkt/forhold. Vi måbare oppgi et navn og angiantall nivåer, og trykke påAdd.
80
ANOVA - ANALYSIS OF VARIANCE (REPEATED MEASURES)
Etter at vi har trykket på Add,vil denne faktoren dukke oppi vinduet under. Deretter kanvi trykke på Define.
81
ANOVA - ANALYSIS OF VARIANCE (REPEATED MEASURES)
De tre nivåene ifaktoren vi lagde stårlistet opp som tre ulikevariabler. Disse mådefineres ved at vimarkerer nivå 1, ogflytter målingene avden avhengigevariablen ved tidspunkt1 over i boksenWithin-SubjectsVariables.
82
ANOVA - ANALYSIS OF VARIANCE (REPEATED MEASURES)
Når alle tidspunkt erlagt til, vil det seomtrent slik ut. Alle trenivåer i faktoren vårhar blitt definert av hversin variabel.
83
ANOVA - ANALYSIS OF VARIANCE (REPEATED MEASURES)
Repeated Measures: Model
Sjekk at Full factoral ervalgt, og at Sum ofsquares står på TypeIII.
84
ANOVA - ANALYSIS OF VARIANCE (REPEATED MEASURES)
Repeated Measures: Options
Velg Descriptivestatistics og Estimatesof effect size.
85
ANOVA - ANALYSIS OF VARIANCE (REPEATED MEASURES)
Repeated Measures: Profile Plots
Flytt time over i Horizontal axis, ogtrykk på Add. Velg enten Line charteller Bar chart (avhengig av hva duliker). Hak av for Include ErrorBars.
86
ANOVA - ANALYSIS OF VARIANCE (REPEATED MEASURES)
Repeated Measures: Estimated Marginal Means
Velg time og flytt over iDisplay Means for. Hak avfor Compare main effects ogvelg Bonferroni (den erstrengest). Trykk Continueog Paste.
87
ANOVA - ANALYSIS OF VARIANCE (REPEATED MEASURES)
Descriptive Statistics gir gjennomsnitt og standardavvik for denavhengige variablen innenfor hver av gruppene definert av denuavhengige variablen. Multivariate Tests angir signifikans. Herkan du velge den testen som er mest vanlig i ditt fagfelt. Sigmindre enn 0.05 indikerer signifikant forskjell mellom grupper.
88
ANOVA - ANALYSIS OF VARIANCE (REPEATED MEASURES)
Mauchly´s test of sphericity angir om sfærisitet er tilfredsstilteller ikke. Nullhypotesen er at sfærisitet er tilfredsstilt. Hvis Sig.er mindre enn 0.05, kan vi ikke anta at sfærisitet er tilfredsstilt,og vi må da ta hensyn når vi tolker resten av modellen.
89
ANOVA - ANALYSIS OF VARIANCE (REPEATED MEASURES)
Siden vi ikke kan antasfærisitet, må vi basere osspå de tre andre målene påom det er forskjeller påtidspunktene. Denstrengeste er Lower-bound,og selv denne er signifikant.Vi har også signifikans for atdet er en lineærsammenheng medtidsfaktoren vår (se Tests ofwithin-subjectscontrasts-tabell)
90
ANOVA - ANALYSIS OF VARIANCE (REPEATED MEASURES)
Gjennomsnitt for hverttidspunkt sammen medtilhørende standardfeil ofkonfidensintervall erpresentert i EstimatedMarginal Means. Pairwisecomparisons viser at det ersignifikant forskjell mellomalle nivåer, med tilhørendegjennomsnittlig forskjell.
91
ANOVA - ANALYSIS OF VARIANCE (REPEATED MEASURES)
Gjennomsnitt for hvert tidspunkt plottet mot tid, inludertusikkerhet gitt av konfidensintervallene viser en tydelig lineærtrend i at deltakeres frykt for statistikk avtar med tid.
92
FRIEDMANS ANOVA
Ikke-parametrisert alternativ til repeated measures ANOVA. Dutrenger en kontinuerlig variabel som har blitt målt ved minst toulike tidspunkter/ulike forhold.
Analyze > Nonparametric Tests > Legacy Dialogs > K RelatedSamples
Flytt de variablene somrepresenterer målingerpå uliketidspunkt/under ulikeforhold over i boksenTest Variables.
93
FRIEDMANS ANOVA
Several Related Samples:Statistics, Several RelatedSamples: Exact
Hak av for Quartiles ogeventuelt Descriptive om duvil. Velg Exact under Exacttests.
94
FRIEDMANS ANOVA
Deskriptiv statistikk viserkvartiler ved hvert tidspunkt.Ranks angir gjennomsnittligrang ved hver av de tretidspunktene. At rang ser uttil å avta med tid antyder atdet er en sammenhengmellom tid og frykt forstatistikk. Test Statisticsangir om testen er signifikanteller ikke (Asump.Sig.< 0.05).
95
MIXED ANOVA
Brukes når du har lyst til å både sammenligne uavhengigegrupper, samtidig som du har målinger utført på de sammeindividene ved flere tidspunkt/ved ulike forhold.
Analyze > General Linear Model > Repeated Measures
Som med vanligrepeated measuresANOVA, må vi lagefaktoren som angir deulike tidspunk-tene/forholdene. Giden et navn, angi antallnivåer, og trykk Add,og trykk Define
96
MIXED ANOVA
Flytt de variabene somtilsvarer målinger av denavhengige variablen på uliketidspunkt over til tilsvarendenivå i tidsfaktoren i vinduetWithin-subjects variables.Flytt faktoren som angir denfaktoren med uavhengigemålinger over i feltetBetween-subjects factors.
97
MIXED ANOVA
Repeated Measures: Options
Velg Descriptivestatistics, Estimates ofeffect size ogHomogeneity tests.
98
MIXED ANOVA
Repeated Measures: Profile Plots
Legg til den repetertefaktoren (her time) til feltetHorizontal Axis, og faktorenmed uavhengige grupper iboksen Separate Lines, ogtrykk på Add. Velg LineChart, og hak av for IncludeError Bars.
99
MIXED ANOVA
Gjennomsnitt ogstandardavvik forde to uavhengigegruppene vedhvert av de tretidspunktene.
100
MIXED ANOVA
Dette er en test av kovarians påtvers av grupper og tidspunkt.Nullhypotesen er at kovariansen erlik. Hvis denne testen ikke ersignifikant, kan vi anta atkovariansen ikke varierernevneverdig, dvs. at korrelasjonmellom ulike tidspunkter innenforundergruppene definert av deuavhengige gruppene ikke varierer.
101
MIXED ANOVA
De første fire radene iMultivariate tests tilsierat det er en signifikanteffekt av tid. De nestefire radene tilsier at detikke er noen signifikanteffekt av denkombinerte faktoren tidog gruppering.
102
MIXED ANOVA
Levene´s test antyderat det er konstantvarians i feilen sommodellen gjør, ettersomingen av testene ersignifikante. Tests ofBetween Subjectseffects viser atgruppene i denuavhengige variablenikke er signifikant ulike(p=0.81).
103
MIXED ANOVA
Grafen av frykt for statistikk over tid for de to ulike gruppeneforsterker inntrykket av at det ikke er noen forskjell pågruppene, ettersom linjene følger hverandre veldig nært.
104
ANOVA - ANALYSIS OF VARIANCE
Andre varianter av ANOVA
• Two way ANOVA - flere uavhengige kategoriske variable.Resultatet blir å se på forskjeller mellom ulike grupperinger,f.eks. ikke bare kjønn, men aldersgruppe også.
• ANCOVA (ANalysis of COVAriance) - Utføre ANOVA, mensdu tar hensyn til en eller flere kontinuerlige variabler også
• MANOVA (Multippel ANOVA) - Se på forskjeller mellomgrupper, innenfor flere kontinuerlige avhengige variablersamtidig
105
KATEGORISKE UTFALL
CHI SQUARED(χ2)-TEST
Brukes for å teste om fordelingen av data innenfor kategorier ertilfeldig eller ikke, altså om det er en korrelasjon mellomkategoriske variabler.
Dette er en ikke-parametrisert test, så her trenger vi ikke tenkeså mye på fordeling av data. Derimot bør ingen av gruppene ide kategoriske variablene være for små. Hvis du ser påsammenheng mellom to kategoriske variabler med to grupper ihver, resulterer dette i 2 × 2 = 4 undergrupper. Da bør ingenundergrupper ha en forventet frekvens under 5. For størretabeller bør minst 80% av cellene ha forventet frekvens på 5eller mer.
Observasjoner bør være uavhengige, så de to variablene børf.eks. ikke være av typen pre/post-test. Hvis du har slike databør McNemar’s test brukes istedenfor. 106
CHI SQUARED(χ2)-TEST
Analyze > Descriptive Statistics > Crosstabs...
Bruker datasettetsurvey.sav. Flytten av dekategoriskevariablene over iRow(s) og denandre over iColumn(s). Hakav for Displayclustered barcharts hvis du vil.
107
CHI SQUARED(χ2)-TEST
Crosstabs: Exact
Velg Exact fremforAsymptotic only. Daregner du ut Fisher’sexact test, som ergunstig hvis man har fåcaser, eller laveforventede frekvenser ienkeltgrupper. Hvisdette ikke er tilfellet, vildet heller ikke utføresnoen korreksjon, så dutaper ingenting.
108
CHI SQUARED(χ2)-TEST
Crosstabs: Statistics
Hak av Chi-square,Contingency coefficient, Phiand Cramer’s V og Lambda,så vi får utført riktig test (χ2)og får et mål påeffektstørrelse (Phi/CramersV). Lambda gir et mål på ihvor mye mindre feil vi får ommedlemskap i en variabelpredikeres basert påmedlemskap i den andrevariablen.
109
CHI SQUARED(χ2)-TEST
Crosstabs: Cell Display
Hak av for både Observed ogExpected i Counts. I tillegghak av for Row, Column ogTotal i Percentages, ogStandardized i Residuals.
110
CHI SQUARED(χ2)-TEST
Krysstabellen gir hvordandeltakere fordeler seg i de (idette tilfellet) fireundergruppene, sammenmed et forventet antall.Residualene angir forskjellmellom målt frekvens offorventet. Hvis residualeneer større enn 2.0 (for en 2×3tabell eller større), er det myestørre forskjell enn forventet.
111
CHI SQUARED(χ2)-TEST
Liten effekt: 0.1, Middels effekt:0.3, Stor effekt: 0.5.
Den viktigste verdien iChi-Square Tests PearsonChi-Square. Siden denneikke er signifikant, er det ikkeforskjell på antall menn ogkvinner som røyker. Med2×2 tabell er phi best mål påeffekt, ellers er det CramersV.
112
CHI SQUARED(χ2)-TEST
Søylediagrammet forsterker inntrykket av at det ikke er noensignifikant forskjell mellom hvor mange som røyker av menn ogkvinner, ettersom begge grupper ser nesten like ut.
113
LOGISTISK REGRESJON
Brukes når du har en kategorisk avhengig variabel, altså når duprøver å forutse gruppemedlemskap basert på andrekontinuerlige og/eller kategoriske variabler
Ikke avhengig av normalfordeling, men det er viktig at allegrupper/kategorier har nok datapunkter
Her er også multikolinearitet mellom uavhengige variabler viktigå passe på.
114
FORUTSETNINGER FOR LOGISTISK REGRESJON
Du har en avhengig variabel som er kategorisk, derkategoriene ikke overlapper. Det kan ikke være mulig i tilhøremer enn en av utfallskategoriene.
Du har en eller flere uavhengige variabler som er kontinuerligeeller kategoriske
Observasjonene er uavhengige
Hvis du har flere kontinuerlige uavhengige variabler, bør disseikke være korrelert
Alle kategorier i en kategorisk variabel bør være skikkeligrepresentert
Lineært forhold mellom kontinuerlige prediktorer oglogit-tranformasjonen av utfallsvariabel
115
LOGISTISK REGRESJON
Analyze > Regression > Binary Logistic
Vi bruker datasettetsleep.sav. Flytt denavhengige variablen tilDependent og deønskede uavhengigevariablene tilCovariates. Trykk påCategorical...
116
LOGISTISK REGRESJON
Logistic Regression: Define Categorical Variables
Alle kategoriskevariabler måspesifiseres, slik at debehandles på riktigmåte i modellen. Herkan du velge omreferansegruppen skalvære første eller sistegruppe, men husk åtrykke på Change,ellers skjer det ingenendring.
117
LOGISTISK REGRESJON
Logistic Regression: Options
Hak av forHosmer-Lemeshowgoodness-of-fit,Casewise listing ofresiduals, CI for exp(B)og Include constant inmodel. Trykk Continueog Paste.
118
LOGISTISK REGRESJON
Første del av output angirbare litt innledende om hvormange caser som er tatt medi analysen, og hvordan denavhengige variabelen erkodet. Dette er praktisk åhuske på når man skal tolkeresten av resultatene.Referanse-gruppen for utfaller kodet som 0, i dette tilfelletno.
119
LOGISTISK REGRESJON
Tilsvarende koding for deuavhengige (kategoriske)variablene, med frekvens forhver gruppe. Grupper kodetsom 0 er referansegrupper,fordi vi valgte første gruppesom referanse. Classificationtabel gir resultatene av denmodellen vi sammenlignermed, nemlig den uten noenvariabler innkludert.
120
LOGISTISK REGRESJON
Omnibus test angir modellenssignifikans, som helst skal væreunder 0.05. Cox & Snell R Squareog Nagelkerke R Square anslåhvor mye variasjon i utfallet sombeskrives av modellen.Hosmer-Lemeshow angir ommodellen er god. Her vil vi ha Sig.større enn 0.05.
121
LOGISTISK REGRESJON
Til sammenligning med den tommemodellen, kan vi nå med dennemodellen korrekt forutse 75,1% avresultatene, sammenlignet med57.3%. For de resultatene somikke forutses korrekt, har de medresidualer større enn 2 blitt listet iCasewise list. Er residualenestørre enn 2.5 bør disseundersøkes nærmere. Det kanvære en grunn til at disse ikkebeskrives bra av modellen.
122
LOGISTISK REGRESJON
Selve modellen vises i Variables in the Equation.Kolonnene Bog Exp(B) angir effektstørrelse, og Sig. signifikans. Hvis Exp(B)er større enn 1 for en spesifikk variabel, betyr det at sjansen forå ende opp i gruppe 1 i utfallsvariablen, er større om man entenøker verdien av variablen (kontinuerlig), eller går frareferansegruppe til ikke referansegruppe for den variablen. Desom har problemer med å få sove (prob fall asleep=1) har 2.05ganger høyere odds for å ha søvnproblemer (prob sleep=1).
123
LOGISTISK REGRESJON
For å teste linearitet, kan man regne ut den naturligelogaritmen til alle kontinuerlige variabler (LN(age),LN(hourwnit)). Kryssleddene LN(variabel)×variabel inkluderesså i den logistiske regresjonsmodellen. Hvis disse leddene ikkeer signifikante, er antagelsen tilfredsstilt.
124
LOGISTISK REGRESJON
For å teste for multikolinearitet, må man bruke vanlig lineærregresjon, med akkurat de samme variablene som avhengig oguavhengig variabler som i den opprinnelige modellen, og hakeav for Collinearity Diagnostics under Statistics i dialogboksen.VIF<10 er nødvendig.
125
TILBAKE TIL LESESALEN/KONTORET
Begynn å bruke SPSS så fort som mulig på egne data (ellerandres data om du vil)!
Den eneste måten å bli god i statistikk og SPSS er ved å brukedet.
Sørg for å ha gode oppslagsverk
Spør google og youtube når du står fast. Står du fortsatt fast,spør oss ([email protected])
126
FORSLAG TIL BØKER
I SPSS: SPSS Survival manual avJulie Pallant
I statistikk og SPSS: Discoveringstatistics using IBM SPSS og Anadventure in statistics av AndyField
127