Välkommen till sidan om regressioner
Regressionsanalyser används för att undersöka och förutsäga hur en eller flera oberoende variabler påverkar en beroende variabel. Val av modell beror på typ av utfall (kontinuerligt eller kategoriskt) och antaganden om data. De vanligaste typerna är enkel linjär regression, multipel regression, hierarkisk regression och logistisk regression.
Enkel linjär regression
Syfte: Enkel linjär regression används när man vill förutsäga ett kontinuerligt utfall med en oberoende variabel. Modellen beskriver sambandet med en rät linje:
Y=b0+b1X+e
där Y är beroende variabel, X är oberoende variabel, b0 är intercept och b1 är lutning.
Exempel: Förutsäga koncentrationsnivå baserat på antal timmars sömn.
Oberoende variabel / prediktorvariabel: Antal timmars sömn (den variabel som används för att förutsäga)
Beroende variabel / utfallsvariabel: Koncentrationsnivå (det som påverkas eller förutsägs)
Variabler:
- 1 oberoende variabel (kontinuerlig eller dikotom).
- 1 beroende variabel (kontinuerlig).
Antaganden:
- Linjärt samband mellan variablerna.
- Normalfördelade residualer.
- Homoskedasticitet (lika varians i residualerna).
- Oberoende observationer.
- Inga extrema outliers.
SPSS INSTRUKTION
- Analyze > Regression > Linear
- Flytta beroende variabeln till Dependent.
- Flytta oberoende variabeln till Independent(s).
- Klicka på OK.
- SPSS visar regressionsekvation, R2R2, koefficienter och signifikans.
Tolkning av output:
- R: Korrelationskoefficient mellan observerade och predikterade värden.
- R²: Andel av variansen i beroende variabel som förklaras av oberoende variabel.
- ANOVA-tabell: F-test för modellens signifikans.
- Coefficients:
- B: Lutning (b1) – hur mycket Y förändras när X ökar med en enhet.
- Sig.: p-värde – om sambandet är statistiskt signifikant.
Icke-parametriskt alternativ: Om antaganden om normalfördelning eller homoskedasticitet inte uppfylls kan man använda Spearman’s rank regression eller bootstrapping.
Multipel regression
Syfte: Analyserar flera oberoende variabler samtidigt.
Exempel: Förutsäga studieresultat utifrån sömn, stress och fysisk aktivitet.’
Oberoende variabler / prediktorer: Sömn, stress och fysisk aktivitet (variabler som används för att förutsäga)
Beroende variabel / utfall: Studieresultat (variabeln som påverkas eller förutsägs)
Variabler:
- ≥2 oberoende variabler (kontinuerliga eller dikotoma).
- 1 beroende variabel (kontinuerlig).
Antaganden:
- Linjärt samband mellan varje oberoende variabel och den beroende.
- Normalfördelade residualer.
- Homoskedasticitet.
- Oberoende observationer.
- Ingen multikollinearitet mellan prediktorer.
SPSS INSTRUKTION
- Analyze > Regression > Linear
- Ange beroende variabel
- Ange alla oberoende variabler
- Klicka på OK
Tolkning av output:
- Collinearity diagnostics: Kontrollera multikollinaritet (VIF < 10).
- R²: Total förklarad varians.
- Adjusted R²: R² justerat för antal variabler – ger mer realistisk bild av modellens styrka.
- Coefficients: Varje variabels B och p-värde visar unikt bidrag.
Hierarkisk regression
Syfte: Variabler matas in stegvis för att se hur modellens förklaringskraft ökar.
Exempel: Kontrollera ålder och kön först, lägg sedan till sömn och fysisk aktivitet
Kontrollvariabler: Ålder och kön (tas med först för att “kontrolleras” i analysen)
Oberoende variabler / prediktorer: Sömn och fysisk aktivitet (läggs till efter kontrollvariablerna för att se deras effekt)
Beroende variabel / utfall: Studieresultat (det som förutsägs)
Variabler:
- ≥2 oberoende variabler (kontinuerliga eller dikotoma), inlagda i block/steg.
- 1 beroende variabel (kontinuerlig).
Antaganden:
- Samma som för multipel regression: linjärt samband, normalfördelade residualer, homoskedasticitet, oberoende observationer, ingen multikollinearitet.
SPSS INSTRUKTION
- Analyze > Regression > Linear
- Ange beroende variabel
- Klicka på Next för varje block
- Ange variabler för block 1 (kontroll) och block 2 (huvudvariabler)
- Klicka på OK
Tolkning av output:
- Coefficients per block: Visar effekt av variabler efter att tidigare block kontrollerats.
- R² för varje block: Visar hur mycket variablerna i blocket förklarar.
- ΔR²: Förändring i förklarad varians mellan block – visar om nya variabler signifikant förbättrar modellen.
Logistisk regression
Syfte: Används när beroende variabel är binär. Modellen skattar sannolikheten för ett utfall:
logit(p)=b0+b1X1+⋯+bnXn
Exempel: Förutsäga risk för sjukdom utifrån kost, motion och rökvanor.
Oberoende variabler / prediktorer: Kost, motion och rökvanor (variabler som används för att förutsäga)
Beroende variabel / utfall: Risk för sjukdom (variabeln som påverkas eller förutsägs)
Variabler:
- ≥1 oberoende variabel (kontinuerlig, dikotom eller kategorisk).
- 1 beroende variabel (dikotom/kategorisk).
Antaganden:
- Oberoende observationer.
- Ingen multikollinearitet mellan prediktorer.
- Linjärt samband mellan kontinuerliga prediktorer och logit-transformationen av den beroende variabeln.
- Tillräckligt stort sampel (för stabila skattningar).
SPSS INSTRUKTION
- Analyze > Regression > Binary Logistic
- Ange binär beroende variabel
- Ange oberoende variabler
- Klicka på OK
Tolkning av output:
- Omnibus Test of Model Coefficients: F-test för modellens signifikans.
- Hosmer & Lemeshow test: Test av modellens fit – p > 0,05 indikerar bra passform.
- Coefficients (B, S.E., Wald, Sig., Exp(B)):
- B: Log-oddskvot
- Exp(B): Odds ratio – hur sannolikheten för utfall ändras per enhetsökning i variabeln.
- Sig.: Om variabeln signifikant påverkar utfallet.
Icke-parametriskt alternativ: Bootstrapping eller klassificeringsträd (CART) vid bristande antaganden.

