Regresjonsanalyse

Fra Wikipedia, den frie encyklopedi
Hopp til navigering Hopp til søk

Regresjonsanalyse er innen statistikk en kvantitativ analyse av sammenhenger mellom en avhengig variabel og en eller flere uavhengige variabler. I motsetning til korrelasjonsanalyse som kun påviser hvorvidt det er korrelasjon mellom variabler, så kan regresjonsanalyse vise i hvilken grad en variabel samvarierer med en annen variabel. Man skiller ofte mellom lineær regresjon og ikke-lineær regresjon.

En modell med en enkel forklaringsvariabel (univariat modell) kan beskrives som Y = α + βX med følgende komponenter:

  • Y = Effektvariabelen som blir gitt av vår modell.
  • α (alfa) = Konstant. Dette er verdien Y vil ha dersom X = 0, og således skjæringspunktet på y-aksen.
  • β (beta) = Stigningstallet, eller også kalt helningskoeffisienten. β sier hvor mye i gjennomsnitt verdien til Y øker eller avtar med en enhets endring i X.

I denne modellen er det gitt at kun X (med α og β som koeffisienter) forklarer Y. En slik modell kalles deterministisk. Regresjonsanalysen når den er ikke-deterministisk: Y=α+βX+e, hvor e er et restledd som tar med alle variasjoner som resten av modellen (variabelen X) ikke forklarer. En modell med flere forklaringsvariabler (X1, X2 ...Xk) kalles en multivariat modell.

I matematikk betegner begrepet regresjon eller mer nøyaktig regresjonsanalyse, metoder for kurvetilpasning av innsamlede data. Kurvetilpasningen kan skje i en eller flere dimensjoner, og dataene inneholder i de fleste tilfellene målefeil. Kurvetilpasningen kan uttrykkes matematisk som:

i en dimensjon,

i n dimensjoner,

hvor y er den målte verdien i et gitt punkt spesifisert ved en eller flere uavhengige variable x. f er funksjonen man ønsker å finne og e er feilen eller residualet til målefeilen.

matematikkstubbDenne matematikkrelaterte artikkelen er foreløpig kort eller mangelfull, og du kan hjelpe Wikipedia ved å utvide den. (Se stilmanual)