Regresjonsanalyse

Fra Wikipedia, den frie encyklopedi
Gå til: navigasjon, søk

Regresjonsanalyse er innen statistikk en kvantitativ analyse av sammenhenger mellom en avhengig variabel og en eller flere uavhengige variabler. I motsetning til korrelasjonsanalyse som kun påviser hvorvidt det er korrelasjon mellom variabler, så kan regresjonsanalyse vise i hvilken grad en variabel samvarierer med en annen variabel. Man skiller ofte mellom lineær regresjon og ikke-lineær regresjon.


En modell med en enkel forklaringsvariabel (univariat modell) kan beskrives som Y = a + bX med følgende komponenter:

  • Y = Effektvariabelen som blir gitt av vår modell.
  • a (alfa) = Konstant. Dette er verdien Y vil ha dersom X = 0, det vil si Ys gjennomsnittsverdi.
  • b (beta) = Stigningstallet, eller også kalt helningskoeffisienten. b sier hvor mye i gjennomsnitt verdien til Y øker eller avtar med en enhets endring i X.


I denne modellen er det gitt at kun X (med a og b som koeffisienter) forklarer Y. En slik modell kalles deterministisk. Regresjonsanalysen når den er ikke-deterministisk: Y=a+bx+e, hvor e er et restledd som tar med alle variasjoner som resten av modellen (variabelen X) ikke forklarer. En modell med flere forklaringsvariabler (X1, X2 ...Xk) kalles en multivariat modell.


I matematikk betegner begrepet regresjon eller mer nøyaktig regresjonsanalyse, metoder for kurvetilpasning av innsamlede data. Kurvetilpasningen kan skje i en eller flere dimensjoner, og dataene inneholder i de fleste tilfellene målefeil. Kurvetilpasningen kan uttrykkes matematisk som:

y=f(x)+e \quad i en dimensjon,

y=f(x_1,x_2,...,x_n)+e \quad i n dimensjoner,

hvor y er den målte verdien i et gitt punkt spesifisert ved en eller flere uavhengige variable x. f er funksjonen man ønsker å finne og e er feilen eller residualet til målefeilen.


matematikkstubbDenne matematikkrelaterte artikkelen er dessverre kort eller mangelfull, og du kan hjelpe Wikipedia ved å utvide den. (Se stilmanual)