Matematisk analyse

Fra Wikipedia, den frie encyklopedi
Gå til: navigasjon, søk
Områder i analyse
Differensialligninger
Funksjonalanalyse
Funksjoner av flere variable
Matematisk analyse

Kontinuitet
Grenseverdier
Følger
Rekker
Derivasjon
Integrasjon

Komplekse funksjoner

Matematisk analyse (også kalt kalkulus, eller bare analyse) er den grenen av matematikken som behandler uendelige prosesser, grenser og grenseverdier, spesielt i forbindelse med integrasjon og derivasjon. Ofte blir matematisk analyse regnet som et eget område i matematikken, og den består av et sett metoder og verktøy for å analysere funksjoner.

Metodene i den matematiske analysen har en rekke anvendelsesområder. I sin mest grunnleggende form bruker vi derivasjon til å regne ut stigningen på grafen til en funksjon, men det kan også brukes til å finne akselerasjonen eller farten til et legeme i bevegelse på et bestemt tidspunkt. På samme måte kan integrasjon i sin mest grunnleggende form brukes til å regne ut arealet under kurven til en funksjon. På et litt mer avansert nivå kan integrasjon brukes til å beregne volum, lengden til linjestykker, arbeidet som gjøres av en pumpe som pumper opp væske fra en beholder, eller mengden av snø på en parkeringsplass etter flere snøfall.

Analysens utvikling på 1600-tallet og 1700-tallet i Europa hadde også sterk innflytelse på fysikkens utvikling. I dag brukes matematisk analyse i stor grad i blant annet fysikk, økonomi, statistikk og medisin. Metoder fra analysen brukes ofte når en skal finne en optimal løsning på et problem som kan uttrykkes matematisk.

Analysens historie[rediger | rediger kilde]

Historikere regner med at matematisk analyse har sine røtter helt tilbake til matematikerne i Antikkens Hellas.[1][2] [Den hellenistiske matematikeren Eudoxos hadde blant annet en metode for å regne ut arealer av flater og volumer av legemer, som regnes som en tidlig forløper for integrasjon. Arkimedes utviklet disse ideene videre til en heuristikk som minner om integralregning. Etter Arkimedes skjedde ikke noe viktig med utviklingen av analysen på nærmere 500 år.[3]

I 499 brukte den indiske matematikeren og astronomen Aryabhata infinitesimaler, og han uttrykte også et astronomisk problem som en differensialligning.[4] Denne differensialligningen ble utviklet videre i en kommentar av Manjula på 900-tallet, og til slutt ledet denne differensialligningen Bhaskara til å utvikle en rekke grunnleggende ideer i matematisk analyse på 1100-tallet. Bhaskara var også den første som definerte den deriverte som en grenseverdi.

Selv om den matematiske analysen altså har sine røtter helt tilbake i oldtiden, er det først på midten av 1600-tallet at de mer generelle teknikkene knyttet til grenser og infinitesimaler dukker opp. Da Fermat og Descartes grunnla den analytiske geometrien i 1637 fikk en også et verktøy for å gjøre mer omfattende beregninger for generelle kurver. Disse oppdagelsene ledet både Fermat og Descartes til å utvikle regnemetoder for å studere maksimalverdier og tangenter.[5]

I årene etter var det flere som jobbet med problemer knyttet til tangenter, men fullstendige derivasjonsteorier slik vi kjenner dem i dag ble først utviklet av Isaac Newton og Gottfried Wilhelm Leibniz. De to oppdaget også sammenhengen mellom integrasjon og derivasjon, og de gjorde sine oppdagelser uavhengig av hverandre og omtrent samtidig. Begge regnes som grunnleggere av den matematiske analysen.[6]

Derivasjon[rediger | rediger kilde]

Hovedartikkel: Derivasjon
Den deriverte til en kurve definert ved en funksjon f(x) kan ses på som stigningen til sekanten mellom to punkter som skjærer kurven i x og x+h, og så la avstanden h mellom de to punktene bli mindre og mindre.

Den deriverte angir den momentane endringen til en funksjon (f(x)) per endring av funksjonsargumentet (x). For reelle funksjoner av en variabel kalles denne verdien for funksjonens stigningstall. Stigningstallet er definert som stigningen til tangenten til funksjonen i punktet og kan estimeres ved hjelp av sekanter. Et viktig spørsmål knyttet til om en funksjon er deriverbar eller ikke er om den er kontinuerlig overalt. Ikke alle funksjoner er deriverbare overalt. For eksempel kan en funksjon være diskontinuerlig eller ha en loddrett tangent i et punkt, og da vil den deriverte være udefinert for dette punktet.

Dersom vi har en funksjon f som kan defineres i en omegn omkring punktet x, sier vi at f er deriverbar i x dersom følgende grenseverdi eksisterer:

\lim_{h\rightarrow 0}\frac{f(x+h)-f(x)}{h}

Her er h avstanden mellom punktet x og et annet punkt som vi vil ha nærmest mulig x, ved å senke h mot 0. Vi skriver det slik:

f'(x) = \lim_{h\rightarrow 0}\frac{f(x+h)-f(x)}{h}

og vi kaller denne størrelsen for den deriverte til f i punktet x.[7]

Derivasjon er et sentralt emne i matematisk analyse, og det blir mye brukt i forbindelse med kurvedrøfting. Ved hjelp av ulike teknikker knyttet til derivasjon, kan vi blant annet finne maksimums- og minimumspunkter for kurver. Vi skiller mellom globalt maksimum og minimum, som er absolutte maksimums- og minimumspunkter på en kurve, og lokale maksimum og minimum. Andre egenskaper ved kurver som vi kan analysere ved hjelp av derivasjon er hvorvidt en kurve er konveks eller konkav innenfor et bestemt intervall, og vi kan også bruke derivasjon til å bestemme eventuelle asymptoter til en kurve.

Integrasjon[rediger | rediger kilde]

Hovedartikkel: Integrasjon
Integrasjon kan ses på som beregning av arealet under en kurve definert ved f(x), mellom to punkter (her a og b), ved å dele opp området i stadig mindre deler og så summere disse delene.

Helt fra ganske tidlig i menneskehetens historie har det knyttet seg interesse i å finne størrelsen til ulike geometriske objekter. Så lenge figurene har rette kanter og flater kan slike problemer løses ganske lett, men når kanter og flater er krumme blir problemene straks mye vanskeligere. Integrasjon kan blant annet brukes til å gjøre beregninger av areal og volum.

Prosessen for å finne integralet kalles integrasjon, og i sin enkleste form dreier det seg om å derivere baklengs. Noen funksjoner er så uregelmessige at det ikke er mulig å definere arealet under grafen ved hjelp av integrasjonsteknikker, men det fins også ulike tilnærmingsteknikker for å finne integralet til slike funksjoner. En setning i analysen sier at enhver monoton funksjon er integrerbar.[8]

Analysens fundamentalteorem[rediger | rediger kilde]

Den grunnleggende oppdagelsen til Newton og Leibniz var at integrasjon og derivasjon var omvendte regningsarter. Dermed kunne en løse integrasjonsoppgaver ved å finne den antideriverte, i stedet for å bruke arbeidskrevende summasjoner, slik en hadde gjort tidligere. Det teoretiske grunnlaget for denne metoden finner vi i det som kalles for analysens fundamentalteorem.

Kort fortalt går dette teoremet ut på at dersom funksjonen f : [a,b] \rightarrow \mathbb{R} er kontinuerlig, så er f integrerbar på ethvert intervall innenfor dette området (fra og med a, til og med b). Da er følgende funksjon deriverbar:

F(x) = \int_a^x f(t) \,dt

Og den deriverte til funksjonen F(x) blir da lik f(x).

Referanser[rediger | rediger kilde]

  1. ^ Thorvaldsen, S. Framveksten av den matematiske analyse, 2000..
  2. ^ Thorvaldsen, S. Matematisk kulturhistorie, 2002, s. 67.
  3. ^ Archimedes, Method, i The Works of Archimedes ISBN 978-0-521-66160-7
  4. ^ Aryabhata den eldre
  5. ^ Lindstrøm, 1995, s. 260
  6. ^ Lindstrøm, 1995, s. 378
  7. ^ Lindstrøm, 1995, s. 220
  8. ^ Lindstrøm, 1995, s. 326

Litteratur[rediger | rediger kilde]

  • Katz, Victor J. (1998). A history of mathematics: an introduction. Reading, Massachusetts: Addison-Wesley Longman. ISBN 0-321-01618-1. 
  • Lindstrøm, Tom (1995). Kalkulus. Oslo: Universitetsforlaget. ISBN 82-00-22823-1. 

Online bøker (engelsk)[rediger | rediger kilde]

Eksterne lenker[rediger | rediger kilde]