Derivasjon

Fra Wikipedia, den frie encyklopedi
Gå til: navigasjon, søk
Områder i analyse
Differensialligninger
Funksjonalanalyse
Funksjoner av flere variable
Matematisk analyse

Kontinuitet
Grenseverdier
Følger
Rekker
Derivasjon
Integrasjon

Komplekse funksjoner

Derivasjon er en operasjon i matematikk der en bestemmer den deriverte av en funksjon. For en funksjon av én variabel f(x) er den deriverte definert ved

f\!\,'(x) = \lim_{h\to 0} \frac{f(x +h) - f(x)}{h},

dersom grenseverdien eksisterer. Den deriverte er et mål for endringen i funksjonsverdier f(x) når den frie variabelen x endres. Geometrisk er den deriverte et uttrykk for stigningstallet til tangenten til funksjonen.

For funksjoner av flere variable kan en definere ulike typer deriverte, som partiellderivert, Gataux-derivert, Fréchet-derivert, totalderivert og gradient.

Studiet av derivasjon og differensialer kalles differensialregning. Analysens fundamentalteorem sier at derivasjon og integrasjon er inverse operasjoner, og en bruker derfor ofte betegnelsen differensial- og integralregning. Dette fagfeltet er svært viktig både for matematisk analyse og for anvendt matematikk.

Innledning[rediger | rediger kilde]

Grunnbegrepet i differensialregning er den deriverte til en funksjon.

Med geometrisk terminologi kan den deriverte beskrives som en generalisering av stigningen til en funksjon. Det geometriske begrepet stigning er opprinnelig bare definert for lineære funksjoner, hvis graf er en rett linje. Den deriverte til en vilkårlig funksjon f i et punkt x_0 definerer man som stigningen til tangenten til f i punktet (x_0,f(x_0)).

Med aritmetisk terminologi angir den deriverte i et punkt x til en funksjon f hvor stor den lineære andelen av endringen til f(x) er når x endres med et vilkårlig lite lite tall \Delta x. For den eksakte formuleringen av dette, brukes begrepet grenseverdi.

Historie[rediger | rediger kilde]

Gottfried Wilhelm Leibniz
Isaac Newton

Problemstillingen som differensialregningen betrakter var kjent som tangentproblemet helt siden antikken. Den nærliggende løsningen var å approksimere tangenten ved hjelp av sekanter over et positivt, men vilkårlig lite intervall. Den tekniske vanskeligeten bestod av å regne med slike infinitesimalt små intervallengder. Pierre de Fermat løste rundt 1640 tangentproblemer for polynomer. Her beskrev han den deriverte, men uten å betrakte grenseverdier, og uten å forklare hva den matematiske rettferdigjøringen for fremgangsmåten hans var. På samme tid valgte Descartes en algebraisk fremgangsmåte, hvor han anbrakte en sirkel nær kurven. Her vil sirkelen skjære kurven i to punkter, med mindre sirkelen og kurven tangerer hverandre. Da var det mulig å bestemme stigningen til tangenten for visse kurver.

På slutten av 1600-tallet lyktes det Isaac Newton og Gottfried Wilhelm Leibniz uavhengig av hverandre å utvikle fungerende fremgangsmåter uten selvmotsigelser. Newton og Leibniz angrep problemet fra forskjellige vinkler. Mens Newton nærmet seg problemet via momentanhastighetsproblemet, prøvde Leibniz å løse det geometrisk ved hjelp av tangentproblemet. Arbeidene deres tillot en abstraksjon fra den rent geometriske beskrivelsen, og regnes derfor som begynnelsen av matematisk analyse. De ble først og fremst kjent gjennom boka til adelsmannen Guillaume François Antoine, Marquis de L’Hospital, som fikk privatundervisning av Johann Bernoulli og publiserte dennes forskning innen analyse. De derivasjonsreglene som er best kjent i dag, er først og fremst basert på verkene til Leonhard Euler, som satte sitt preg på funksjonsbegrepet. Newton og Leibniz arbeidet med vilkårlig små tall, men som er større enn null. Dette ble kritisert av samtidige som ulogisk, eksempelvis av Biskop Berkeley i det polemiske skriftet The analyst: or a discourse addressed to an infidel mathematician. differensialregningen ble likevel, tross den herskende usikkerheten, konsekvent videreutviklet, i første rekke på grunn av de tallrike anvendelsene i fysikk og andre områder av matematikken. Symptomatisk for den tiden var prisutskrivningen til Det prøyssiske vitenskapsakademiet i 1784:

Sitat … Den høyere geometri benytter ofte uendelig store og uendelig små størrelser; imidlertid har de gamle

lærde omhyggelig unngått det uendelige, og enkelte berømte analytikere i vår tid bekjenner at begrepene er selvmotsigende. Akademiet forlanger altså at man forklarer hvordan så mange sanne satser kan oppstå av en selvmotsigende antagelse, og at man angir et sikkert og klart grunnbegrep som kan erstatte det uendelige, uten

å gjøre utregningene for vanskelige eller lange …
Sitat


Først på begynnelsen av 1800-tallet lyktes det Augustin Louis Cauchy å gi differensialregningen den logiske stringensen vi er vant til i dag, i det han gikk bort fra de infinitesimale størrelsene, og definerte den deriverte som grenseverdien til stigningen av sekantene. Den definisjonen av grenseverdier som brukes i dag ble formulert av Karl Weierstraß på slutten av 1800-tallet.

Definisjon[rediger | rediger kilde]

Innledning[rediger | rediger kilde]

Utgangspunktet for definisjonen av den deriverte er tilnærmingen til tangentstigningen gjennom sekantstigningen. Vi søker stigningen til en funksjon  f i et punkt (x_0\mid f(x_0)). Deretter regner vi ut stigningen til sekanten til  f over et endelig intervall:

Sekantstigning =  \frac{f(x_0+\Delta x)-f(x_0)}{(x_0+ \Delta x)-x_0}.

Sekantstigningen er altså kvotienten til to differanser; den blir derfor også kalt differansekvotient. Med den forkortede notasjonen \Delta y for f(x_0+\Delta x)-f(x_0) kan man også skrive sekantstigningen som \frac{\Delta y}{\Delta x}.

Den deriverte til en funksjon

Differansekvotienter er velkjente i det daglige liv, for eksempel som gjennomsnittshastighet:

„På reisen fra Augsburg til Flensburg var jeg klokken 9:43 (x_0) ved Biebelried-krysset (kilometerstand f(x_0) = 198 km). Klokken 11:04 ( x_0 +\Delta x) var jeg ved Dreieck Hattenbach (kilometerstand  f(x_0+\Delta x) =341 km). På 1 time og 21 minutter ( \Delta x) har jeg dermed tilbakelagt 143 km ( \Delta y). Min gjennomsnittshastighet på denne strekningen er altså 143 km/1,35 h = 106 km/h ( \Delta y / \Delta x ).“

For å regne ut tangentstigningen (i det nevnte eksempelet blir dette altså momentanhastigheten i et punkt), må man la de to punktene som sekanten dras gjennom stadig nærme seg hverandre. Da går både  \Delta x og  \Delta y mot null. Kvotienten  \Delta y / \Delta x forblir derimot normalt endelig. Denne grenseverdien avhenger av følgende definisjon:

Deriverbarhet og den deriverte i et punkt: formell definisjon og notasjon[rediger | rediger kilde]

En funksjon som avbilder et åpent intervall U av de reelle tallene (f:U \to \mathbb{R}), er deriverbar i x_0 \in U hvis grenseverdien

\lim_{x\to x_0} \frac{f(x) - f(x_0)}{x - x_0} = \lim_{h\to 0} \frac{f(x_0 +h) - f(x_0)}{h}   (med h = x - x_0)

eksisterer. Denne grenseverdien kalles den deriverte til f med hensyn på x i x_0 og betegnes som

f\!\,'(x_0)   eller   \left.\frac{\mathrm df(x)}{\mathrm dx}\right|_{x=x_0}   eller   \frac{\mathrm df}{\mathrm dx}(x_0)   eller   \frac{\mathrm d}{\mathrm dx}f(x_0).

Termene \mathrm df og \mathrm dx kalles differensialer, men har i moderne analyse bare symbolsk betydning. I mange anvendelser (kjerneregelen, integrasjon av mange differensialligninger og integrasjon ved substitusjon) regner man med dem nesten som "normale" variabler. Den nøyaktige, formelle begrunnelsen for dette får man ved teorien om differensialformer. En differensial er også del av den vanlige notasjonen for integraler.

Å skrive den deriverte som kvotienten til to differensialer ble innført av Leibniz. Newton brukte et punkt over den størrelsen som ble derivert, noe som fremdeles brukes i fysikk for derivasjon med hensyn på tid. Notasjonen med apostrof (f\!\,') går tilbake til Lagrange som innførte den i sin bok Théorie des fonctions analytiques i 1797.

I tidens løp ble også den følgende ekvivalente definisjonen oppdaget, som har vist seg nyttigere i mer generelle kontekster med komplekse eller flerdimensjonale funksjoner:
En funksjon er deriverbar i punktet x_0 om det finnes en konstant L slik at

\lim_{h \to 0} \frac{f(x_{0}+h)-f(x_0)-Lh}{h}=0.

Tilveksten til funksjonen f når man bare fjerner seg fra x_0 med en liten verdi h, blir godt tilnærmet ved Lh. Man kaller den lineære funksjonen g med g(x_0+h)=f(x_0)+ Lh derfor også lineariseringen til f i punktet x_0.

En ytterligere definisjon er: Det finnes en funksjon r som er kontinuerlig i x_0 med r(x_0)=0 og en konstant L, slik at

f(h) = f(x_0) + L(h - x_0) + r(h)(h - x_0) \ \ \forall h,

hvor grensen til r(h) er lik null, når h går mot x_0.

Fordelen til denne formuleringen er at det er enklere å føre beviser, da man ikke må ta noen kvotient med i betraktningen. Denne fremstillingen av den beste lineære tilnærmingen ble konsekvent anvendt allerede av Weierstraß, Henri Cartan og Jean Dieudonné.

Betegner man en funksjon som deriverbar, uten å spesifisere et spesifikt punkt, innebærer dette at funksjonen er deriverbar på ethvert punkt i definisjonsområdet; altså eksisterer en entydig tangent for ethvert punkt på grafen.

En deriverbar funksjon er alltid kontinuerlig; det omvendte gjelder imidlertid ikke. På begynnelsen av 1800-tallet var man fremdeles overbevist om at en kontinuerlig funksjon høyst kunne være ikke-deriverbar i et endelig antall punkter. Bernhard Bolzano konstruerte da som den første matematikeren en funksjon som er overalt kontinuerlig, men ikke deriverbar i noe punkt; dette ble imidlertid ikke allment kjent blant matematikere. I 1860-årene fant Karl Weierstraß en tilsvarende funksjon, og denne gangen vakte oppdagelsen oppsikt. Et kjent eksempel for en kontinuerlig og ikke-deriverbar funksjon er Koch-kurven som ble funnet av Helge von Koch i 1904.

Den deriverte som en funksjon[rediger | rediger kilde]

Den deriverte til en funksjon  f i punktet  x_0 , betegnet som f\,'(x_0), beskriver den lokale atferden til funksjonen i omegnen til x_0. Vanligvis er ikke x_0 det eneste punktet hvor  f er deriverbar. Man kan da forsøke å tilordne til ethvert tall x i definisjonsmengden til  f den deriverte i dette punktet (altså f\,'(x)). På denne måten får man en ny funksjon f\,', hvis definisjonsmengde er en delmengde av definisjonsmengden til  f . Eksempelvis har kvadratfunksjonen f: \, x \mapsto x^2 i et vilkårlig punkt x_0 den deriverte f\,'(x_0) = 2 x_0. Dermed er den tilhørende derivasjonsfunksjonen f\,' gitt ved f\,': \, x \mapsto 2x.

Derivasjonsfunksjonen er normalt en annen enn den opprinnelige funksjonen; det eneste unntaket er eksponentialfunksjonen og dens multipla.


Er den deriverte kontinuerlig, kalles f kontinuerlig deriverbar. Siden rommet av kontinuerlige funksjonen betegnes C(\Omega) kalles rommet av kontinuerlig deriverbare funksjoner C^1(\Omega).

Utregning av den deriverte[rediger | rediger kilde]

Utregningen av den deriverte til en funksjon kalles derivasjon; man sier at man deriverer funksjonen.

For å regne ut den deriverte til elementære funksjoner (for eksempel  x^n og \sin(x)) holder man seg til definisjonen angitt ovenfor, beregner eksplisitt en differansekvotient og lar så  \Delta x gå mot null. Riktignok fullfører en typisk matematikkbruker denne utregningen bare et par ganger i løpet av livet. Deretter kjenner han eller hun den deriverte til de viktigste elementære funksjonene utenat, og slår opp den deriverte til andre, ikke fullt så vanlige, funksjoner i en tabell.

Eksempel for den elementære utregningen til en derivert[rediger | rediger kilde]

Vi ønsker å finne den deriverte til f(x) = x^2 - 3x + 2. Vi regner ut differansekvotienten som

\begin{align}
  \frac{\Delta y}{\Delta x} &= \frac{f(x_0+\Delta x) - f(x_0)}{\Delta x}\\
                            &= \frac{\bigl((x_0+\Delta x)^2 - 3(x_0+\Delta x) + 2\bigr) - (x_0^2 - 3x_0 + 2)}{\Delta x}\\
                            &= \frac{x_0^2 + 2x_0\Delta x + \Delta x^2 - 3x_0 - 3\Delta x + 2 - x_0^2 + 3x_0 - 2}{\Delta x}\\
                            &= \frac{2x_0\Delta x + \Delta x^2 - 3\Delta x}{\Delta x}\\
                            &= 2x_0 + \Delta x - 3,
\end{align}

og finner den deriverte ved å ta grenseverdien når \Delta x \to 0 som

f'(x_0) = \lim_{\Delta x \to 0}(2x_0 + \Delta x - 3)= 2x_0 - 3.

Eksempel på en funksjon som ikke er overalt deriverbar[rediger | rediger kilde]

Absoluttverdifunksjonen  f (x) = |x| er ikke deriverbar i punktet 0:

For alle  x > 0 gjelder nemlig  f(x)=x , og dermed er


  \lim_{x \searrow 0} \frac {f(x) - f(0)} {x - 0} 
  = \lim_{x \searrow 0}\frac {x-0}{x-0} = 1
.

For alle  x < 0 gjelder derimot  f(x)=-x , og dermed er


  \lim_{x \nearrow 0} \frac {f(x) - f(0)} {x - 0} 
  = \lim_{x \nearrow 0}\frac {-x-0}{x-0} = -1
.

Da den venstre og høyre grenseverdien ikke stemmer overens, eksisterer ikke grenseverdien. Funksjonen f er dermed ikke deriverbar i punktet vi betrakter. Derimot er funksjonen deriverbar i alle andre punkter.


Abs x.svg

Betrakter man grafen til f, ser man at deriverbarhetsbegrepet innebærer at den tilhørende grafen ikke har noen knekkpunkter.

Et typisk eksempel på kontinuerlige funksjoner som ikke er deriverbare noen steder er nesten alle stiene til brownske bevegelser. Disse blir for eksempel brukt i modellering av aksjekurser.

Eksempel på en funksjon som ikke er overalt kontinuerlig deriverbar[rediger | rediger kilde]

En funksjon er kontinuerlig deriverbar når den deriverte er kontinuerlig. Selv om en funksjon er overalt deriverbar, trenger ikke den deriverte være kontinuerlig. For eksempel er funksjonen


  f(x) =
  \begin{cases}
    x^2 \cos \left( \frac{1}{x} \right) & x\ne 0\\
    0 & x=0
  \end{cases}

deriverbar i ethvert punkt, inklusive x=0. Den deriverte


  f'(x) =
  \begin{cases}
    2x\cos \left(\frac{1}{x} \right) + \sin \left(\frac{1}{x} \right) & x\ne 0\\
    0 & x=0
  \end{cases}

er derimot ikke kontinuerlig i punktet 0.

Derivasjonsregler[rediger | rediger kilde]

For å finne den deriverte til sammensatte funksjoner (f.eks.  \sin(2x) og  x^2 \cdot \exp(-x^2) ) bruker man derivasjonsregler for å redusere problemet til å finne den deriverte av kjente elementære funksjoner.

La  f ,  g og  h være reelle, deriverbare funksjoner. La videre  n og  a være reelle tall. Da gjelder:

Konstante funksjoner
\left(a\right)' = 0
Faktorregelen
(a\cdot f)' = a\cdot f'
Summeregelen
\left(g \pm h\right)' = g' \pm h'
Produktregelen
(g\cdot h)' = g' \cdot h + g \cdot h'
Kvotientregelen
\left(\frac{g}{h}\right)' = \frac{g' \cdot h - g \cdot h'}{h^2}
Potensregelen
\left(x^n\right)' = n x^{n-1}
Kjerneregelen
(g \circ h)'(x) = (g(h(x)))' = g'(h(x))\cdot h'(x)
Kombinert kjerne og produktregel
 s=c\cdot k^{u} \cdot l^{v} \cdot m^{w}\cdot ...
 s'=s \cdot ( \frac{u}{k} \cdot k'+ \frac{v}{l} \cdot l'+ \frac{w}{m} \cdot m'+...)
Inverse funksjoner
Hvis  f er en bijektiv funksjon som er deriverbar i  x_0 med  f'(x_0)\neq 0, og den inverse funksjonen  f^{-1} er deriverbar ved  f(x_0) så gjelder:
(f^{-1})'(f(x_0)) = \frac{1}{f'(x_0)}.
Logaritmer
Fra kjerneregelen følger den deriverte til den naturlige logaritmen til en funksjon  f :
(\ln(f))' = \frac{f'}{f}


Leibniz’ Regel
(fg)^{(n)} = \sum_{k=0}^n {n \choose k} f^{(k)} g^{(n-k)}.
Uttrykkene {n \choose k} som opptrer her er Binomialkoeffisienter.

Analysens fundamentalteorem[rediger | rediger kilde]

Den viktigste erkjennelsen Leibniz kom fram til var den at integrasjon og derivasjon henger sammen. Dette formulerte han i analysens fundamentalteorem. Det sier:

Hvis I\subset\mathbb R er et intervall, f:I\to\mathbb R er en kontinuerlig funksjon og a\in I er et vilkårlig punkt, så er funksjonen

F:I\to\mathbb R,\; x\mapsto \int_a^x f(t)\,\mathrm dt

kontinuerlig deriverbar, og dens deriverte er  F\,'=f .

Man får dermed en bruksanvisning for å integrere. Vi ønsker en funksjon, hvis deriverte er integranden. Da gjelder:

\int_a^b f(x)\,\mathrm dx = F(b)-F(a).

Middelverdisetningen[rediger | rediger kilde]

En annen sentral sats i derivasjonsregning er middelverdisetningen som ble bevist av Cauchy.

La f: [a,b] \to \mathbb{R} være en funksjon som er kontinuerlig på et lukket intervall [a,b] (med  a < b ). Videre antar vi at  f er deriverbar i det åpne intervallet (a,b). Da finnes minst ett punkt x_0 \in (a,b), slik at f'(x_0) = \frac{f(b)-f(a)}{b-a}.

Deriverte av høyere orden[rediger | rediger kilde]

Hvis den deriverte til funksjonen f også er deriverbar, kan man definere den andrederiverte eller dobbeltderiverte til f som den deriverte til den førstederiverte. Tilsvarende kan man definere den tredje og fjerde definerte, og så videre.

Den andrederiverte kan tolkes geometrisk som krumningen til grafen. Den har mange fysiske anvendelser. For eksempel er den førstederiverte til en strekning s(t) etter tiden t momentanhastigheten, mens den andrederiverte er akselerasjonen. Fra fysikk kommer skrivemåten \dot s(t) som betegner den deriverte til en funksjon med hensyn på tiden.

Taylorrekker og glatthet[rediger | rediger kilde]

Hvis f er en funksjon som er (n+1) ganger kontinuerlig deriverbar på intervallet I, så gjelder den såkalte taylorformelen for alle a og x i I:

f(x) = T_n(x) + R_{n+1} (x)

med det n’te taylorpolynomet

\begin{align}
  T_n(x) &= \sum_{k=0}^n \left( \frac{f^{(k)}(a)}{k!}(x-a)^k \right)\\
         &= f(a) + \frac{f'(a)}{1!}(x-a) + \frac{f''(a)}{2!}(x-a)^2 + \dotsb + \frac{f^{(n)}(a)}{n!}(x-a)^n
\end{align}

og det (n+1)’te restleddet

R_{n+1}(x)=\frac 1{n!}\int_a^x (x-t)^n f^{(n+1)}(t)\mathrm d t.

En funksjon som er vikårlig mange ganger deriverbar kalles en glatt funksjon. Da en slik funksjon har alle deriverte, kan taylorformelen ovenfor utvides til taylorrekken til f om punktet a.

\begin{align}
  &f(a)
  + f'(a) (x-a)
  + \frac{f''(a)}{2} (x-a)^2
  + \dotsb
  + \frac{f^{(n)}(a)}{n!} (x-a)^n
  + \dotsb\\
  &= \sum_{n=0}^\infty \frac{f^{(n)}(a)}{n!} (x-a)^n.
\end{align}

Det viser seg riktignok at eksistensen til alle de deriverte ikke medfører at f lar seg representere ved en taylorrekke. Med andre ord: Enhver analytisk funksjon er glatt, men det omvendte gjelder ikke.


Anvendelser[rediger | rediger kilde]

Utregning av minima og maksima[rediger | rediger kilde]

En av de viktigste anvendelsene til derivasjonsregning er å finne ekstremalverdiene til en funksjon. For en monoton funksjon befinner disse seg på randen av definisjonsområdet, men generelt finner man dem på de stedene hvor den deriverte er lik null. En funksjon kan ha maksimal- eller minimalverdier, uten at den deriverte eksisterer i dette punktet; i det følgende betrakter vi imidlertid funksjoner som i det minste er lokalt deriverbare. Som eksempel bruker vi polynomet

 { f(x) } = { 1 \over 3 } \cdot x^3 - 2 \cdot x^2 + 3 \cdot x .

Avbildningen viser forløpet til  f(x) ,  f'(x) og  f''(x) .

Ableitungsss.svg

Vannrette tangenter[rediger | rediger kilde]

Har en funksjon f\colon (a,b) \to \mathbb{R} med (a,b) \subset \mathbb{R} sin største verdi i et punkt  x_0 \in (a,b), gjelder det for alle  x i dette intervallet at  f(x_0) \ge f(x), og er f deriverbar i punktet  x_0 , so må den deriverte være lik null i dette punktet: f'(x_0)=0. Et tilsvarende utsagn gjelder hvis f har sin minste verdi i punktet x_0.

Den geometriske beskrivelsen av denne Fermats sats er at tangenten til funksjonen i et lokalt ekstremalpunkt er parallell til  x -aksen, eller med andre ord vannrett.

For deriverbare funksjoner er det dermed en nødvendig betingelse for et ekstremalpunkt, at den deriverte i punktet er lik 0: f^{\prime}(x_0)=0

Omvendt kan man ikke slutte at et punkt er et ekstremalpunkt bare fordi den deriverte er null i det punktet; det kan for eksempel også være et såkalt sadelpunkt.

Nødvendige og tilstrekkelige betingelser i eksempelet[rediger | rediger kilde]

I eksempelet er

f'(x) = x^2 - 4 \cdot x + 3.

Det følger at f^{\prime}(x)=0 for x=1 og x=3. Funksjonsverdiene i disse punktene er f(1)=4/3 og f(3)=0; det vil si at kurven har vannrette tangenter i punktene (1\mid 4/3) og (3\mid 0).

Siden følgen

f(0)=0,\quad f(1)=\frac{4}{3},\quad f(3)=0,\quad f(4)=\frac{4}{3}

består av vekselvist små og store verdier, må man i dette området ha et lokalt maksimumspunkt og et lokalt minimumspunkt. Ved Fermats sats har kurven vannrette tangenter i disse punktene. Altså er (1\mid 4/3) et lokalt maksimum og (3\mid 0) et lokalt minimum.

Drøfting[rediger | rediger kilde]

Ved hjelp av deriverte kan man også analysere andre egenskaper til en funksjon, som vendepunkter, sadelpunkter og konveksitet. Dette kalles kurvedrøfting.

differensialligninger[rediger | rediger kilde]

Hovedartikkel: differensialligning

En viktig anvendelse til derivasjonsregning er matematisk modellering av fysiske fenomener. Vekst, bevegelse eller krefter har alle med deriverte å gjøre; beskrivelsen av disse fenomenene må derfor inneholde differensialer. Typisk fører disse ligningene til differensialligninger, hvor funksjoner og deres deriverte er ukjente.

For eksempel forbinder Newtons bevegelseslov

 \mathbf{F}(t) = m \mathbf{a}(t) = m \ddot \mathbf{s} = m\frac{\mathrm{d}^2\mathbf{s}} {\mathrm{d}t^2}

akselerasjonen  \mathbf{a} til et legeme med dets masse  m og den påvirkende kraften \mathbf{F}. Grunnproblemet i mekanikk er dermed å finne funksjonen som beskriver et legemes posisjon ut fra den gitte akselerasjonen. Denne oppgaven gir en annenordens differensialligning.


Et eksempel for anvendt derivasjonsregning[rediger | rediger kilde]

NeoklProdFkt.svg

I mikroøkonomi analyserer man for eksempel forskjellige former for produksjonsfunksjoner, for å oppnå forståelse for makroøkonomiske sammenhenger. Her er det først og fremst den typiske oppførselen til en produksjonsfunksjon som er av interesse: Hvordan reagerer de avhengige variablene y (for eksempel den mengden av en vare som produseres) når x (for eksempel arbeid eller kapital) økes med en (infinitesimal) enhet.

En grunntype av produksjonsfunksjoner er den nyklassiske produksjonsfunksjonen. Denne funksjonen har egenskapen at produksjonen stiger når innverdien øker, men at økningen avtar med høyere innverdi. For ekempel kan man ha den følgende produksjonsfunksjonen for en virksomhet:

y = f(x) = \sqrt{400x-4}\ \mathrm{ for }\ x \ge 100

Den deriverte følger av kjerneregelen:

\frac{\mathrm{d}y}{\mathrm{d}x} = \frac{1}{2}({400x-4})^{-\frac{1}{2}} \cdot 400 = \frac{200}{\sqrt{400x-4}} .

Da rotutrykket bare kan være positivt, ser man at produksjonen øker med økende innverdi. Den andrederiverte gir

\frac{\mathrm{d}^2y}{\mathrm{d}x^2} = 200 \left(-\frac{1}{2} \right) ({400x-4})^{-\frac{3}{2}} \cdot 400 = -\frac{40.000}{\sqrt{(400x-4)^3}} .

Denne er negativ for alle innverdier; altså er økningen synkende.

Andre anvendelser[rediger | rediger kilde]

Koblede hastigheter

Kompleks deriverbarhet[rediger | rediger kilde]

For deriverbarheten til funksjoner med komplekse argumenter, bruker vi definisjonen med linearisering. Overraskende nok er betingelsen langt strengere her enn i det relle tilfellet. For eksempel er absoluttverdifunksjonen ikke komplekst deriverbar i noe punkt. Samtidig er en kompleks funksjon som er deriverbar i en omegn, automatisk vilkårlig mange ganger deriverbar.

Derivasjon av flerdimensjonale funksjoner[rediger | rediger kilde]

Til nå har vi bare betraktet funksjoner med én variabel. Funksjoner som avbilder vektorer på vektorer eller skalarer, kan også ha deriverte. Riktignok er ikke tangenten til en slik funksjon entydig bestemt, da den kan ha flere forskjellige retninger. Her behøves altså en generalisering av det tidligere derivasjonsbegrepet.

Partielt deriverte[rediger | rediger kilde]

Vi betrakter en funksjon som går fra \mathbb{R}^n til \mathbb{R}. Et eksempel er temperaturfunksjonen: Vi måler hvordan temperaturen avhenger av posisjonen i et rom, for eksempel for å avgjøre hvor effektiv oppvarmingen er. Beveger vi termometeret i en bestemt retning, merker vi en forandring i temperaturen. Dette tilsvarer den deriverte i den retningen. Den retningsderiverte i enkelte retninger, nemlig parallelt til koordinataksene, kaller man partielt deriverte.

Tilsammen kan man regne ut n partielt deriverte for en funksjon med n variabler.

 \frac{\partial f (x_1, \dots , x_n)}{\partial x_i}
 = \lim_{\Delta x_i \to 0}
  \frac{f(x_1, \dots , x_i+\Delta x_i, \dots , x_n)
  - f(x_1, \dots , x_i , \dots , x_n)}{\Delta x_i};\quad
  i \in \{1,\dots, n\}

De enkelte partielt deriverte til en funksjon kan sammenfattes som gradienten til en funksjon. Partielt deriverte kan deriveres om igjen, og kan da sammenfattes som en såkalt hessematrise. Analogt til det endimensjonale tilfellet, er kandidatene for ekstremalpunktene de punktene hvor den deriverte er lik null, det vil si der hvor gradienten forsvinner. Tilsvarende bruker man den andrederiverte, altså hessematrisen, til å bestemme nøyaktig hvor ekstremalpunktene ligger.


Implisitt derivasjon[rediger | rediger kilde]

Hvis en funksjon x \mapsto y(x) er definert ved en implisitt ligning F\left(x,y(x)\right) = 0, så følger det av den generaliserte kjerneregelen for funksjoner av flere variabler at

F_x + F_yy' = 0.

For den deriverte av funksjonen y får vi da at

 y' = -\frac{F_x}{F_y} med  F_x = \frac{\partial F}{\partial x}, F_y = \frac{\partial F}{\partial y}; F_y \neq 0.

Total deriverbarhet[rediger | rediger kilde]

En funksjon f:U \subset \mathbb{R}^n \to \mathbb{R}^m, hvor U er en åpen mengde kalles totalt deriverbar i punktet x_0 \in U, hvis det finnes en lineær avbildning L: \, \mathbb{R}^n \to \mathbb{R}^m slik at

\lim_{h \to 0} \frac{f(x_{0}+h)-f(x_0)-Lh}{\|h\|}=0 gjelder.

For det endimensjonale tilfellet stemmer denne definisjonen overens med den ovenfor angitte definisjonen. Hvis en slik lineær avbildning L eksisterer, er den entydig bestemt, og avhenger ikke av hvilken norm som benyttes. Tangentene kan da finnes gjennom den lokale lineariseringen. Matrisefremstillingen av den førstederiverte til f kalles jacobimatrisen og er en m \times n-matrise. Hvis m=1 får man gradienten som er beskrevet ovenfor.


Mellom de partielt deriverte og den totalt deriverte finnes følgende sammenheng: Hvis den totalt deriverte eksisterer i et punkt, eksisterer også alle de partielt deriverte i det punktet. I dette tilfellet stemmer de partielt deriverte overens med koeffisientene i jacobimatrisen. Omvendt følger det ikke av eksistensen til samtlige partielt deriverte i et punkt x_0 at den totalt deriverte eksisterer i det punktet; funksjonen trenger ikke engang være kontinuerlig. Men er de partielt deriverte i tillegg kontinuerlige i en omegn om x_0, så er funksjonen totalt deriverbar i x_0.

Viktige teoremer[rediger | rediger kilde]

  • Schwarz’ teorem: For partielt deriverte av høyere orden er derivasjonsrekkefølgen likegyldig, når alle de partielt deriverte til og med denne ordenen er kontinuerlige.
  • Det implisitte funksjonsteoremet: Funksjonsligninger er løsbare hvis jacobimatrisen er lokalt invertibel.

Eksterne lenker[rediger | rediger kilde]