Diskusjon:Informasjon

Sideinnholdet støttes ikke på andre språk.
Fra Wikipedia, den frie encyklopedi

Etter litt lesing på nettet har jeg forstått at høy entropi er det samme som mye kaos eller uorden (hvis kaos/uorden i det hele tatt kan kvantifiseres eller måles): I varmelæren øker entropien når tilført energi avtar. I mekanikken minker muligheten for et utført arbeid når entropien vokser (f.eks. når temperaturen blir lik overalt). I informationsteorien er entropi et mål på usikkerheten av vår viten, eller kunnskap. Hvis sansynligheten for et utfall er like stort som alle andre utfall for et problem, så er entropien høy (maksimal?).

Eksakte vitenskaper (matematikk?) har defor lav informasjonsmessig entropi, mens for eksempel astrologi må ha mye høyere informasjonsmessig entropi.


Men hvis vi snakker om informasjon og vårt forhold til den, så føler jeg vel at hjernen søker orden (som dermed er det motsatte av entropi). Hvis det er tilfellet, kunne vi kanskje dra følgende påstand:

Alle tilgjengelige sanseinntrykk (eller snarere små posjoner av dem) oppfattes som kaos helt til de blir tolket, hvorpå de blir informasjon i tolkningens kontekst (i tolkerens hjerne). Idet tolkeren ønsker å benytte seg av denne informasjonen til noe eller forstår konsekvensene, oppstår det en kunnskap (riktig eller gal) om denne informasjonen. Dette betyr at informasjonen kan ligge latent lenge før den blir til kunnskap og forståelse (dette har jeg merket mange ganger selv, ved at man studerer og studerer og så plutselig forstår man det hele).

Jeg mener at denne prosessen er en pågående kontinuerlig prosess gjennom et individs levetid, og kalles i dagligtale for læring. Når kaoset er tolket (og kunnskap har oppstått) kan tolkeren formidle denne informasjonen (sin tolkning) som en melding. Hvordan meldingen utformes er helt opp til tolkeren. Hvordan denne informasjonen kan forståes av andre tolkere er helt opp til disse. Hvis disse igjen formidler sine tolkninger, øker entropien igjen, fordi en formidling utfordrer andre individers tolkninger, og kaos gjenopprettes fordi det ikke er samsvar mellom tolkningene. Dermed starter prosessen på nytt og man oppnår en høyere grad av forståelse, forhåpentligvis (still confused, but on a higher level...). Dette må vel sies å være den fundamentale metodikk vi mennesker benytter oss av på skoler og universiteter. Men siden det er så generelt utformet, kunne vi ikke da også si at dette gjelder all form for læring, også når revemor lærer hvalpene sine å fange mus?

 Entropi -> Tolkning -> Informasjon -> Kunnskap -> Formidling -> Entropi -> ....
|                                                            |
+--------------- En informasjonssyklus ----------------------+

Entropi
  +
  |.
  |.
  | .
  |  .  Én infomasjonssyklus
  |     .
  |         .
  |             .
  +--------------> Kunnskap

Det vil si: lav entropi == høy kunnskap, helt til kunnskapen formidles hvorpå entropien øker igjen. Antar vi en tidsakse ut og inn av skjermen (papiret) som kurven er tegnet på, så er det mulig å anta at vi for hver syklus starter med høy entropi men litt lenger ut på kunnskapsaksen for hver gang. At denne effekten er tilstede kan vi se på vår historie: Når biblioteket i Aleksandria brant, gikk mye informasjon tapt: => Økt entropi. Og dermed mistet vi muligheten for å tilegne oss/bygge på/lære av tidligere informasjon, og har måttet lære alt på nytt. Det samme gjelder for eksempel det som kalles 'the dark ages', hvor tilgang til informasjon var forbeholdt et absolutt lite mindretall. Igjen i forrige århundre, benyttet man seg av samme taktikk når man skulle opprette superstater. Mens i våre dager, ved hjelp av Internett og med alminnelig tilgang til det meste av informasjon, så synker entropien. Følger vi denne logikken, kan det vel kanskje hevdes at lav informasjonsmessig entropi lager samfunn som blir helt like, kunnskapsmessig. Så for å øke kunnskapsmengden, trenger vi litt kaos av og til (jfr tidsaksen ovenfor). Dette samsvarer også helt etter det vi kan observere i naturen: En katastrofe (=> økende entropi) er kanskje ødeleggende for noen, men er helt nødvendig for at livet skal gå videre for andre.


Jeg har vanskelig for å sette likhetstegn mellom 'Informasjon' og 'Kunnskap', rett og slett fordi vi har tilgang til massevis av informasjon som vi til og med konsumerer (tolker). Men det er ikke dermed sagt at vi har forstått den eller hvilke konsekvenser den har (dvs mye informasjon, men null kunnskap). Mao: tolkning er ikke det samme som kunnskap. Kunnskap har nytteverdi for oss, det har ikke nødvendigvis informasjon.

Er enig i at det er problematisk å sette likhetstegn mellom 'Informasjon' og 'Kunnskap', og jeg har derfor lagt inn noe ekstra tekst i et avsnitt i artikkelen. Jeg var usikker på hvorvidt jeg også skulle legge inn et eksempel for å illustrere dette, så jeg presenterer det her istedenfor. Man kan se for seg et eksempel med to personer (Albert og Bertin), samt setningen "Lutefisk er godt". Denne setningen vil være identisk i både informasjonsinnhold for både A og B, gitt at de er i stand til å lese og forstå norsk språk, og vet at lutefisk er en matrett.
En kan videre forutsette at Albert har smakt lutefisk før, og synes ikke det smaker godt, til tross for at setningen påstår at det er godt. Pers kunnskap er at lutefisk ikke er godt, og er ikke påvirket av informasjonen i setningen. Bertin har ikke smakt lutefisk tidligere, og tolker setningen dithen at lutefisk faktisk *er* godt, og Bs kunnskap påvirkes dermed av informasjonen i setningen.
Dette blir naturligvis et veldig enkelt eksempel som hviler på til dels svake forutsetninger, men det kan kanskje bidra til å forstå (eller forklare?) sammenhengen mellom kunnskap og data? Lars-Jacob Hove

Et språklig fenomen som også gjør dette litt vanskelig er at man i termodynamisk forstand snakker om fullstendig ro som en kaotisk tilstand (et system uten temperaturforskjeller; noe jeg ville kalt rolig, er maksimalt kaotisk eller har høy entropi). Dette virker selvmotsigende.

Substantivet informasjon[rediger kilde]

Kan noen legge inn noe interessant om selve substantivet "informasjon". Det er jo noe spesielt med det, siden det ikke har kjønn, og heller ikke kan bøyes i flertall/entall.

Det er ingenting spesielt med ordet. Se [1] og [2]. --–Duffman 10. jan 2006 kl.11:44 (UTC)

Jeg har flyttet opp den beste delen: Data, informasjon, kunnskap. Den tunge innledningen har jeg flyttet ned i stede for å slette den. --Kawelde 4. mai 2010 kl. 12:50 (CEST)[svar]

Forenkle denne artikkelen?[rediger kilde]

Jeg synes denne artikkelen er for sprikende. Jeg tror det går an å omorganisere den i to hovedtyper betydninger:

  • Informasjon i IKT-betydningen (punkt 4 i den nåværende artikkelen), som legger vekt på informasjon som tolkede data som bidrar til menneskelig kunnskap (og motsatt, som uttrykk for menneskelig kunnskap som er representert som data).
  • Informasjon i den informasjonsteoretiske (Shannonske) betydningen, som legger vekt på informasjon som et fysisk fenomen, der informasjonsinnholdet i meldinger og mønstre kan kvantifiseres med utgangspunkt i entropibegrepet, og som også kan brukes til å forstå neuronale systemer (altså betydningene 1-3 og 5 i den nåværende artikkelen).

Jeg ser at det kanskje er behov for å beholde neuronale systemer og kognitive informasjonssystemer som et separat tredje punkt. Men det vil uansett forenkle artikkelen kraftig å kutte ned fra 5 til 2 eller 3 betydninger.

Siden informasjon i IKT-betydningen er så sentral i dag, har jeg lyst til at dette skal være hovedtema for artikkelen. Så kan det opprettes egne sider hvor informasjonsteori og kognitive/neuronale informasjonssystemer utdypes. Alternativt gjøres denne siden til en renere pekerside, med en egen side for "Informasjon (IKT)".

Andreas L Opdahl 22. mai 2009 kl. 14:49 (CEST)[svar]