Stordata

Fra Wikipedia, den frie encyklopedi
Gå til: navigasjon, søk
Datasenter kan lagre gigantiske datasett
For bandet se Big Data (band)

Stordata (fra engelsk big data) er et moteord som angir datasett som er så store eller komplekse at det er vanskelig å analysere disse med vanlige dataprosesseringsverktøy. Når datamengdene blir store, medfører det utfordringer i innsamling, lagring, søking, deling, utveksling, analyse og visualisering av data. Blant faktorer som fører til lagring av stordata er logging av internett- og teletrafikk, vekst i digitalkamera- og satelittbilder, effektive maskiner for DNA-sekvensering og mange nye teknologier som lagrer datastrømmer i sanntid. Dessuten fører fallende kostnader på harddisker og økt kapasitet til mer data tas vare på og hoper seg opp.

Ordet stordata benyttes i stor grad som et markedsføringsbegrep fra selskaper som har utviklet teknologi som er i stand til å bahandle slike datasett. Blant teknikker som er vanlige for å behandle stordata å dele opp og distribuere datasett slik at de kan behandles parallellt. Informasjonsvisualisering benyttes også som strategi for å få oversikt over hvilken informasjon som er mulig å oppdate i store datasett.

Rammen av stordata har gjennom årene utviklet seg kraftig. Det har gått fra at man anså gigabyte med data som store mengder data til at man i dag snakker om petabyte og exabytes. Utviklingen mot større datasett er basert på evnen til å trekke ekstra informasjon fra analyser av et enkelt sett med store mengder sammenhengende data, sammenlignet med separate, mindre sett med samme totale mengden data som gjør det mulig for tilkoblinger slik at man kan finne businesstrender, fastslå kvaliteten på forskningen, forebygge sykdommer, sammenligne juridiske siteringer, bekjempe kriminalitet og holde et øye med trafikkforhold i sanntid.

InformatikkstubbDenne Informatikkrelaterte artikkelen er dessverre kort eller mangelfull, og du kan hjelpe Wikipedia ved å utvide den.