Dataintegrasjon

Fra Wikipedia, den frie encyklopedi
Gå til: navigasjon, søk

Dataintegrasjon er, om ikke et helt nytt begrep innen IT, så iallfall noe som de senere årene har fått stadig mer aktualitet. Behovet for effektiv integrering av data fra flere kilder har blitt meget tydelig etter klient-tjener bølgen, som hadde sin topp på begynnelsen av 1990-tallet. De stadig nye applikasjonstypene som f.eks CRM, ERP, faktura, regnskap, ... kom i tillegg til de tradisjonelle, gjerne stormaskinbaserte, sentraliserte systemene med alt på ett sted.

I etterkant av klient-tjener bølgen kom datavarehusbølgen, hvor en viktig motivasjon var å samle all distribuert informasjon på et sted. Da fokus her hovedsakelig var rapporteringsløsninger (eller BI-løsninger), kom andre operasjonelle behov i bakgrunnen. Datavarehuset løste ikke problemer med inkonsistens i overlappende data i forskjellige operasjonelle systemer. Derfor har nye varianter dukket opp. MDM (Master Data Management) er en av de mange trebokstavsforkortelsene som har dukket opp. Det foregår en stadig evolusjon på dette området, og nye fagfelter, begreper dukker opp. For eksempel Golden Copy, som er sterkt beslektet med MDM. Felles for alle disse områdene er at de kommer inn under begrepet dataintegrasjon. Andre fagfelter som er sterkt knyttet til dataintegrasjon er metadata management, datakvalitet, dataprofilering, data governance.

Det er også en rivende utvikling på verktøysiden. I forbindelse med Datavarehusbølgen dukket det opp såkalte ETL-verktøy (Extract Transform Load) for å migrere data fra kilder til datavarehuset. Disse var sterkt batch-orienterte og avhengige av å kjøre om natten for ikke å forstyrre operasjonell bruk. Senere har disse utviklet seg videre til mer generelle systemer for dataintegrasjon og samspill mellom systemer. 2 generasjon med dataintegrasjonsverktøy har tatt opp i seg teknologi for sanntidsintegrasjon, SOA grensesnitt, datakvalitet, metadata o.l.