Bibliometri

Fra Wikipedia, den frie encyklopedi
Gå til: navigasjon, søk

Bibliometri er fagområdet som utvikler og anvender metoder for å analysere litteratur og forfatterskap ut fra rent statistiske kriterier. De to viktigste metodene er siteringsanalyse og innholdsanalyse. Utviklingen av fagområdet har pågått siden 1960-tallet og er nært tilknyttet utviklingen av bibliografiske databaser og datateknologiens mulighet til analyse.

Bibliometrisk siteringsanalyse samler inn data på hvor ofte en vitenskapelig artikkel siteres, og bruker disse tallene for å måle den relative innflytelsen av vitenskapelige forfattere og publiseringskanaler. Særlig selskapet ISI har en dominerende posisjon i levering av søketjenester basert på bibliometri.

At en artikkel blir hyppig sitert, regnes gjerne som en indikator på høy kvalitet på forskningen. Denne antagelsen har også blitt kritisert for å være overforenklet, og bibliometriske mål for å være potensielt villedende.

Teknikker utviklet innen bibliometrien var inspirasjonskilden da Google i 1998 utviklet en algoritme (kalt PageRank) for rangering av søkeresultatene ved søkemotorsøk på internett.

Bibliometriske mål[rediger | rediger kilde]

Publiseringskanaler[rediger | rediger kilde]

Fagtidsskrifter er de fremste vitenskapelige publiseringskanaler. Noen fagtidsskrifter har høyere status enn andre. Å få antatt en artikkel i Nature er f.eks. mer prestisjefylt enn å få publisert sine funn i Norwegian Journal of Entomology. Noe av prestisjen er rett og slett basert på tidsskriftets omdømme og navn, men den er gjerne korrelert med hvor høy kvalitet tidsskriftets artikler har, som igjen påvirker hvor ofte disse blir sitert. De følgende mål på siteringshyppigheten av fagtidsskrift er i bruk:

  • Antall siteringer – hvor ofte artikler fra tidsskriftet samlet sett har blitt sitert i løpet av et år. Dette er et grovt mål, som ikke bare er korrelert med tidsskriftets kvalitet, men også med hvor mange artikler tidsskriftet publiserer per år (f.eks. om det utkommer ukentlig eller kvartalsvis).
  • Impact factor – gjennomsnittlig antall ganger en artikkel fra tidsskriftet har blitt sitert på i løpet av de to siste år. Dette er den mest brukte indikatoren for å sammenligne fagtidsskrifter. Varianter med fem-årig gjennomsnitt er også i bruk.
  • «Nivå» – det norske publikasjonsrapportsystemet CRISTIN deler publiseringskanaler i «nivå 2» (publiseringskanalene som har høyest kvalitet innen et fagfelt og omfatter 20 % av publiseringvolumet) og «nivå 1» (publiseringskanalene for de resterende 80 % av publiseringsvolumet). Det er en sammenheng, men ikke noe direkte samsvar mellom «nivå» og f.eks. impact factor.
  • Immediacy index («umiddelbarhets-indeks») – gjennomsnittlig antall ganger en artikkel fra tidsskriftet har blitt sitert i året den ble publisert. Tidsskrift ved forskningsfronten i et gitt forskningsområde har gjerne en høy umiddelbarhets-indeks.
  • Cited half-life («sitathalveringstid») – den mediane alderen til artikler som siteres fra tidsskriftet i et gitt år. En høy sitathalveringstid innebærer at artiklene blir sitert i mange år (dvs. beholder sin relevans lenge), ikke bare umiddelbart etter publiseringen.
  • Eigenfaktor – antall siteringer av tidsskriftets artikler i løpet av fem år, men (1) vektet for de siterende tidsskriftenes impact factor, og (2) korrigert for «egensiteringer» (dvs. siteringer innen samme tidsskrift er ikke tatt med i beregningen).
  • Article Influence Score – er sammenlignbar med en impact factor beregnet over en femårsperiode, men basert på eigenfaktoren, ikke bare på antall siteringer.

Forfattere[rediger | rediger kilde]

Forskeres relative vitenskapelige innflytelse blir også forsøkt kvantifisert gjennom en rekke bibliometriske mål:

  • Antall artikler – hvor mange artikler forskeren har vært (med)forfatter av. Artikkeltallet gir en indikasjon på vitenskapelig produktivitet, men ikke nødvendigvis på om artiklene har påvirket fagfeltet.
  • Antall siteringer – hvor ofte forskerens artikler samlet sett har blitt sitert. Dette gir en bedre indikasjon på graden forskeren har påvirket sitt fagfelt, men et høyt antall siteringer kan skyldes én enkelt artikkel.
  • h-indeks – et kombinert mål på antall artikler og antall siteringer. En høy h-indeks indikerer at forskeren har skrevet mange artikler som har påvirket fagfeltet. Den defineres som det største antallet artikler h som har blitt sitert minst h ganger.[1] (Sorterer man forskerens artikler etter synkende antall sorteringer, telles alle artikler som siteres minst like ofte som sin plass i rekken. En h-indeks på 12 betyr altså at nøyaktig tolv av forfatterens artikler har blitt sitert ikke mindre enn tolv ganger.)
  • Publiseringspoeng – det norske publikasjonsrapportsystemet CRISTIN gjør det mulig å beregne summen av publiseringspoeng for norske forskere, slik at publikasjonene vektes i henhold til om artikkelen ble publisert i en «nivå 1»- eller «nivå 2»-kanal.

Kritikk og begrensninger[rediger | rediger kilde]

Bibliometriske mål blir til dels sterkt kritisert.[2] Hovedkritikken er at de er rent kvantitative mål, som ikke tar høyde for artiklenes kvalitet. En artikkel kan f.eks. være mye sitert fordi den er en oversiktsartikkel, eller til og med for feilene den har gjort, heller enn fordi den er av høy vitenskapelig kvalitet. Overdreven bruk av bibliometriske mål kan også føre til at publiseringspraksisen tilpasses til disse målene (f.eks. ved å dele opp en studie i en rekke mindre enkeltpublikasjoner) istedenfor å følge faglige hensyn.

Utover dette har alle målene klare begrensninger, som kan føre til feiltolkninger hvis de brukes uforsiktig. For eksempel kan ikke tidsskrift eller forskere fra forskjellige fagfelt sammenlignes direkte, fordi ulike fag har ulike publiserings- og siteringspraksis. De fleste mål på forskeres vitenskapelige innflytelse øker dessuten med karrierens lengde, slik at forskere på ulike karrieretrinn vanskelig kan sammenlignes.

Referanser[rediger | rediger kilde]

  1. ^ Hirsch, J.E. (2005). «An index to quantify an individual's scientific research output». Proceedings of the National Academy of Sciences of the United States of America, 102, s. 16569–16572. doi:10.1073/pnas.0507655102. 
  2. ^

    Debatt om bruk av tellekanter i Norge[rediger | rediger kilde]

    Fagfellevurdert kritikk av bibliometriske mål[rediger | rediger kilde]

    • Seglen, P.O. (1997). «Why the impact factor of journals should not be used for evaluating research». BMJ, 314, s. 497.1. doi:10.1136/bmj.314.7079.497. 
    • Cameron, B.D. (2005). «Trends in the usage of ISI bibliometric data: uses, abuses, and implications». Portal, 5, s. 105–125. doi:10.1353/pla.2005.0003. 
    • Pendlebury, D.A. (2009). «The use and misuse of journal metrics and other citation indicators». Archivum Immunologiae et Therapiae Experimentalis, 57, s. 1–11. doi:10.1007/s00005-009-0008-y. 
    • Archambault, É., og Larivière, V. (2009). «History of the journal impact factor: contingencies and consequences». Scientometrics, 79, s. 635–649. doi:10.1007/s11192-007-2036-x.