Att se till att bli citerad har blivit en viktig del av själv forskningen. Foto: Curie
NYHET
Citeringskulturen påverkar forskningen
Dagens citeringskultur i forskarvärlden gör att allt fler anpassar sin forskning för att prestera bättre i utvärderingsmodellerna.– Att bli citerad och att göra sig citerbar har blivit en integrerad del av själva forskningen, säger Gustaf Nelhans, som forskar om citeringspraktik vid Göteborgs universitet.
Kollegial bedömning – peer review – är i forskarvärlden ett vedertaget sätt att avgöra vilken forskning som är tillräckligt bra för att publiceras eller finansieras. Men hur ser den kollegiala bedömningen ut? Ofta ingår ett mått av publiceringsstatistik, så kallad bibliometri, där man tittar på sådant som publiceringstakt, citeringsindex och publikationens impact factor.
– Bara på några få år har medvetenheten om citeringarnas betydelse exploderat, särskilt inom humaniora och samhällsvetenskap – inom naturvetenskap och medicin har bibliometri använts längre.
I den etablerade föreställningen av vetenskaplig litteratur var publikationen tidigare en slutprodukt av den vetenskapliga processen, snarare än en del av den, menar Gustaf Nelhans. Referenser var huvudsakligen ett sätt att visa var man hämtat inspiration eller influenser från.
– Detta förändrades när citeringen blev en indikator för vetenskaplig kvalitet, och samtidigt kopplad till ekonomiska incitament genom resursfördelningsmodeller.
Citeringar uppfattas som hårdvaluta
Hans avhandling, Citeringens praktiker – det vetenskapliga publicerandet som teori, metod och forskningspolitik, lyfter fram att själva medvetenheten om citeringarnas inverkan har lett till att de uppfattas som hårdvaluta i forskarvärlden. Från nationell lärosätesnivå ner till den enskilde forskaren på institutionsnivå.
På lärosätesnivå fördelas en tiondel av regeringens fakultetsanslag efter en fördelningsmodell som bland annat bygger på fältnormaliserad citeringsgrad (ett slags relativt citeringsindex) av tidskriftspubliceringar. Modellen är dock under omarbetning, ett uppdrag som Vetenskapsrådet just nu arbetar med.
På fakultetsnivå, när universiteten ska fördela sina anslag lokalt, tittar ledningen ofta på sina forskares publiceringar i relation till publiceringskanalernas impact factor enligt den så kallade norska listan, som rankar olika vetenskapliga tidskrifter.
Och på forskarnivå handlar det om att öka sitt eget H-index (se faktaruta), för att ha större chans att få forskningsmedel eller erhålla en tjänst.
Göra sin forskning ”citerbar”
– Den citeringskultur som därmed uppstått i forskarvärlden leder till att allt fler positionerar sin forskning inte enbart för att få bäst innehållsligt genomslag, utan även för att göra sin forskning ”citerbar”.
Att bli citerad och att göra sig citerbar har blivit en integrerad del av själva forskningen, och påverkar forskare att anpassa sin forskning efter yttre krav för att prestera bättre i olika utvärderingar, betonar han.
– Men eftersom olika modeller verkar på olika nivåer och det sker en kontinuerlig utveckling av vilka måttstockar som används, skapas hela tiden nya villkor för forskarna att förhålla sig till.
Gustaf Nelhans är noga med att påpeka att antalet citeringar inte automatiskt är ett mått på vetenskaplig kvalitet. Publiceringskulturen ser olika ut inom olika områden; en artikel kan exempelvis citeras av andra skäl än att den innehåller god forskning/bra resultat.
Artiklar publicerade i tidskrifter med hög prestige får ofta fler citeringar än artiklar publicerade i tidskrifter med lägre prestige. Dessutom blir vissa artiklar, som översiktsartiklar och metodologiska artiklar, mer citerade än andra.
– Införandet av prestationsbaserade modeller med hjälp av citeringsdatabaser som Web of Science Länk till annan webbplats. riskerar att medföra en likriktning i forskningslandskapet, och forskning som publiceras på andra sätt – till exempel genom konferensbidrag eller monografier – kan då uppfattas som oönskad.
Dåligt verktyg på individnivå
Gustaf Nelhans framhåller att bibliometri är ett dåligt verktyg på individnivå, men kan säga en hel del om trender på aggregerad nivå.
– Man kan hävda att forskningskvalitet inte kan mätas, bara värderas. Jag är intresserad av vilken roll vetenskaplig publicering och citering spelar i vår forskning.
I sin avhandling har han utvecklat en modell för hur citeringsanalys kan användas i vetenskapsstudier, för att följa forskningen historiskt, som i ett släktträd. Det kan ge en mycket bra inblick i ett helt forskningsområde och hur det utvecklas genom att integrera kvalitativ och kvantitativ metodik med tonvikt vid visuella representationer av citeringsnätverket.
Gustaf Nelhans har själv blivit citerad, men inte så mycket som om avhandlingen skrivits på engelska.
– Det var delvis ett medvetet val, för att slippa ingå i citeringskulturen och bli ett slagträ i debatten om hur bibliometri ska användas forskningspolitiskt.
Läs mer:
Web of Science (Engelska) Länk till annan webbplats, öppnas i nytt fönster.
Läs också i Curie:
Kollegial bedömning ska höja forskningens kvalitet (Curie)
Konsten att hitta banbrytande forskning (Curie)
H-index
H-index är ett sätt att försöka mäta både produktivitet och genomslag hos en enskild forskare. För att få ett H-index på till exempel 18 måste en forskare skrivit minst 18 artiklar som var och en citerats minst 18 gånger.
Det är dock inget entydigt mått. Ett H-index på 18 kan betyda att en forskare har 18 artiklar, var och en citerad 18 gånger, eller att en forskare har 18 artiklar var och en citerad 100 gånger.
Och eftersom publicerings- och citeringstraditioner skiljer sig åt mellan olika forskningsområden är det lättare att uppnå ett högt H-index inom områden där man publicerar mycket och citerar varandras verk ofta. Därför är det problematiskt att jämföra H-index för forskare inom olika ämnen.
Bokstaven H kommer från fysikern Jorge Hirsch, som föreslog denna modell att mäta forskningens genomslag.
Du kanske också vill läsa
Ingen information tillgänglig