Förbudet att använda AI då ansökningar granskas har begränsad effekt på grund av offentlighetsprincipen och leder till långsammare processer, högre kostnader och förlorad konkurrenskraft. Foto: Depositphotis
debatt
Slopa förbudet mot AI vid granskning av ansökningar
De svenska forskningsråden har infört ett totalförbud mot användningen av AI vid granskningen av ansökningar. Förbudet minskar risken för dataläckage, men leder samtidigt till långsammare processer, ökade kostnader, en större arbetsbörda för granskarna och sämre kvalitet på granskningen. Vägen framåt är istället tydliga regler för en ansvarsfull användning av AI, skriver Magnus Ingelman-Sundberg, Karolinska institutet.
Ämnen i artikeln:

Magnus Ingelman-Sundberg
Jag föreläste nyligen vid Köpenhamns universitet om hur AI kan stödja individualiserad läkemedelsbehandling. När jag frågade runt 100 forskare hur många som använder AI i sitt arbete räckte endast tre upp handen. Det fick mig att reflektera över varför.
Inom akademin finns en kulturell skepsis där AI ofta uppfattas som hype eller som ett tecken på metodologiska genvägar. Det finns också en kvarvarande känsla av att AI är något man inte talar högt om. Liknande motstånd har funnits tidigare, exempelvis mot Wikipedia, Google, räknemaskiner och ordbehandlare. Samtidigt finns reella farhågor kring GDPR, patientdata och etiska krav.
Trots detta är AI redan integrerat i vardagen, från Google-sökningar till Officeprogram. Ändå har många forskningsråd förbjudit användning av AI i granskningsprocessen av forskningsansökningar och manuskript. Under min tid i flera nordiska och europeiska forskningsråd, just nu i Belgiska forskningsrådet (där AI är tillåtet), har jag sett hur mycket tid och kvalitet som skulle kunna vinnas om granskare fick använda AI som stöd. Eftersom panelmedlemmar ofta bedömer ansökningar utanför sitt specialområde vore AI särskilt värdefullt för att snabbt sätta projekt i internationell kontext, bedöma metodkrav, infrastruktur och tidigare forskning inom området.
Liknande motstånd har funnits tidigare, exempelvis mot Wikipedia, Google, räknemaskiner och ordbehandlare.
Förbudet hänger samman med att AI som påverkar fördelning av offentliga medel, klassas som högrisk enligt EU:s regelverk för AI (2024/1689). Svenska forskningsråd har därför tolkat granskning av ansökningar som en sådan tillämpning och valt att införa ett totalförbud – specifikt i granskningsfasen, inte i forskningen eller ansökningsskrivandet.
Den huvudsakliga risken rör dataläckage, eftersom information som skickas till AI-tjänster kan lagras temporärt. Intrång i myndigheter och universitet visar att risken inte är obefintlig. OpenAI menar att risken är mycket låg 0,1 – 0,5 procent vid hantering av icke-känslig information, men högre vid för sekretessbelagda, politiska eller ekonomiskt känsliga uppgifter.
Forskningsansökningar omfattas dessutom av offentlighetsprincipen och innehåller sällan uppgifter av större intresse för angripare. Personuppgifter är ofta redan publikt tillgängliga genom massmediala databaser som Ratsit, Hitta och Mrkoll. De har alla så kallade utgivningsbevis och innehåller uppgifter om till exempel personnummer, adress, inkomst, företagsengagemang, betalningsanmärkningar och i vissa fall domar. GDPR skyddar personuppgifter, medan offentlighetsprincipen värnar insyn i samhället. När dessa två intressen kolliderar har offentlighetsprincipen företräde i Sverige genom yttrandefrihetsgrundlagen, vilket i praktiken gör GDPR icke verkningsfull i dessa sammanhang.
Utan AI ökar ineffektiviteten i ett system med tusentals ansökningar per år.
Ett AI-förbud minskar risken för dataläckage och möjliggör endast mänsklig bedömning med ansvar och omdöme. Men nackdelarna är betydande. Utan AI ökar ineffektiviteten i ett system med tusentals ansökningar per år. Möjligheten att höja kvaliteten går förlorad, exempelvis genom snabb analys av forskningsfront, miljö, infrastruktur och nyhetsvärde. Arbetsbördan för ideellt arbetande granskare ökar, liksom kostnaderna.
Det svenska granskningssystemet bygger på ansvarstagande forskare vars bedömningar kan motiveras och granskas. I stället för ett generellt förbud behövs därför villkorsstyrda riktlinjer som skiljer mellan osäkra publika AI-tjänster och kontrollerade, interna AI-miljöer. Forskningsråden bör utveckla eller upphandla säkra AI-verktyg inom svensk eller europeisk jurisdiktion, samt kräva transparens genom att AI-användning deklareras i granskningsrapporter. AI ska vara ett stöd, aldrig en autonom beslutsfattare. Dessa regler bör gälla:
- AI-verktyg får användas för språklig bearbetning, sammanfattning och strukturering av stora textmängder samt för att ta fram verifierbara fakta.
- AI får inte användas för vetenskaplig bedömning, betygsättning eller för att hantera sekretessbelagd information utan anonymisering.
- Om AI använts i större omfattning ska detta anges, och granskaren ansvarar alltid för innehållets korrekthet, kvalitet och opartiskhet.
Förbudet mot AI är begripligt ur ett försiktighetsperspektiv, men har i Sverige begränsad effekt på grund av offentlighetsprincipen och är dessutom omöjligt att kontrollera. Priset är långsammare processer, högre kostnader och förlorad konkurrenskraft. Den hållbara vägen framåt är därför inte ett symboliskt förbud utan tydliga, ansvarsbaserade regler för kontrollerad AI-användning – på samma sätt som akademin tidigare integrerat datorer och internet. Forskarsamhället har alltid utvecklats med sina verktyg, inte mot dem.
Magnus Ingelman-Sundberg, senior professor, Karolinska Institutet
Håller du med? Skriv en replik eller ett eget inlägg
Välkommen att debattera forskningens villkor! Mejla din text med kontaktuppgifter till: debatt@tidningencurie.se
Mer om vad som gäller för att skriva i Curie
Du kan också kommentera på LinkedIn Länk till annan webbplats. och Facebook. Länk till annan webbplats.
Du kanske också vill läsa
Debatt 11 februari 2026
Debatt 26 januari 2026
Debatt 21 januari 2026