Tekoäly tieteellisessä julkaisuprosessissa: mahdollisuudet, riskit ja pelisäännöt

Tekoäly on nyt kaikkialla – myös julkaisemisessa.

Teksti Leena Wahlfors

Tekoäly (AI) on tullut nopeasti ja jäädäkseen osaksi kaikkia elämän osa-alueita, myös osaksi tieteellistä julkaisuprosessia. Tekoälyä on mahdollista käyttää käsikirjoitusten seulonnassa. Se ehdottaa vertaisarvioijia, auttaa vertaisarvioitsijoita työssään ja yrittää jopa tehdä puolestamme päätöksiä siitä, mitä julkaistaan.

Tekoälyn käyttöön liittyy kysymyksiä oikeudenmukaisuudesta, läpinäkyvyydestä ja vastuista. Avaan seuraavassa, missä tieteellisen julkaisuprosessin eri vaiheissa tekoälyä käytetään, miten sitä käytetään, mitä hyötyä siitä on – ja missä kulkevat käytön riskien ja eettisyyden rajat. 

Teksti perustuu aiheesta laadittuun kirjallisuuskatsaukseen ja Julkaisufoorumin paneeleissa syksyllä 2025 aiheesta käytyihin keskusteluihin ja esiin tuotuihin havaintoihin. Teksti etenee seuraten tieteellisen julkaisuprosessin eri vaiheita alkaen käsikirjoituksen jättämisestä toimitukseen ja päättyen ratkaisuun käsikirjoituksen julkaisemisesta.

Hyvä esiseulonta on yhteistyötä AI:n ja ihmisen välillä

Ennen vertaisarviointia toimitus tekee käsikirjoituksen esiseulonnan, jolloin tarkistetaan muun muassa, ovatko tekstin rakenne ja muotoilut kunnossa, löytyykö merkkejä plagioinnista tai muusta vilpistä, onko menetelmäkuvaus ja raportointi riittävän läpinäkyvää ja ovatko viitteet ja viittaustyyli kohdillaan. On myös keskeistä selvittää, vastaako tekstin sisältö lehden tieteenalaa ja fokusta.

Relevantin lehden tai konferenssin tunnistaminen on kriittinen vaihe tutkimuksen julkaisemisprosessissa. Muutoin korkeatasoinenkin artikkelikäsikirjoitus saatetaan hylätä tai se löytää pienemmän yleisön kuin se sisältönsä kannalta relevantimmassa julkaisukanavassa muutoin saisi. Moni edellä kuvatuista vaiheista on mahdollista toteuttaa tekoälytyökalujen avulla. Työkalut säästävät aikaa, ja niiden voidaan olettaa olevan myös laatua kohentavia apureita.

Paneelikokouksissa panelistit pitivät hyväksyttävänä, että toimitus hyödyntää tekoälyä esimerkiksi plagioinnin tunnistamiseen, mutta ratkaisu siitä, viedäänkö käsikirjoitus seuraavaan vaiheeseen eli vertaisarvioitsijoille tarkastettavaksi, tulee panelistien näkemyksen mukaan olla aina ihmisen tekemä. Ongelmallisena pidettiin myös, että toimitukset edellyttävät tutkijoiden kertovan, onko tai miten tutkija on käyttänyt tekoälyä käsikirjoituksen valmistelussa, mutta eivät läheskään aina itse toimi läpinäkyvästi. Avoimuus voikin olla pian kustantajalle kilpailuetu, kuten eräs panelisti toi esiin. 

Avoimuutta ja ohjeistuksia tarvitaan lisää 

Panelistien havaintona oli, että toimitusten ohjeet tutkijoille tekoälyn käytöstä ovat puutteellisia ja keskenään ristiriitaisia. Panelistit toivat esiin myös sekä vertaisarvioitsijan että tutkijan roolissa huolen siitä, että aina ei ole mahdollista raportoida tekoälyn käytöstä, koska tekoälyä tulee mahdollisesti käyttäneeksi tietämättään osana käytettävissä olevia digitaalisia työkaluja. Tutkijan kynnystä kertoa toimitukselle tekoälyn käytöstä saattaa nostaa myös pelko, että informaation perusteella toimitus hylkääkin käsikirjoituksen, vaikka käyttö olisikin rajautunut esimerkiksi kielentarkastuksen tai viitteiden sijoittelun helpottamiseen.

Vastaavia havaintoja oli löydettävissä tutkimuskirjallisuudesta. Tutkimusraporteissa todetaan, että kansainväliset julkaisueettiset toimijat, kuten COPE ja WAME, ovat julkaisseet ohjeita tekoälyn käytöstä, mutta kustantajien tekoälyvälineiden käyttöä koskevat ohjeet käsikirjoitusten laatijoille ovat keskenään ristiriitaisia ja myös puutteellisia. Heikkoudet tekoälyn tutkimusetiikkaa koskevissa ohjeissa heijastanevat AI-teknologioiden kehittymisen nopeutta ja myös tietämyksen puutetta.

Kansainväliset alan järjestöt ja suuret kustantajat toivottavasti seuraavat alan kehitystä aktiivisesti ja päivittävät vaatimuksiaan tekoälytyökalujen ja niiden käytön kehittyessä. Yhteistä kustantajien ohjeistuksessa näyttäisi tutkimuskirjallisuuden perusteella olevan, että tutkija saa käyttää tekoälyä työn tukena esimerkiksi kielenhuollossa ja rakenteen hiomisessa, mutta vastuu sisällöstä säilyy aina ihmisellä. Tekoäly ei saa toimia kirjoittajana. Periaatteisiin kuuluu myös, että tekoälyn käytöstä tulee kertoa läpinäkyvästi silloin, kun se on ollut osa tutkimusmenetelmää tai tuottanut sisältöä.

Kuvien tekoälyluontiin ja -muokkaukseen suhtaudutaan erityisen varovasti. Osa kustantajista kieltää sen, osa sallii tarkoin ehdoin ja selkeällä ilmoituksella. Kustantajat myös varottavat tekoälyn vinoumista (esimerkiksi sukupuoli- tai maantieteelliset harhat), hallusinaatioista (keksityt “faktat” ja viitteet) sekä IP- ja tietosuojakysymyksistä. Tutkijoille ja toimituksille annettuna perusperiaatteena näyttää olevan, että jos käyttää tekoälyä, tulee tarkistaa tuotos ja kertoa käytöstä.

Panelistit korostivat, että tämä perusperiaate edellyttää rehellisyyttä aikakaudella, jolloin tekoälyn käytön tunnistamistyökalut ovat vielä vajavaisia. 

Vertaisarvioijien valinta: AI apuna, mutta ei portinvartijana  

Erään panelistin mukaan vertaisarviointi on kriisissä. Hänen mukaansa ”pitää keksiä jotain uutta, koska ihmisillä ei ole enää aikaa vertaisarviointiin. Viiden vuoden kuluttua se saattaa kadota kokonaan”. 

Myös aiheesta tehdyissä tutkimuksissa korostetaan tekoälyn merkitystä helpottamassa yhä työläämmäksi käyvää sopivan arvioijajoukon löytämistä. Erilaisin AI-pohjaisin työkaluin on mahdollista lukea käsikirjoitusta “aihesanojen” ja viitteiden kautta ja ehdottaa asiantuntijoita, myös toimituksen omien verkostojen ulkopuolelta. Tämä säästää alan tutkijoiden mukaan aikaa, laajentaa potentiaalisten arvioijien määrää ja parantaa käsikirjoitusten aiheiden ja arvioijien asiantuntemuksen kohtaamista.

Tutkijat kuitenkin varoittavat, että tässä riskeinä ovat, että hienovaraiset ja poikkitieteiset aiheet saattavat mennä algoritmilta ohi, mallit voivat vahvistaa aiempia vinoumia, esimerkiksi suosia tietyissä maissa tai instituutioissa toimivia vertaisarvioitsijakandidaatteja. Algoritmit ovat myös kyvyttömiä ajattelemaan kriittisesti ja esimerkiksi punnitsemaan, ovatko tietyn tieteenalan kärkinimet mahdollisesti liian kiireisiä antamaan aikaansa arviointityölle. On myös mahdollista, että järjestelmä ehdottaa täysin kuvitteellisia henkilöitä arvioitsijoiksi, mikäli syötetty data on laadullisesti huonoa.

Eräs panelisti toi esiin, että tekoälyn suomien mahdollisuuksien hyödyntäminen on relevantimpaa nuoremmille vertaisarvioitsijoina toimiville tutkijoille kuin kokeneemmille, ”joilla on (tieteenalansa) osaamista paljon ilman tekoälyäkin. Junioreilla ei ole verkostoja”.

Missä AI auttaa ja missä rajat tulevat vastaan?

Vertaisarvioijan tehtävänä on arvioida erityisesti käsikirjoituksen uutuusarvoa, merkittävyyttä, relevanssia ja tieteellistä tarkkuutta. Tekoäly voi auttaa rutiiniluontoisissa tehtävissä, kuten tekstien tiivistämisessä, yhteenvetojen tekemisessä, tilastoraporttien tarkistamisessa, epäjohdonmukaisuuksien löytymisessä sekä taulukoiden ja kuvien jäsentelyssä. Hyvin käytettyinä tekoälytyökalut vapauttavat arvioi­jan aikaa olennaiseen eli sen arvioimiseen, onko tutkimus oikeasti uutta, tärkeää ja hyvin perusteltua. Ihmisen asiantuntemus, harkinta ja vastuu eivät ole korvattavissa, kuten tutkimuskirjallisuudessa painotetaan.

Panelistit korostivat samaa. On tärkeää voida etsiä tietoa, tarkistaa yksityiskohtia ja paljastaa plagiointi, mutta kokonaan tekoälyllä tehtyjä vertaisarviointeja ei voida hyväksyä, vaikka panelistien mukaan näyttääkin siltä, että kokonaan tekoälyllä kirjoitettujen ja arvioitujen tutkimusten määrä on kasvamassa. Panelistien mukaan ”usein ei ole evidenssiä, mutta vahva epäily sen käytöstä”.

Myös vertaisarvioitsijoilta tulisi edellyttää avoimuutta siitä, onko tai miten hän on hyödyntänyt AI:ta. Panelistit peräänkuuluttivat toimijoiden välisen läpinäkyvyyden tärkeyttä toimitusten ja vertaisarvioitsijoiden sekä tutkijoiden välillä. Eräs panelisti veti yhteen ajatuksen toteamalla: ”me emme tiedä ja siksi joudumme kaikkea epäilemään… epäilyn aikakausi”. 

Julkaisupäätökset ja julkaisemisen jälkeinen vaihe 

Jos arvioijien mielipiteet eroavat käsikirjoituksen relevanssista ja huolellisuudesta, saattaa toimitus käyttää tekoälyä apuna punnitessaan, mitä korjauksia pyydetään tai hyväksytäänkö työ sellaisenaan. Myös julkaisun jälkeen tekoäly voi auttaa tiivistelmien ja käännösten tekemisessä, mikä lisää tutkimuksen saavutettavuutta. Tietosuoja ja luottamuksellisuus on kuitenkin pidettävä kirkkaasti mielessä. Mikäli toimitus tai vertais­arvioitsija syöttää arvioitavana olevan tekstin tekoälylle, leviää sen sisältö ja sen sisältämät mahdollisesti uutuusarvoltaan merkittävät tutkimuslöydökset hallitsemattomasti, muistuttivat usean paneelin jäsenet.

Panelistit kertoivat vain vähän havainnoista tai oletuksista tekoälyn käytöstä julkaisu­päätösten tekemisessä tekoälyllä. Eräs panelisti kertoi esimerkin, jossa tekoälyä oli hyödynnetty inhimillisesti tehtyjen haastattelujen yhteen vetämisessä valittaessa tutkijoita tieteelliseen konferenssiin. 

Näkymä tulevaan: epävarmuus, mahdollisuudet ja rajat 

Tutkimuskirjallisuuden perusteella tekoäly tehostaa tieteellisen julkaisuprosessiin liittyvää työtä, mutta tuo samalla mukanaan uudenlaisia virhemahdollisuuksia. Vilpin etsintään käytetyt AI-työkalut eivät ole erehtymättömiä, kuten tutkijat muistuttavat. AI-työkalut saattavat epäillä tekstiä vilpillisesti tuotetuksi, vaikka se on laadittu noudattaen hyviä tieteellisiä käytäntöjä, tai jättää oikean ongelman huomaamatta.

Tekoälytyökalut saattavat myös synnyttää vinoumia. Mikäli tutkijoita seulotaan tai käsikirjoituksia tarkastetaan eri tavoin maan, instituution tai kielen perusteella, syntyy tutkijoiden mukaan epäoikeudenmukaisuutta. Myös niin sanotut hallusinaatiot ja keksityt viitteet ovat erityinen riski generatiivisissa työkaluissa – ainakin niiden nykyisessä kehitysvaiheessa.

Kaikkien tieteenalojen paneeleissa korostettiin tekoälyn suomia sekä myönteisiä että kielteisiä käyttötarkoituksia ja niiden tieteen tekemiselle tuomia uhkia ja mahdollisuuksia. Panelistit pitivät tekoälyä tehokkaana työkaluna ja pohtivat, missä ovat sen käytön rajat. Panelistit kysyivät, rapauttaako se jo nyt vallalla olevia epäilyjä tieteen hyödyllisyydestä ja tarpeellisuudesta. Toisaalta panelistit uskoivat, että tekoälyn kehittyessäkin jää asioita, joita ei voi luovuttaa ihmiseltä roboteille.

Tieteen tekemisen tavat muuttuvat, mutta kuten panelistit toteavat: ”Kaikki on avoinna. Tulevaisuus on epävarma.” ”Uhat ovat materialisoitumassa… sama koskee mahdollisuuksia.” ”Pitäisi löytää hyvä avioliitto ihmisen ja AI:n välille.”

Edellisen perusteella pohdin, tulisiko julkaisufoorumiluokitusta kehitettäessä jatkossa ottaa huomioon julkaisukanavien tutkijoille ja vertaisarvioitsijoille antamat ohjeet tekoälyn käytöstä sekä kuvaukset siitä, miten ne itse hyödyntävät tekoälyä tieteellisessä julkaisuprosessissaan.

Lähteet:
Ahn, S. (2024, September 1). The transformative impact of large language models on medical writing and publishing: Current applications, challenges and future directions. Korean Journal of Physiology and Pharmacology, 28(5), 393–401.

Alnaimat, F., AlSamhori, A. R. F., Hamdan, O., Seiil, B., & Qumar, A. B. (2025, June 2). Perspectives of Artificial Intelligence Use for In-House Ethics Checks of Journal Submissions. Journal of Korean Medical Science, 40(21), e170.

Checco, A., Bracciale, L., Loreti, P. et al. AI-assisted peer review. Humanit Soc Sci Commun 8, 25 (2021).

da Veiga, A. Ethical guidelines for the use of generative artificial intelligence and artificial intelligence-assisted tools in scholarly publishing: a thematic analysis. Sci Ed 2025;12(1):28- 34

Farber, S. (2024). Enhancing peer review efficiency: A mixed-methods analysis of artificial intelligence-assisted reviewer selection across academic disciplines. Learned Publishing, 37(4), e1638.

Ganjavi, C., Eppler, M. B., Pekcan, A., Biedermann, B., Abreu, A., Collins, G. S., Gill, I. S., & Cacciamani, G. E. (2024). Publishers’ and journals’ instructions to authors on use of generative artificial intelligence in academic and scientific publishing: Bibliometric analysis. BMJ, 384, e077192.

Hosseini, M., & Resnik, D. B. (2025). Guidance needed for using artificial intelligence to screen journal submissions for misconduct. Research Ethics, 21(1), 1–8.

Kousha, K., Thelwall, M. Artificial intelligence to support publishing and peer review: A summary and review. First published: 08 August 2023.

Liang, W., Zhang, Y., Cao, H., Wang, B., Ding, D. Y., Yang, X., Vodrahalli, K., He, S., Smith, D. S., Yin, Y., McFarland, D. A., & Zou, J. (2023). Can large language models provide useful feedback on research papers? A large-scale empirical analysis. arXiv.

Razack, H. I. A., Mathew, S. T., Saad, F. F. A., & Alqahtani, S. A. (2021). Artificial intelligence-assisted tools for redefining the communication landscape of the scholarly world. Science Editing, 8(2), 134–144.

Zaharie, Monica Aniela & Osoian, Codruţa Luminiţa (2016). Peer review motivation frames: A qualitative approach. European Management Journal, 34(1), 69–79

Zhang, A., Gao, Y., Suraworachet, W., Nazaretsky, T., & Cukurova, M. (2025, April 15). Evaluating trust in AI, human, and co-produced feedback among undergraduate students. arXiv.

Zhuang, Z., Chen, J., Xu, H., Jiang, Y., & Lin, J. (2025). Large language models for automated scholarly paper review: A survey. arXiv.

Pikaopas toimituksille ja arvioijille

  • Käytä läpinäkyvästi: kerro mitä työkaluja käytit ja mihin.
  • Pidä ihminen ratissa: kaikki “hälytykset” tarkistetaan manuaalisesti.
  • Vältä vinoumia: seuraa, kohteleeko järjestelmä eri maista tai instituutioista tulevia käsikirjoituksia tasapuolisesti.
  • Suojele dataa: älä syötä luottamuksellista materiaalia avoimiin palveluihin.
  • Varmista viitteet: tarkista lähteiden olemassaolo ja sisältö – älä luota pelkkään tekoälyn tuottamaan listaan.
  • Muista tekijyys: tekoäly ei ole kirjoittaja; vastuu säilyy ihmisellä.

Luitko jo nämä?