Marraskuu 2025

Millä edellytyksillä tekoälyä voidaan käyttää systemaattisten katsausten laatimisessa?

Kuukauden Cochrane, marraskuu 2025

Jorma Komulainen

Tekoälyn käyttö tutkimusnäytön synteesissä on kuuma aihe. Yhtäältä se voi nopeuttaa, ajanmukaistaa ja helpottaa työtä, toisaalta lisätä synteesin epäluotettavuuden riskiä. Cochrane-, Campbell Collaboration-, Joanna Briggs Institute (JBI)- ja Collaboration for Environmental Evidence (CEE) -organisaatiot julkaisivat 11.11.2025 yhteisen kannanoton siihen, millaisilla edellytyksillä tekoälyä voidaan käyttää niiden julkaisemien systemaattisten katsausten laatimisessa. 

Tämän artikkelin kirjoittaja (JK) on käyttänyt tekoälyä (Microsoft Copilot) alkuperäisen kannanoton [1] suomentamiseen. JK on tarkistanut suomennoksen, tiivistänyt kannanottoa ja lisännyt siihen (kursiivilla) erityisesti suomalaiseen toimintaympäristöön liittyviä kommenttejaan.

JK: Myös terveydenhuollon menetelmiä arvioivat HTA (Health Technology Assessment) -katsaukset ja hoitosuositukset perustuvat näytön synteeseihin ja sisältävät niistä johdettavia kannanottoja. Niinpä myös suomalaisten HTA-katsausten ja hoitosuositusten laatijoiden on syytä tarkastella kriittisesti nyt julkaistua kannanottoa.

Kannanoton keskeiset viestit:

  • Näytön synteesin tekijät ovat viime kädessä vastuussa omasta työstään, myös päätöksestä käyttää tekoälyä ja automaatiota sekä lakien ja eettisten standardien noudattamisen varmistamisesta.
  • Cochrane, Campbell Collaboration, JBI ja CEE tukevat RAISE-suositusten (Responsible use of AI in evidence SynthEsis) [2] tavoitteita, jotka tarjoavat viitekehyksen tekoälyn ja automaation vastuulliselle käytölle kaikissa näytön synteesin laatimiseen liittyvissä tehtävissä.
  • Näytön synteesin tekijät voivat käyttää tekoälyä ja automaatiota, kunhan voidaan osoittaa, ettei se vaaranna synteesin menetelmällistä tarkkuutta tai eheyttä.
  • Ihmisen tulee valvoa tekoälyä ja automaatiota.
  • Kaikki sellainen tekoälyn tai automaation käyttö, joka tuottaa tai ehdottaa päätöksiä, tulee raportoida täysin ja läpinäkyvästi näytön synteesin raportissa.
  • Tekoälytyökalujen kehittäjien tulee aktiivisesti varmistaa, että heidän järjestelmänsä noudattavat RAISE-suosituksia, jotta päätöksenteon tueksi on saatavilla selkeää, läpinäkyvää ja julkista tietoa.

Tausta ja periaatteet:
Näytön synteesit, mukaan lukien systemaattiset katsaukset (JK: ja hoitosuositukset ja HTA-katsaukset), ovat tutkimusta, jossa käytetään systemaattisia ja toistettavia menetelmiä kaiken tietystä kysymyksestä saatavilla olevan näytön arvioimiseen. Ne perustuvat tutkimuksen eheyden periaatteisiin: tarkkuuteen, läpinäkyvyyteen ja toistettavuuteen. Tekoälyllä ja automaatiolla on potentiaalia muuttaa tapaa tuottaa näytön synteesejä ja tehdä niiden tuottamisesta merkittävästi tehokkaampaa, mutta teknologia voi olla vahingollista, päätöksenteko voi olla läpinäkymätöntä, algoritmeihin voi sisältyä harhaa ja tulokset voivat olla epäluotettavia. 

Tekoälyn määritelmä:
Tekoälyllä tarkoitetaan erilaisia automaation muotoja, kuten sääntöihin tai koneoppimiseen perustuvia algoritmeja, sekä uusia suuria kielimalleja ja generatiivisia tekoälyratkaisuja.

Mahdollisuudet ja haasteet:
Tekoälyn hyödyntämiseen näytön synteesissä liittyy sekä mahdollisuuksia että haasteita. On tärkeää hyödyntää tekoälyä, jotta synteesit (JK: mukaan lukien hoitosuositukset ja HTA-katsaukset) olisivat ajantasaisempia, edullisempia laatia ja kestävämpiä, mutta samalla on tunnistettava tekoälyn, erityisesti suurten kielimallien, sosiaaliset ja ympäristövaikutukset. Väärinkäytön riskit voivat heikentää menetelmällisiä standardeja ja vaarantaa näytön synteesin luotettavuutta.

Yhteistyö ja suositukset:
Cochrane, Campbell Collaboration, JBI ja CEE ovat perustaneet yhteisen AI Methods Group -ryhmän, joka tukee RAISE-suositusten tavoitteita. Tavoitteena on linjata toimintatavat parhaiden käytäntöjen mukaisesti ja jakaa oppeja tehokkaista lähestymistavoista. Kannanotot tekoälyn käyttöön näytön synteeseissä kehittyvät alan ja tutkimusnäytön mukana, joten on syytä käyttää ajantasaisinta RAISE-versiota ja julkaistua kannanottoa.

Tekoälyn käytön perustelu:
Protokollan kehittämisen yhteydessä tulee arvioida tekoälyn käytön perustelut, kuten resurssien saatavuus, kiireellisyys, relevanssi ja laajuus. Tekoälyn käyttöä tulee harkita yhtenä päätöksenteon osa-alueena. Arvioinnissa tulee huomioida synteesin konteksti, virheriskin merkitys synteesille ja mahdolliset riskienhallintakeinot.

Läpinäkyvyys ja validointi:
Tekoälytyökalujen kehittäjien tulee varmistaa, että järjestelmistä, myös niiden toimintaperiaatteista, käyttöehdoista, testaus-, koulutus- ja validointituloksista sekä datan laajuudesta ja rajoituksista, on julkista ja läpinäkyvää tietoa. Riippumattomien asiantuntijoiden tekemät arvioinnit ovat suositeltavia.

Ihmisen valvonta ja raportointi:
Tekoälyn käytön päätökset tulee tehdä ja raportoida protokollan kehittämisen yhteydessä. Raportointiin suositellaan mallipohjaa, jossa kuvataan käytettävä järjestelmä, kehittäjä, käyttötarkoitus, käyttöohjeet, perustelut, validointi ja rajoitukset. Esimerkki mallipohjasta sisältyy kannanottoon [1].

Käytännön ohjeet:
RAISE sisältää ohjeita suositusten käytännön toteutukseen, kuten tekoälyjärjestelmien rakentamiseen ja validointiin, arviointien tekemiseen, suorituskykymittareihin, tekoälyn nykytilaan evidenssisynteesissä, tekoälyn valintaan ja käyttöön sekä eettisiin, oikeudellisiin ja sääntelyyn liittyviin näkökohtiin. Esimerkkejä käytännön ohjeista on kuvattu kannanoton taulukossa 1 [1].

Vastuu ja tulevaisuus:
Näytön synteesin tekijät ovat vastuussa omasta työstään, tekoälyn käytöstä ja sen vaikutuksista, myös sosiaalisista ja ympäristövaikutuksista. Kannanoton laatineet organisaatiot sitoutuvat parantamaan tekoälyosaamista ja tarjoamaan resursseja ja ohjeita vastuulliseen, tehokkaaseen ja tasa-arvoiseen tekoälyn käyttöön näytön synteesissä.

Viitteet:

[1] Flemyng E, Noel‐Storr A, Macura B ym. Position statement on artificial intelligence (AI) use in evidence synthesis across Cochrane, the Campbell Collaboration, JBI and the Collaboration for Environmental Evidence 2025.  (siteerattu 11.11.2025)

[2] RAISE: Responsible AI Governance and System Engineering (siteerattu 11.11.2025)