Giovanni Domenico Tiepolo (1727-1804): Troijan hevosta kuljetetaan (1760)

Tekoäly tutkimustyössä – työkalu vai troijanhevonen?

blog

Tekoäly tehostaa tutkimustyötä. Samalla se muokkaa sen sisältöä, hämärtää vastuuta, rasittaa ympäristöä ja yhdenmukaistaa ajattelua.

Tekoälyjärjestelmät eivät ole neutraaleja työkaluja – niihin on sisäänrakennettu poliittisia valintoja, valtasuhteita ja oletuksia. Tämä on se, mistä useimmat ohjeistukset vaikenevat.

Ohjeistusten sokeat pisteet

Monissa suomalaisissa yliopistoissa laaditaan ja päivitetään parhaillaan ohjeistuksia tekoälyn tutkimuskäytöstä. Tämä on tärkeää ja tarpeellista.

Yhtä kiinnostavaa on kuitenkin se, mitä nämä ohjeistukset jättävät sanomatta. Juuri vaikeneminen kaikkein hankalimmista kysymyksistä kertoo eniten.

Ohjeistukset vaikenevat etenkin siitä, mitä tekoälyn laaja käyttö tekee ajattelulle. Kun tekstejä tuotetaan, muokataan ja jäsennellään yhä enemmän kielimallien avulla, kysymys ei ole vain tehokkuudesta vaan myös siitä, kuka tai mikä lopulta ajattelee ja kenen näkökulmasta.

Tämän rinnalla ohjeistukset sivuuttavat myös kolme muuta tärkeää asiaa: tekoälyn ympäristökuormituksen, sen tuotantoketjujen epäoikeudenmukaiset työolosuhteet ja yliopistojen kasvavan riippuvuuden yksityisten teknologiayritysten infrastruktuurista. Nämä eivät ole marginaalisia kysymyksiä – ne koskevat sitä, millaista tiedettä ylipäätään haluamme tehdä ja millä ehdoilla.

Seuraava tarkastelu perustuu Vaasan yliopiston käynnissä olevaan ohjeistusprosessiin, jonka yhteydessä tutkijoilta kerättiin palautetta ohjeiden alustavasta versiosta.

Tekoäly tehostaa tutkimusta – vai tehostaako?

Monissa ohjeistuksissa lähdetään liikkeelle siitä, että tekoälysovellukset voivat merkittävästi tehostaa tutkimustyötä. Kuulostaa järkevältä. Kannattaa kuitenkin pysähtyä hetkeksi.

Tieteellisessä tutkimuksessa vaaditaan, että väitteet perustellaan. Miksi tekoälyn tapauksessa tehostaminen otetaan lähtökohtaoletuksena eikä tutkimuskysymyksenä? Tehostaako tekoäly kaikkea työtä, kaikkialla, kaikissa tilanteissa? Entä millä kustannuksilla?

Olisi johdonmukaisempaa myöntää, että tekoälyn hyödyllisyys riippuu tehtävästä, asiayhteydestä ja käyttäjästä. Joihinkin töihin se sopii erinomaisesti, toisiin ei lainkaan.

Esimerkiksi suurten tekstiaineistojen jäsentäminen, kieliasun tarkistaminen tai koodausvirheiden paikallistaminen ovat tehtäviä, joissa tekoäly voi olla todellinen apu. Sen sijaan teoreettinen argumentointi, kenttätyö, haastattelutilanteet tai oman tieteellisen äänen kehittäminen ovat alueita, joilla tekoälyavusteinen työskentely voi pikemminkin haitata kuin edistää tutkijan ammatillista kasvua.

Tutkijalla tulee olla lupa myös todeta, että tekoäly ei sovi hänen työtapaansa – ilman, että hän tuntee olevansa vanhanaikainen tai jälkeenjäänyt.

Mitä suuret kielimallit oikeastaan tekevät?

Monissa tekoälyohjeistuksissa määritellään, mitä suuret kielimallit ovat: järjestelmiä, jotka tuottavat sisältöä käyttäjän laatimien kehotteiden perusteella. Teknisesti tämä pitää paikkansa. Oleellisin seikka jää kuitenkin mainitsematta.

Kielimallit eivät ajattele, ymmärrä tai tiedä – ne ennustavat, mitkä sanat todennäköisesti seuraavat toisiaan koulutusaineistossa havaittujen mallien perusteella. Ne tuottavat tilastollisesti uskottavaa tekstiä, ei totuuteen sitoutunutta tekstiä. Tekoälyn tuottaman tekstin tarkkuus ja perustelujen laatu riippuvat sekä kielimallin koulutusaineistosta että tutkijan käyttämistä kehotteista.

Ihmiselle kirjoittaminen on vuorovaikutusta, jossa keskeistä on kirjoittaja, hänen kohdelukijansa, tekstin tavoite ja konteksti eli se ympäristö, jossa teksti esiintyy. Tekoälyn tuotoksilta kaikki tämä puuttuu.

Tämä ei ole tekninen yksityiskohta. Jokaisen tekoälyä käyttävän tutkijan on syytä pitää se mielessä arvioidessaan, milloin tuotokseen voi luottaa ja milloin ei.

Kuka kantaa vastuun?

Käytännössä kaikissa ohjeistuksissa todetaan, että tutkija on aina vastuussa tuottamansa sisällön paikkansapitävyydestä ja eettisyydestä. Oikein. Onko tämä kuitenkaan koko tarina?

Kun yliopisto kannustaa, normalisoi tai jopa edellyttää tekoälyn käyttöä, on ongelmallista sysätä vastuu yksittäiselle tutkijalle. Jos työkalu on yliopiston hyväksymä, markkinoima ja suosittelema – ja se tuottaa systemaattisesti vinoutuneita tuloksia, kuka silloin vastaa?

Vinoumat eivät ole satunnaisia virheitä vaan rakenteellisia: kielimallit heijastavat koulutusaineistonsa painotuksia, ylikattavat joitakin kieliä, kulttuureja ja tiedontuotannon tapoja ja alikattavat toisia. Tutkija saattaa tiedostaa tämän periaatteessa, mutta kielimallien koulutusaineistot eivät ole julkisia, joten vinoumien tarkka luonne ja laajuus jäävät väistämättä epäselviksi.

Vastuun täytyy jakautua selkeästi: tutkija, tutkimusryhmän vetäjä, tekoälytyökalun hyväksymisestä vastaava taho ja yliopisto kokonaisuudessaan. Nykyisissä ohjeistuksissa näin ei kuitenkaan ole, vaan vastuu kasataan yksilölle. Juuri siinä piilee poliittinen vastuunpakoilu: yksilön vastuuttaminen suojaa päätöksentekijöitä seurauksilta.

Toistettavuus – tekoälyn arvoituksellinen ongelma

Tieteellisen tutkimuksen kulmakiviä on toistettavuus: muiden tutkijoiden pitää pystyä arvioimaan, miten tuloksiin on päästy. Tekoälyn tapauksessa tämä on rakenteellisesti hankalaa.

Vaikka tallennettaisiin tarkat kehotteet, kielimallin versionumero ja käyttöpäivä, nämä tiedot voivat osoittautua kuolleeksi kirjaimeksi. Kaupalliset kielimallit päivittyvät jatkuvasti, versioita poistetaan tai niiden käytöstä luovutaan. ”Claude Opus 4.1” voi viitata johonkin, jota ei enää ole tai joka käyttäytyy eri tavalla kuin tutkimuksen tekoaikana.

Tutkijoiden olisikin kirjattava rajoitteet avoimesti julkaisuihinsa – ei peiteltävä niitä mekaanisella dokumentointirutiinilla.

Julkaisukäytännöt pirstaloituneet

Tekoälyn käyttöä koskevat raportointivaatimukset vaihtelevat huomattavasti eri tieteellisten aikakauslehtien ja kustantajien välillä. Osa lehdistä edellyttää, että tekoälyn käyttö mainitaan menetelmäosiossa; toiset hyväksyvät merkinnän käsikirjoituksen julkaisuportaalissa, ja jotkut kieltävät tekoälyn hyödyntämisen tekstin tuottamisessa kokonaan.

Elsevier, Springer ja Wiley ovat muotoilleet toisistaan poikkeavat linjauksensa. Tämä pirstaleisuus asettaa tutkijat hankalaan asemaan, sillä yhden lehden käytännöt voivat olla ristiriidassa toisen kanssa, ja ohjeistukset muuttuvat nopeasti.

Yliopiston ohjeistuksen tuleekin tunnistaa tämä todellisuus sellaisena kuin se on – ei yhtenäisenä normistona vaan jatkuvasti muuttuvana ja hajanaisena käytäntöjen kokoelmana – ja tarjota tutkijoille tukea oman julkaisukanavansa vaatimusten selvittämiseen sen sijaan, että luotaisiin illuusio yhtenäisestä dokumentointikäytännöstä.

Kun tekoäly kirjoittaa, kuka lopulta ajattelee?

Ehkä kiintoisin ja vähiten käsitelty kysymys koskee kirjoittamista. Ohjeistuksissa tekoälyavusteinen kirjoittaminen niputetaan helposti kielenhuollon kategoriaan: tehostettua kieliopintarkistusta. Onko se kuitenkaan sitä?

Akateeminen kirjoittaminen ei ole pelkkää ajattelun paketointia. Kirjoittaessa syntyy ajatuksia, argumentit terävöityvät, oma tutkijan ääni löytyy ja kehittyy. Kun tekoäly sujuvoittaa tekstiä, uudelleenmuotoilee lauseita ja hioo siirtymiä asiasta toiseen, se ei tee neutraalia pintasilausta – se muokkaa ajattelua.

Entä jos tekoäly alkaa tuottaa kaventuvaa akateemista tyyliä? Tieteelliselle ajattelulle on aina ollut hedelmällistä, että eri tutkijat kirjoittavat eri tavoin, eri painotuksin, eri retorisin valinnoin. Jos tekoälyn myötä kaikki tekstit alkavat muistuttaa toisiaan, mitä se tekee tieteelliselle monimuotoisuudelle?

Nämä eivät ole kaukaa haettuja huolia. Ne ovat kysymyksiä, joita tiedeyhteisön pitää tutkia aktiivisesti eikä ohittaa hiljaisella luvalla.

Mistä ohjeistukset vaikenevat

Monet tekoälyohjeistukset sivuuttavat kokonaan eräitä tärkeitä eettisiä kysymyksiä.

Ympäristökuormitus: Suurten tekoälymallien kouluttaminen ja käyttö kuluttaa valtavia määriä energiaa ja vettä. Yliopisto, joka edellyttää tutkimuksen eettistä arviointia, voisi johdonmukaisesti edellyttää pohdintaa myös tutkimusinfrastruktuurinsa ympäristövaikutuksista.

Työ tekoälyn takana: Kielimallien koulutusaineistoa on osittain tuotettu hyvin heikosti palkatuilla sisällönmerkitsijöillä globaalissa etelässä. Tämä ei ole marginaalinen seikka vaan kiinteä osa tekoälyjärjestelmien rakennetta.

Infrastruktuuririippuvuus: Kun yliopiston tutkimusprosessit nojaavat muutaman amerikkalaisen suuryrityksen alustaan, syntyy rakenteellinen haavoittuvuus. Tutkimuksen autonomia – kyky tehdä tiedettä riippumatta yksityisten toimijoiden taloudellisista intresseistä – on kysymys, joka olennaisesti liittyy tekoälyohjeistuksiin.

Hyvä alku ei riitä – tarvitaan syvempää keskustelua

Tekoälyohjeistuksissa on paljon hyvää: käytännöllisiä neuvoja tietosuojasta, dokumentoinnista ja avoimuudesta. Nämä ovat tarpeellisia.

Heikoimmillaan ohjeistukset ovat kuitenkin silloin, kun ne kohtelevat tekoälyä kuin ohjelmistopakettia – neutraalina työkaluna, joka vaatii vain käyttöohjeet. Tekoälyjärjestelmiin on sisäänrakennettu poliittisia valintoja, valtasuhteita ja oletuksia. Vastuullinen käyttö vaatii näiden tunnistamista. Protokollien noudattaminen ei riitä.

Paras tekoälyohjeistus ei ole sääntölista vaan kutsu kriittiseen ajatteluun. Sen tulee rohkaista tutkijoita pohtimaan, mitä nämä välineet pohjimmiltaan ovat ja kenen intressejä ne palvelevat. Tämä harkinta kuuluu olennaisesti vastuulliseen tutkimuskulttuuriin. Se on ohjeistus, josta yliopisto voi olla ylpeä.

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *

Viimeisimmät postaukset

Tommi Lehtonen

Tommi Lehtonen - Ajatusyhteys

Kirjoittaja on Vaasan yliopiston tutkimusjohtaja, joka on erikoistunut etiikan, vastuullisuuden ja kestävän kehityksen kysymyksiin.