Viime aikoina olemme lukeneet uutisia tekoälypohjaisesta ChatGPT-chatbotista, joka vastailee kysymyksiimme ja tuottaa uutta, uskottavalta kuulostavaa tekstiä. Mediassa toimittajat ovat herätelleet meitä pohtimaan tekoälyn merkitystä tietoon pohjautuvassa yhteiskunnassamme, jossa ”Tekoäly kirjoittaa pääkirjoituksen” (HS 11.12.22) ja ”ChatGPT-ohjelma saattaa olla ensiaskel internetin disinformaatiopandemiaan” (IS Digitoday 11.12.22), sillä ”sen vastaukset vaikuttavat niin vakuuttavilta, että vastauksissa olevat virheet jäävät helposti huomaamatta” (IS Digitoday, 16.12.22).
Kollegani, professori, kokeili ChatGPT:ta ja totesi, että sen kanssa voisi kirjoittaa johdannon tutkimusrahoitushakemukseen. Eräs opiskelijaryhmä kertoi testanneensa, voiko ChatGPT:n kanssa kirjoittaa esseen, jonka yliopistoissamme laajasti käytössä oleva plagiaatintunnistusohjelma Turnitin hyväksyisi. Kuulemma voi.
Tekoälyn ajalla me jalostamme tietoa yhdessä tekoälyn kanssa – ja me elämme tässä ajassa jo nyt. Tiedon jalostaminen on prosessi, jossa jalostamme ideoista ja kysymyksistä esimerkiksi huolellisen empiirisen tutkimuksen, kehitettävien laitteiden testaamisen ja aihepiiristä aikaisemmin laadittujen raporttien avulla luotettavaa, selitettävää, tulkittua ja uutta tietoa. Tietoa saa ja tulee koetella, kritisoida, soveltaa ja jalostaa eteenpäin.
Perinteinen ymmärryksemme tiedosta on ihmiskeskeinen: tietävä, oppiva ja tietoa jalostava toimija on ihminen. Tekoälyn kanssa työskennellessämme me ihmiset emme kuitenkaan enää ole ainoita oppivia toimijoita jalostamassa tietoa, vaan teemme sitä oppivan ja yhä autonomisemman teknologian kanssa yhdessä.
Tekoälyn laajetessa sitä hyödyntävät yhä useammin myös ihmiset, joiden käsitys koodaamisen ja algoritmien teknisistä hienouksista on ohut. Tekoälyn hyödyntäessä aineistonaan internetin valtavaa ja jatkuvasti kasvavaa dataa on hyvin vaikea selvittää, mihin tekoälyn tuottamat väitteet oikeastaan perustuvat. Mediassa kysytäänkin parhaillaan juuri oikeita kysymyksiä. Voimmeko me jalostaa luotettavaa tietoa tekoälyn kanssa? Ja miten?
Johdan ja toteutan akatemiatutkijana tutkimushanketta ”Tiedon jalostamisen prosessit tilassa ja ajassa ihmisten, robottien ja tekoälyn yhteistyössä”. Olemme tutkineet tekoälyn ja robotiikan kehittäjien, tutkijoiden ja yliopisto-opiskelijoiden käsityksiä tiedosta ja teknologiasta, sekä sitä, miten he jalostavat tietoa tekoälyn ja robottien kanssa.
Yksi aineistoistamme koostuu 60 Suomessa ja Singaporessa kerätystä haastattelusta. Suurin osa haastatelluista oli sitä mieltä, että edistyneellä robotilla tai tekoälyllä voi olla tietoa – ainakin lähitulevaisuudessa. Alleviivaan, että keskustelimme tiedosta, emme tietoisuudesta. Monet teknologian kehittäjistä, tutkijoista ja opiskelijoista käsittivät tiedon rationaalisesta näkökulmasta objektiivisena, koodattavana ja eksplisiittisenä. Tällaista tietoa – mielestäni oikeastaan dataa ja informaatiota – tekoälyllä voi jo nyt olla ja sitä se voi käsitellä. Rationalistisen tiedon näkökulmasta katsottuna voidaan ajatella, että tulevaisuudessa kaikki ihmisessä oleva tieto on mahdollista ilmaista koodina ja siksi mahdollista siirtää tekoälylle. Rationalistisen tiedon näkökulmasta tekoälyllä voisi olla enemmän tietoa kuin ihmisellä.
Tutkijana tehtäväni on kuitenkin muistuttaa, että tieto on paljon muutakin: kehollista, hiljaista, merkityksellistä ja subjektiivisesti tulkittua tietyssä ajassa ja sosiokulttuurisessa tilassa. Tällaista laaja-alaista tietoa ei voi typistää koodiksi. Haastattelemiemme teknologian kehittäjien joukossa oli myös henkilöitä, joilla on vuorovaikutusta, kontekstia ja hiljaista tietoa painottava näkemys tiedosta.
Samalla, kuten ChatGPT on osoittanut, oppiva, interaktiivinen ja yhä itsenäisemmin toimiva tekoäly voi osallistua tiedon jalostamisen prosessiin uusin tavoin. Voidaan siis ajatella, että tulevaisuuden (tai nykyisyyden) tiedon jalostamisen prosessit ovat ihmisen ja teknologian yhteisiä ja perustuvat ihmisen ja teknologian väliseen kriittiseen vuorovaikutukseen, jossa molemmat oppivat toisiltaan. On syytä tarkastella myös perinteistä ihmiskeskeistä tiedon käsitystämme tästä näkökulmasta.
Käymme suomalaisessa tietoyhteiskunnassamme juuri nyt tärkeää keskustelua siitä, voimmeko me jalostaa luotettavaa tietoa tekoälyn kanssa – ja miten? Tämän kysymyksen äärellä entistä tärkeämmässä roolissa ovat yliopistot, joissa opetetaan kriittistä ajattelua ja tutkimukseen perustuvan luotettavan tiedon jalostamista. HS:n pääkirjoituksessa (11.12.2022) todettiin, että ChatGPT tuottaa niin laadukasta akateemista tekstiä, ”että kouluissa ja yliopistoissa kannattaa luopua esseevastauksista”. Aion toimia toisin. Kurssillani opiskelijat pääsevät tarkoituksella kirjoittamaan esseen ChatGPT:n avulla, mutta joutuvat pohtimaan kriittisesti yhdessä tekoälyn kanssa laatimansa tiedon luotettavuutta sekä sitä, miten tästä yhteisestä tiedon jalostamisen prosessista saadaan kriittinen, eettinen, läpinäkyvä ja luotettava.
Johanna Hautala
Akatemiatutkija
Apulaisprofessori
Vaasan yliopisto
Hei Johanna! On erittäin hyvä idea ottaa ChatGPT opetuskäyttöön ja arvoida tekoälyn käyttöön liittyviä kriittisyys-, luottavuus- ja eettisyyskysymyksiä ratkaisukeskeisesti.
Kiitos Tommi! Tervetuloa vaan opiskelijoille kurssille ”Innovations in Knowledge-Based Economy” ensi syksynä 🙂
Tärkeintä olisi todellakin opetella käyttämään ja hyödyntämään tekoälyä mahdollisimman viisaasti ja vastuullisesti. Ajattelen myös että negatiivisella narratiivilla aiheesta ei saavuteta mitään. Saattaa jopa lisätä sen ”vääränlaistä” (ei kriittistä, eettistä) hyödyntämistä.