 
		
     Aalto-yliopiston uusi tutkimus paljastaa yllättävän ilmiön: tekoälyn käyttäjät yliarvioivat oman suoriutumisensa riippumatta todellisista taidoistaan.
Kun ihmiset yleensä kuvittelevat olevansa keskivertoa parempia esimerkiksi loogisessa päättelyssä – niin sanottu Dunning–Kruger-efekti – tekoälyn kanssa käy päinvastoin.
Tutkijat havaitsivat käänteisen ylivertaisuusvinouman: ne, jotka pitivät itseään tekoälyn käytössä taitavina, arvioivat suoriutumisensa jopa heikommaksi kuin muut.
Tekoäly hämärtää ihmisen kykyä arvioida itseään
Tutkimuksessa 500 osallistujaa ratkaisi loogisia päättelytehtäviä, jotka perustuvat Yhdysvaltain oikeustieteellisen alan LSAT-pääsykokeeseen.
Puolet osallistujista sai käyttää tekoälyä apuna – mutta suurin osa tyytyi vain yhteen ChatGPT-kehotteeseen, ilman tarkentavia kysymyksiä tai keskustelua.
Tämä paljasti olennaisen ongelman: ihmiset luottivat sokeasti tekoälyn vastauksiin eivätkä tarkistaneet niitä kriittisesti.
"Tekoälyn käyttö saa ylivertaisuusvinouman katoamaan – ja yllättävää kyllä, parempi tekoälylukutaito tekee ihmisistä muita luottavaisempia. Oletimme, että tekoälylukutaitoiset olisivat paitsi parempia vuorovaikutuksessa tekoälyn kanssa, myös parempia arvioimaan suoriutumistaan tekoälyn kanssa. Mutta näin ei ollutkaan", sanoo professori Robin Welsch Aalto-yliopistosta.
Kognitiivinen ulkoistaminen vie kriittisen ajattelun
Tutkijat kutsuvat ilmiötä kognitiiviseksi ulkoistamiseksi – tilanteeksi, jossa tekoäly tekee kaiken päättelyn käyttäjän puolesta.
Kun vuorovaikutus tekoälyn kanssa jää pintapuoliseksi, ihmiseltä puuttuvat vihjeet, joiden avulla hän voisi arvioida omaa osaamistaan realistisesti.
"Nykyiset tekoälytyökalut eivät riitä. Ne eivät tue metakognitiota eli ihmisen kykyä arvioida omia ajatusprosessejaan. Ihmiset eivät myöskään opi omista virheistään. Tarvitsemme uudenlaisia alustoja, jotka rohkaisevat käyttäjiä reflektoimaan omaa tekemistään", väitöskirjatutkija Daniela da Silva Fernandes sanoo.
Yksi kehote ei riitä – tekoälyn pitäisi haastaa käyttäjää
Tutkimuksen mukaan käyttäjiä tulisi rohkaista – jopa pakottaa – käyttämään useampia kehotteita ja käymään aktiivista vuoropuhelua tekoälyn kanssa.
Kun tekoäly pyytäisi käyttäjää perustelemaan omaa ajatteluaan, se voisi auttaa ihmisiä tunnistamaan omat ajatusharhansa ja kehittämään kriittistä ajatteluaan.
"Tekoäly voisi kysyä käyttäjiltä, josko he voisivat selittää ajatteluaan tarkemmin. Se pakottaisi käyttäjät vuorovaikuttamaan enemmän tekoälyn kanssa, jolloin he joutuisivat kohtaamaan osaamistaan koskevat harhaluulot. Se myös lisäisi kriittistä ajattelua", Fernandes sanoo.
Tutkimus julkaistiin kansainvälisessä tiedelehdessä
Tutkimus ilmestyi 27. lokakuuta 2025 arvostetussa Computers in Human Behavior -lehdessä.
Aineisto vahvistaa laajempaa huolta siitä, että tekoälyn liiallinen käyttö voi heikentää ihmisen omaa ajattelua ja päätöksentekokykyä.
"Jos emme opi arvioimaan tekoälyn tuottamaa tietoa kriittisesti, vaarana on, että osaamisemme rapautuu myös työelämässä", Welsch varoittaa.
Taustaa tutkijoista
Tutkimuksen pääkirjoittaja Daniela da Silva Fernandes saapui Aalto-yliopistoon vaihto-opiskelijana syksyllä 2023 ja jatkaa nyt tohtoripilottiohjelmassa.
Hän on yksi ensimmäisistä ohjelmasta väitöskirjansa julkaisseista tutkijoista.
Fernandes työskentelee professori Robin Welschin ohjauksessa, ja tutkimus on osa Aallon laajempaa hanketta, jossa tarkastellaan tekoälyn vaikutuksia ihmisen ajatteluun, luottamukseen ja oppimiseen.
Aalto-yliopisto Dunning–Kruger-efekti tekoäly tutkimukset ylivertaisuusvinouma
