Pro
Siirry sisältöön
Tekoäly

Kokeilu: voiko tekoäly korvata ihmisen data-analyytikkona

Kirjoittajat:

Mariitta Rauhala

yliopettaja
Haaga-Helia ammattikorkeakoulu

Johanna Mäkeläinen

lehtori
Haaga-Helia ammattikorkeakoulu

Julkaistu : 27.03.2026

Tekoälyä hyödynnetään yhä useammin datan analysoinnissa ja tulkinnassa. Mutta kuinka pitkälle sen tekemiin johtopäätöksiin voi luottaa – ja missä kohdin tarvitaan ihmisen omaa harkintaa tutkimusdatan analysoinnissa? Kysymys ei siis ole pelkästään tekninen, vaan myös tutkimuseettinen eli milloin tekoälyn tuottamiin tuloksiin voi luottaa ja pitää niitä vastuullisina.

Toteutimme kokeilun osana Tekoälytoimijuus-hanketta, jossa tarkastellaan generatiivisen tekoälyn (GenAI) roolia asiantuntijatyössä kunnissa ja sote-organisaatioissa. Hankkeen keskeinen tavoite on vahvistaa tekoälytoimijuutta: työntekijöiden kykyä käyttää, arvioida ja soveltaa tekoälyä tarkoituksenmukaisesti, vastuullisesti ja omaa työtä tukevalla tavalla.

Hankkeessa emme tarkastele generatiivista tekoälyä ainoastaan tutkimuskohteena, vaan testaamme sitä konkreettisesti osana hankkeen toimenpiteitä. Yksi näistä kokeiluista liittyi pienen kyselyaineiston analyysiin.

Kokeilun tutkimusasetelma ja aineisto

Hankkeen alkuvaiheessa toteutimme ennakkokyselyn, jolla kartoitimme osallistujien generatiivisen tekoälyn osaamista, käyttökokemuksia ja asenteita. Kyselyyn vastasi 94 osallistujaa Porvoon työllisyyspalveluista, Kärkölästä, Lahdesta, Heinolasta, Kuopiosta sekä Siun sotesta. Alkukysely toimi sekä lähtötason mittarina että aineistona hankkeen omille kokeiluille.

Sama ennakkokyselyn raaka-aineisto syötettiin analysoitavaksi kahdelle ’analyytikolle’, joista toinen oli laaja kielimalli (ChatGPT 5.2) ja toinen kokenut data-analytiikan asiantuntija. Tarkoituksena ei ollut arvioida ainoastaan, kumpi analyysi on oikea, vaan vertailla myös analyysitapoja: miten ihminen ja tekoäly jäsentävät aineistoa, tekevät yleistyksiä ja muodostavat johtopäätöksiä.

Ihmisanalyysi: varovainen ja aineistolähtöinen

Ihmisen tekemä analyysi korosti tulkinnoissa aineiston rajallisuutta ja sen heterogeenistä rakennetta, minkä vuoksi johtopäätöksiä tarkasteltiin varovaisesti. Pienet ja heterogeeniset aineistot tuottavat epäluotettavampia ja vaihtelevampia tuloksia, joita tulee tulkita erityisen varoen (Tietoarkisto).

Vastauksista nousi selkeästi esiin ero tekoälyn käyttäjien ja ei-käyttäjien välillä. Tekoälyä jo hyödyntävät vastaajat liittivät siihen tulevaisuuden mahdollisuuksia työn tukena, kun taas ei-käyttäjät kuvasivat epävarmuutta, osaamattomuutta ja huijauksiin liittyviä huolia.

Tekoälyanalyysi: selkeä jäsentely ja vahvat tulkinnat

Tekoälyn tuottama jäsentely oli pinnalta katsottuna hyvin selkeä. Tekoäly aloitti teemoittamalla aineiston, ja datasta esille nousivat erityisesti työprosessien automatisointi, työn tehostaminen, sisällöntuotannon tuki sekä eettiset ja tietoturvaan liittyvät kysymykset.

Tämän jälkeen tekoäly rakensi roolijaottelun, jossa se luokitteli vastaajat kuuteen eri ryhmään heidän työtehtäviensä, käyttötottumustensa ja osaamisensa perusteella. Lisäksi tekoäly muodosti organisaatioiden välisen tekoälymaturiteettirankingin.

Tekoäly ylitti validin tulkinnan rajat

Ihmisen näkökulmasta tekoälyn tuottama maturiteettiranking herätti epäilyksiä. Tekoäly arvioi kärkeen kunnan, jonka vastaajista 80 prosenttia koki oman tekoälyosaamisensa vähäiseksi, ja jossa vain harvat tiesivät organisaationsa tekoälyohjeistuksista. Toiselle sijalle jäi kunta, jonka kaikki vastaajat käyttivät tekoälyä työssään ainakin jossain määrin.

Tämä herättää kysymyksen siitä, mihin tekoälyn tekemä arvio todellisuudessa perustui. On mahdollista, että avoimissa vastauksissa esiin nousseet ideat ja keskustelupuhe painottuivat enemmän kuin konkreettinen käyttökokemus.

Tekoälyllä on taipumus yleistää vastauksia laajemmin kuin aineiston ulkoinen validiteetti sallisi, mikä voi johtaa liian suuriin johtopäätöksiin vähäisestä tai rajatusta datasta (Peters & Chin-Yee 2025). Tätä havaintoa tukevat tutkimukset, joissa suurten kielimallien on osoitettu tuottavan uskottavia, mutta virheellisiä tai yliyksinkertaistavia tulkintoja erityisesti monimutkaisissa analyysitehtävissä (Bender ym. 2021).

Toisiaan täydentävät analyysit

Tekoäly voi kuitenkin auttaa ihmistä tuottamalla alustavia jäsennyksiä ja hypoteeseja, jotka toimivat lähtökohtina tarkemmalle, kriittiselle ja aineistolähtöiselle tulkinnalle. Näin tekoälyn analyysi ei korvaa ihmistä, vaan auttaa kohdistamaan huomiota olennaisiin eroihin ja kysymyksiin, joihin ihmisanalyysi voi pureutua syvemmin (Stanley, Doucouliagos & Ioannidis 2022).

Tekoälyn vahvuudet datan analysoinnissa ovat laadullisen tekstianalyysin alueella, mutta niiden kyky muodostaa kontekstuaalisesti syvällisiä ja metodologisesti perusteltuja tulkintoja on rajallinen ilman ihmisen ohjausta (Kaddour ym. 2023). Tekoäly kykenee löytämään kategorioita ja hyödyllisiä yleistyksiä suurestakin datamassasta. Sen sijaan tekoälyllä on suuria vaikeuksia muodostaa oikea kokonaiskäsitys tekoälyn käytöstä, jos datassa on laadullisia ja määrällisiä datapisteitä.

Kokeilussamme tehty havainto tekoälyn vahvuuksista laadullisen aineiston jäsentelyssä on siten linjassa aiemman tutkimuksen kanssa, mutta vaatii tuekseen systemaattisempaa vertailua ja laajempaa aineistoa ennen yleistämistä.

Lopputulos ei ole vastakkainasettelu vaan rinnakkaisuus. Tekoälyn analyysi oli jäsennelty, tulkinnallinen ja normittava, kun taas ihmisen analyysi tarjosi varovaisen ja aineistolähtöisen tilannekuvan. Tekoäly rakensi selkeitä luokituksia ja pisteytyksiä, ihminen pidättäytyi tekemästä vahvoja yleistyksiä ja huomioi aineiston rajoitteet.

Toimijuus tarvitsee oikeat työkalut

Tekoälytoimijuus ei synny pelkästään osaamisesta tai myönteisistä asenteista, vaan myös valituista työkaluista. Eri generatiiviset tekoälyratkaisut ohjaavat käyttäjän toimintaa eri tavoin: ne rajaavat, mahdollistavat ja ehdollistavat sen, millaisia kysymyksiä voidaan esittää, millaisia vastauksia syntyy ja millaisiin tarkoituksiin tuloksia voidaan luotettavasti käyttää.

Vääränlainen tai kontekstiin sopimaton työkalu voi kaventaa asiantuntijan toimijuutta, tuottaa näennäisen varmoja, mutta metodologisesti heikkoja tulkintoja tai ohjata huomiota epäolennaisiin seikkoihin. Oikein valittu tekoälytyökalu sen sijaan tukee ihmisen harkintaa, vahvistaa analyyttistä ajattelua ja toimii aidosti työn kognitiivisena apuvälineenä eikä päätöksenteon korvikkeena. Asiantuntijan on kuitenkin ymmärrettävä sekä aineisto että käytetty analyysimenetelmä riittävän hyvin voidakseen arvioida kriittisesti tekoälyn tuottamia tuloksia.

Eettinen näkökulma

Tekoäly voi vahvistaa aineistossa olevia vinoumia ja tuottaa näennäisesti johdonmukaisia, mutta virheellisiä johtopäätöksiä (Mehrabi ym. 2021). Vastuu tekoälyn käytöstä on tutkijalla.

TENKin (2026) suositukset korostavat, että tekoälyä voidaan käyttää tutkimuksen tukena, mutta tutkijan tulee aina pystyä perustelemaan ja ymmärtämään analyysin keskeiset vaiheet. Tekoäly ei voi toimia autonomisena analyytikkona ilman ihmisen kriittistä arviointia, kuten tämäkin pieni kokeilu on osoittanut.

Tämän kokeilun perusteella tekoälyä voidaan hyödyntää erityisesti analyysin alkuvaiheessa, mutta sen tuottamat tulkinnat edellyttävät systemaattista validointia. Ilman tätä validointia riski virheellisiin tai eettisesti kyseenalaisiin johtopäätöksiin on suuri.

Tekoälytoimijuus – taitoa, tuottavuutta ja hyvinvointia tekoälyä hyödyntäen -hankkeessa tutkitaan ja kehitetään kuntien ja hyvinvointialueiden tietotyöntekijöiden ja johdon osaamista ja toimijuutta generatiivisen tekoälyn käytössä ja työn kehittämisessä. Hanke edistää työn tehokkuutta, tuottavuutta ja työhyvinvointia. Hanketta rahoittaa Työsuojelurahasto.

Lähteet

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. 2021. On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency.

Kaddour, J., Harris, J., Mozes, M., et al. 2023. Challenges and applications of large language models. arXiv / conference proceedings.

Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. 2021. A survey on bias and fairness in machine learning. ACM Computing Surveys, 54(6).

Peters, U., & Chin-Yee, B. 2025. Generalization bias in large language model summarization of scientific research. Royal Society Open Science, 12(4), 241776.

Stanley TD, Doucouliagos H, Ioannidis JPA. 2022. Beyond Random Effects: When Small-Study Findings Are More Heterogeneous. Advances in Methods and Practices in Psychological Science. 2022;5(4).

Tietoarkisto. (n.d.). Otos ja otantamenetelmät. Haettu: 26.3.2026.

Kuva: Shutterstock