Siirry sisältöön
Tekoäly
Onko tekoäly uhka vai mahdollisuus ohjaustyössä?

Tekoälysovellusten käytöstä vastaa aina ihminen, eikä tekoälysovelluksia tulisi käyttää juurikaan ilman tulkitsevampia, ihmisen omia kokemuksia huomioivia menetelmiä.

Kirjoittajat:

Eevastiina Gjerstad

senior researcher, vaikuttava ammatillinen pedagogiikka
Haaga-Helia ammattikorkeakoulu

Julkaistu : 14.12.2022

Keskustelua tekoälystä leimaa usein dikotominen suhtautuminen, jossa tekoäly on nähty joko uhkana ja ihmisten mahdollisena hallitsijana tai kaiken ratkaisevana vastauksena ihmiskunnan kysymyksiin (Pietikäinen & Silvén 2019). Tässä kirjoituksessa tarkastelen tekoälyä suhteessa ohjaukseen. Mahdollistaako tekoäly ohjauksen keskiössä olevan ihmisen toimijuuden vahvistamisen siinä vai heikentääkö se sitä?

Vehviläinen (2014) hahmottaa ohjauksen yhteistoimintana, jossa edistetään esimerkiksi oppimiseen tai kasvuun liittyviä prosesseja siten, että ohjattavan toimijuus vahvistuu. Toimijuuteen voi sisältyä esimerkiksi motivaatiota ja sen säilyttämistä, minäpystyvyyttä, osallisuutta, tekijyyttä ja asianomistajuutta erilaisissa käytännöissä (Vehviläinen 2017).

Toimijuuteen voidaan katsoa liittyvän myös käsitykset kyvykkyydestä, intentionaalisuudsta ja rationaalisuudesta sekä vastuullisuudesta (Hallamaa & Kalliokoski 2020). Toimijuus on aina myös relationaalista eli suhteessa toisiin tapahtuvaa, jolloin samalla ymmärrys omasta itsestä muokkautuu. Toimijuuteen liittyvät niin ikään eettiset kysymykset oikeuksista, velvollisuuksista, vapaudesta ja vastuusta. (Mellenius 2013.)

Tekoälysovellusten käytöstä vastaa aina ihminen

Olen hyödyntänyt tunnetekoälyä käyttävää iMotions-ohjelmiston AFFDEX-algoritmia ohjausvuorovaikutustutkimuksissani (VALAA– ja SOEVE-tutkimukset). Siinä missä ihmisen käsin tekemä koodaustyö veisi monta työpäivää ja vaatisi pitkän koulutuksen, algoritmi ottaa ihmiskasvoista 25 kuvaa sekunnissa, ja analysoi tunnereaktion samalla sekunnilla. Luonnollisesti ihminen on kuitenkin opettanut koneelle koodauksen periaatteet.

Laajasti hyväksytyn kantilaisen periaatteen mukaan ihmistä ei saa koskaan kohdella välineenä vaan aina päämääränä sinänsä, mutta paradoksaalisesti teknologiat on jo lähtökohtaisesti suunniteltu toimimaan välineinä johonkin (Hallamaa & Kalliokoski 2020). Ihmistä ei kohdella päämääränä, vaan välineenä, jos tekoälysovellus määrittää deterministisesti ihmisen jonkinlaiseksi. Tästä syystä tekoälysovellusten käytöstä vastaa aina ihminen, eikä tekoälysovelluksia tulisi käyttää juurikaan ilman tulkitsevampia, ihmisen omia kokemuksia huomioivia menetelmiä.

Monimenetelmäinen datan käyttö johtaa oikeaan suuntaan

Uhkana siis on, että ihmisen tunteet tulkitaan sokeasti tunnetekoälyalgoritmin paljastamina tunnereaktioina. Uhka muuttuu mahdollisuudeksi, mikäli lisäksi kysytään myös ihmisten omia tunnekokemuksia tilanteesta. Monimenetelmäisen eli multimodaalisen datan käyttö voi osaltaan johtaa oikeaan suuntaan, sillä se yhdistää niin sanottuja subjektiivisia ja objektiivisia tutkimusmenetelmiä yhdistäessään fysiologisten reaktioiden, subjektiivisten kokemusten ja tunteiden sosiaalisten funktioiden tutkimisen vuorovaikutuksessa (Järvelä ym. 2019).

Osallistujien omien kokemusten luotaamisen lisäksi syvempää ymmärrystä osallistujat saavat omasta toimijuudestaan reflektion avulla. Reflektiossa osallistujat voivat tarkastella tapahtunutta (ohjaus)tilannetta jälkikäteinen (esimerkiksi videoidun tallenteen avulla) ja muodostaa siitä tulkintojaan sekä sanallistaa siihen liittyvää ajatteluaan ja tunteitaan. Tällainen reflektio sopii erityisen hyvin ohjauksellisesti orientoituneeseen kontekstiin, jossa painotetaan yhteistoiminnallisuuden kautta syntyviä vuorovaikutuskvalifikaatioita ja oman persoonan kehittymistä toimimalla suhteessa muihin (Pasanen 2014).

Tekoäly on siis uhka ohjaukselle, jos sitä käytetään yksinään ja ehdottomien johtopäätösten tekoon. Tekoäly on kuitenkin mahdollisuus ohjaukselle, jos sitä hyödynnetään osana monimenetelmäistä ohjauksen kehittämistä. Silloin voidaan päästä syvempiin vuorovaikutuksen kerrostumiin ja kohdentaa ihmistyö vuorovaikutukseen, kun tekoäly huolehtii osittain ja osaltaan datan keruusta.

Lähteet

Hallamaa, J. & Kalliokoski, T. 2020. How AI Systems Challenge the Conditions of Moral Agency? In M. Rauteberg (Ed.), Culture and Computing, 54-64. Springer.

Järvelä, S., Malmberg, J., Haataja, E., Sobocinski, M. & Kirscher, P.A. 2019. What multimodal data can tell us about the students’ regulation of their learning process? Learning and Instruction.

Mellenius, N. 2013. Vuorovaikutuksen hoito on lapsuuteen vaikuttamista. Lapsi Videoavusteisessa vuorovaikutuksen ohjauksessa. Teoksessa Mellenius, N. & Remsu, N. (toim.) Vuorovaikutus kuvassa. Videoavusteisen ohjauksen eettisyys ja käytäntö. Mannerheimin Lastensuojeluliiton Lasten ja Nuorten Kuntoutussäätiö. 75 – 94.

Pasanen, H. 2014. Opinto-ohjauksen kehittämisen dilemmat – eli kuinka talous tunkee ohjaukseen. Teoksessa Juutilainen, P.-K., Pasanen, H. & Alanko-Turunen, M. (toim.) Arvokas ohjaus. Haaga-Helian julkaisut. Kehittämisraportit ja tutkimukset. Helsinki: Haaga-Helia. 11 – 17.

Pietikäinen, M. & Silvén, O. 2019. Tekoälyn haasteet – Koneoppimisesta ja konenäöstä tunnetekoälyyn. Konenäön ja signaalianalyysin keskus. Oulun yliopisto.

Vehviläinen, S. 2014. Ohjaustyön opas. Yhteistyössä kohti toimijuutta. Helsinki: Gaudeamus.

Vehviläinen, S. 2017. Ohjauksen onnistumisen avaintekijöitä. Videotallenne 15.9.2017 tilaisuudesta Ohjataan yhdessä – tulevaisuuteen!

Kuva: www.shutterstock.com