Tekoälyjärjestelmät tarjoavat monenlaisia oppimista ja opetusta edistäviä pedagogisia mahdollisuuksia. Kuitenkin niiden hyödyntämiseen liittyy monia eettisiä ja juridisia reunaehtoja. Euroopan komissio (2022) on julkaissut eettiset ohjeet tekoälyn ja datan käytöstä opetuksessa. Niiden tavoitteena on auttaa opettajia käyttämään tekoälyjärjestelmiä kriittisen positiivisesti. Oikeudellisista kysymyksistä olen käsitellyt tekijänoikeuksiin ja tietosuojaan liittyviä haasteita aiemmissa artikkeleissani Tekoäly opetuksessa ja tekijänoikeudet sekä Tekoälyn suhde tietosuojaan ja tietoturvaan opetustyössä. Muun lainsäädännön ohella EU:n tekoälyasetus määrittelee osaltaan tekoälyn käyttöä opetuksessa.
Pitkään valmisteltu EU:n tekoälyasetus (2024/1689) tuli voimaan 1.8.2024. Sitä aletaan soveltaa vaiheittain ja pääosin täysimittaisesti kaksi vuotta voimaantulosta. Osa velvoitteista tulee voimaan jo aiemmin, kuten yleiskäyttöisten tekoälymallien osalta 2.8.2025 alkaen. Kyseessä on maailman ensimmäinen merkittävä tekoälyn sääntelykehikko. Sen tavoitteena on varmistaa, että EU-alueella tekoälyjärjestelmät ovat luotettavia, läpinäkyviä ja perusoikeuksia kunnioittavia. (Euroopan komissio 2024.) Kyse on riskiperustaisesta lähestymistavasta, missä ihmiskeskeisyys korostuu.
Tässä artikkelissa tarkastelen tekoälyasetuksen keskeistä sisältöä sekä muutokseen valmistautumista opetuksen näkökulmasta. Mitä jokaisen korkeakouluopettajan ja -organisaation tulisi tietää tekoälyasetuksesta? Tekoälyasetus on jäsenmaita suoraan velvoittava säädös, mutta sen kansallinen toimeenpano yksityiskohtineen on Työ- ja elinkeinoministeriössä vielä kesken (Valtioneuvosto 2024). Siirtymäajoista ja kansallisen sääntelyn kehittymisestä huolimatta valmistautuminen tekoälyasetukseen kannattaa aloittaa varhain myös koulutusorganisaatioissa.
Tekoälyasetus pähkinänkuoressa
Tekoälyn yksiselitteinen määritteleminen on haastavaa, sillä sitä on kaikkialla. Tekoälyasetuksen 3 artiklassa tekoälyjärjestelmällä tarkoitetaan ’konepohjaista järjestelmää, joka on suunniteltu toimimaan käyttöönoton jälkeen vaihtelevilla autonomian tasoilla ja jossa voi ilmetä mukautuvuutta käyttöönoton jälkeen ja joka päättelee vastaanottamastaan syötteestä eksplisiittisiä tai implisiittisiä tavoitteita varten, miten tuottaa tuotoksia, kuten ennusteita, sisältöä, suosituksia tai päätöksiä, jotka voivat vaikuttaa fyysisiin tai virtuaalisiin ympäristöihin’.
Keskeistä määritelmässä on siis jonkinasteinen autonomia, mukautuvuus ja kyky päätellä, miten tuotoksia tuotetaan. Koulutusorganisaatioiden tulee arvioida tekoälyjärjestelmää käyttöönotettaessa, täyttyykö tämä osin tulkinnanvarainen määritelmä. Korkeakouluorganisaatioiden näkökulmasta huomionarvoista on myös se, että asetuksessa soveltamisalan ulkopuolelle on rajattu tekoälyjärjestelmät, jotka on erityisesti kehitetty ja otettu käyttöön yksinomaan tieteellistä tutkimusta ja kehittämistä varten. Täsmennystä ja esimerkkejä on odotettavissa komissiolta.
Tekoälyasetus jakaa tekoälyjärjestelmät neljään riskiluokkaan käyttötarkoituksen mukaan: kiellettyihin, suureen riskiin, erityiseen avoimuusriskiin ja matalaan riskiin. Lisäksi yleiskäyttöisiä tekoälyjärjestelmiä koskee omat velvoitteensa niiden laskentatehon mukaan. Jokainen riskiluokka määrittelee eritasoisia vaatimuksia ja sääntelyä, jotka organisaatioiden tulee huomioida. (Euroopan komissio 2024.) Asetuksen riskiperusteista lähestymistapaa on kritisoitu kapea-alaiseksi, sillä odottamattomien riskien ennustaminen käy jatkuvasti hankalammaksi. Erityisen haasteen luo myös tekoälyjärjestelmien toiminnan ylikansallisuus. (Lepinkäinen 2024.)
Riskiluokituksen lisäksi on syytä huomioida organisaation oma roolitus eli toimiiko yritys tekoälyjärjestelmän tarjoajana, käyttöönottajana vai jonain muuna tahona (Euroopan komissio 2024). Asetuksessa tarjoajalla tarkoitetaan tahoa, joka kehittää tai kehityttää tekoälyjärjestelmän, ja saattaa sen markkinoille omalla nimellään tai tavaramerkillään. Käyttöönottajalla taas tarkoitetaan asetuksessa tahoa, joka käyttää valvonnassaan olevaa tekoälyjärjestelmää pois lukien luonnollisten henkilöiden ei-ammattimainen käyttö. Tekoälyasetuksen velvoitteet ovat erilaisia roolituksen mukaan. Tarjoajaan kohdistuu tiukemmat velvoitteet kuin käyttöönottajaan.
Velvollisuuksia koulutusorganisaatioille
Riskiluokituksen ja roolituksen tunnistamisen jälkeen tulee arvioida mitä velvoitteita tekoälyjärjestelmän käyttöönotosta organisaatiolle tulee. Seuraavana askeleena on suunnitella, miten velvoitteet toteutetaan käytännössä.
Opetuksen ja oppimisen kontekstissa tulee kiinnittää erityistä huomiota suuririskisiin tekoälyjärjestelmiin, joihin yleissivistävä ja ammatillinen koulutus toimialana lukeutuu. Jos tekoälyjärjestelmä on tarkoitettu käytettäväksi esimerkiksi opiskelijavalinnassa tai opiskelijoiden oppimistulosten arvioinnissa, se luokitellaan asetuksen mukaan lähtökohtaisesti suuren riskin kategoriaan. Tällaisten suuren riskin tekoälyjärjestelmien tarjoajien tulee selvittää asetuksen vaatimustenmukaisuus jo ennen markkinoille tuloa. Virheet ja puutteet vaatimustenmukaisuudessa voivat johtaa merkittäviin seuraamusmaksuihin. Asetuksen mukaisia vaatimuksia ovat tällöin muun muassa riskienhallintajärjestelmä, tekninen dokumentaatio ja lokitietojen säilyttäminen. Useimmat koulutusorganisaatiot toimivat vain käyttöönottajina, jolloin velvoitteet määräytyvät artiklan 26 mukaisesti sisältäen muun muassa käyttöohjeiden noudattamisen, riskeistä informoimisen ja lokitietojen säilyttämisen määräajan. Opetuksessa käytettävät tekoälyjärjestelmät voivat käsitellä henkilötietoja, joten tietosuojakysymykset tulee ottaa huomioon.
Suurin osa yrityksistä ja koulutusorganisaatioista hyödyntää tekoälyjärjestelmiä erityisen avoimuusriskin tai minimaalisen riskin kategorioissa lähinnä käyttöönottajina. Tällöin ydinvelvoitteena on läpinäkyvyys, jotta ihmisten on helpompi tunnistaa tekoälyn tuottama sisältö. Asetuksen mukaan tarjoajien tulee informoida kuluttajia siitä, että he ovat vuorovaikutuksessa tekoälyjärjestelmän, kuten chatbotin, kanssa, ellei tämä ole muutoin ilmeistä. Minimaalisen riskin järjestelmille, kuten roskapostisuodattimille, ei ole asetettu erityisiä vaatimuksia asetuksessa. Kuitenkin niiden käyttäjiä kannustetaan laatimaan vapaaehtoisia organisaation sisäisiä ohjeistuksia eli käytännesääntöjä. Pidän tärkeinä sisäisten pelisääntöjen luomista jokaisessa organisaatiossa, sillä muutoin väärinkäytösten riski suurenee.
Avoimuus on syytä muistaa yleiskäyttöisten tekoälymallien osalta. Asetus velvoittaa tarjoajia merkitsemään tekoälyjärjestelmän tuotokset koneellisesti luettavaan muotoon ja siten, että ne voidaan tunnistaa keinotekoisesti tuotetuiksi tai manipuloiduiksi. Syväväärennösten eli ns. deepfake-sisältöjen osalta informointivelvollisuus koskee myös käyttöönottajia tietyin poikkeuksin. Käyttöönottajien on ilmoitettava myös tuotoksen keinotekoisuus, jos tekoälyjärjestelmällä tuotetun tekstin tarkoituksena on tiedottaa yleisölle yleistä etua koskevista asioista 50 artiklan mukaisesti. Muista siis itse kertoa avoimesti lähde, jos hyödynnät esimerkiksi yleiskäyttöisellä tekoälyllä tuotettua kuvaa opetuksessa. Nähdäkseni tämä kytkeytyy vahvasti vastuullisuuteen ja tekoälyn hyödyntämisen eettisyyteen.
Valmistautuminen korkeakouluorganisaatioissa
Porrastetusta voimaantuloaikataulusta huolimatta etenkin tekoälyä hyödyntävien koulutusorganisaatioiden on syytä aloittaa varhainen valmistautuminen velvoitteisiin. Keskeistä on ensinnäkin tunnistaa lähtötilanne eli mitä tekoälyjärjestelmiä on käytössä nyt ja tulevaisuudessa. Etenkin uusia tekoälyjärjestelmiä käyttöönotettaessa on oltava tarkkana asetuksen vaatimustenmukaisuudessa sekä tietosuojakysymyksissä. Toiseksi on hahmotettava, mihin riskiluokkaan ja rooliin tekoälyjärjestelmät kuuluvat sekä mitä velvoitteita tämä aiheuttaa.
Kolmanneksi toimintatapojen päivittäminen on keskeistä etenkin suuririskisissä ja yleiskäyttöisiä tekoälymalleja hyödyntävissä koulutusorganisaatioissa. Koulutusorganisaatioiden tulee linjata henkilöstölle sekä opiskelijoille, mitä tekoälyjärjestelmiä tai tekoälysovelluksia voi käyttää ja mitkä ovat niiden käyttötarkoitukset. Esimerkiksi Haaga-Helian henkilökunnalla on käytössä opetustyötä varten tällä hetkellä Microsoft Copilot, Adobe Express ja Adobe Firefly. Uusien tekoälysovellusten tarjonta kasvaa valonnopeudella, joten vastuu käyttöehtoihin perehtymisestä on käyttäjällä itsellään. Haaga-Heliassa on käytössä tekoälyohjeistus henkilökunnalle ja opiskelijoille, mitä päivitetään jatkuvasti. Arenen (2024) tekoälysuositukset ammattikorkeakouluille rohkaisevat liikennevalomallin käyttöön yksittäisessä oppimistehtävässä päälinjan ollessa sallittu, kunhan tekoälyjärjestelmän käytöstä kerrotaan avoimesti.
Henkilöstön koulutus, sisäinen ohjeistus ja tekoälyosaaminen korostuvat. Asetuksessa kehotetaan tukemaan erinäisin toimenpitein henkilöstön riittävää tekoälynlukutaitoa. Kriittinen ajattelu ja monilukutaito sisältyvät tekoälyosaamiseen, minkä suhteen myös opettajat ovat itse vielä oppijina. Kehityksen seuraaminen on välttämätöntä, sillä komissiolta ja kansallisilta viranomaisilta on odotettavissa tarkempaa ohjeistusta täytäntöönpanon tueksi.
Yksittäisen korkeakouluopettajan tasolla itse pyrin rohkaisemaan ja kannustamaan opiskelijoita tekoälyn käyttöön avoimuuden ja läpinäkyvyyden periaatteita korostaen. Kun tekoälyn käyttö on läpinäkyvää, opettaja ja opiskelija tietävät, milloin tekoälyä käytetään ja mitä tietoja tekoälyllä käsitellään. Kokemusteni mukaan useilla opiskelijoilla ja opettajilla on edelleen epävarmuutta etenkin eettisistä ja juridisista kysymyksistä. Opettajien tulisi kertoa tekoälyjärjestelmien haasteista ja periaatteista jatkuvasti opiskelijoille, vaikka tekoälyn suhteen myös opettajat ovat vielä oppijoita. Omalla esimerkillä ja tekoälynlukutaidon ylläpitämisellä on vahva vaikutus tulevaisuuden osaamiseen.
Kirjoitus on osa AI Driver! -hankkeen julkaisuja. Hankkeen tavoitteena on syventää tietopohjaa eettisen ihmisen ja tekoälyn vuorovaikutuksen suunnittelusta ja omaksumisesta ammattilaisten koulutuksessa sekä vahvistaa palveluyritysten valmiuksia osallistua tekoälypohjaiseen liiketoiminnan kehittämiseen.
Lähteet
Ammattikorkeakoulujen rehtorineuvosto Arene ry. 4.10.2024. Arenen suositukset tekoälyn hyödyntämisestä ammattikorkeakouluille.
Euroopan komissio. 2024. Tekoäly – Kysymyksiä ja vastauksia. Luettu 27.9.2024.
Euroopan komissio. 2022. Koulutuksen, nuorisoasioiden, urheilun ja kulttuurin pääosasto. Tekoälyn ja datan käyttö opetuksessa ja oppimisessa – eettiset ohjeet opettajille. Euroopan unionin julkaisutoimisto.
Euroopan parlamentin ja neuvoston asetus (EU) 2024/1689, annettu 13 päivänä kesäkuuta 2024, tekoälyä koskevista yhdenmukaistetuista säännöistä ja asetusten (EY) N:o 300/2008, (EU) N:o 167/2013, (EU) N:o 168/2013, (EU) 2018/858, (EU) 2018/1139 ja (EU) 2019/2144 sekä direktiivien 2014/90/EU, (EU) 2016/797 ja (EU) 2020/1828 muuttamisesta (tekoälysäädös)
Lepinkäinen, N. 2024. Algoritmiset haitat. Tekoälyn riskit ja sääntelyn haasteet kiihtyvässä yhteiskunnassa. Turun yliopiston julkaisuja – Annales universitatis Turkuensis sarja – Ser. B Osa – Tom. 675, Humanioira, Painosalama, Turku.
Valtioneuvosto. 2024. EU:n tekoälyasetuksen kansallisen toimeenpanon työryhmä. Luettu 22.10.2024.
Kuva: Haaga-Helia