Siirry sisältöön
Tekoäly
Tekoäly ja kielimallit luotettavuuden perspektiivistä

Kirjoittajat:

Ari Alamäki

yliopettaja, myynnin kehittäminen ja digitalisaatio
Haaga-Helia ammattikorkeakoulu

Julkaistu : 30.05.2024

Tekoäly tuo monenlaista lisäarvoa opetukseen ja oppimiseen. Se vastaa kysymyksiisi ihmismäisesti, toimii keskustelukumppanina työstäessäsi monimutkaista aihepiiriä, tekee sisältöä, tehtäviä, esimerkkejä, koodia, kuvia, opastaa ja suosittelee, personoi sisältöä tai auttaa valitsemaan opintojaksoja tai sanoittamaan oman tavoitteellisen osaamisprofiilin työelämätarpeita vasten. Se tekee myös monenlaisia rutiiniasioita puolestasi, antaa palautetta, muistuttaa, seuraa ja varoittaa tai pystyy analysoimaan suuria datamassoja nopeasti.

Edellä mainittujen hyötyjen lisäksi tekoälyllä on edelleen monenlaisia heikkouksia, joista opiskelijoiden ja opettajien on hyvä olla tietoisia. Nykyinen tekoäly on vielä matala-asteista älyä ja sen käyttämä data voi olla myös vinoutunutta tai heikkolaatuista. Tekoälyltä puuttuu läpinäkyvyys, jolloin ne ovat käyttäjien näkökulmasta ”mustia laatikoita”, jotka vain suoltavat ulos asioita. Se ei myöskään voi ottaa vastuuta virheistään ja siltä puuttuu aito itsetietoisuus.

Lisäksi sen älykkyys on edelleen kontekstisidonnaista, jolloin se ei juurikaan osaa siirtää älykkyyttään asiakontekstista toiseen. Tähän liittyy myös sen heikko tilannetaju, jolloin sillä on usein suuria vaikeuksia ymmärtää, mitä esimerkiksi sen analysoimassa näkymässä tai kuvassa oikeasti tapahtuu, koska se tulkitsee vain pikseleitä ja niiden suhteita. Meille kaikille on tuttua, että se myös keksii asioita omasta päästään eli hallusinoi. Tekoälyltä puuttuu myös fyysinen tai psykologinen intuitiivisuus, jossa me ihmiset olemme vielä huomattavasti parempia.

Tekoäly käsittelee viime kädessä numeroita

Aika harva on tietoinen siitä, että tekstiä tai puhetta käsittelevät kielimallitkin pohjimmiltaan käsittelevät numeroita. Siksi nekin ovat pohjimmiltaan laskutoimituksia tekeviä tietokoneita (computers). Kielimalli pilkkoo lauseet sanoiksi tai jopa tavuiksi asti. Jokaisella sanalla tai päätteellä on omat arvonsa ”taulukossa”, jossa niillä voi olla satoja eri arvoja. Lauseen ”kala ui järvessä” sana ”kala” määritellään substantiiviksi, eläimeksi, vesieläimeksi, veteen liittyväksi ja niin edelleen. Sana ”ui” määritellään verbiksi, veteen liittyväksi, liikkumiseksi ja niin edelleen.

Sanoilla ja niiden ryhmillä on suhteita toisiin sanoihin ja sanajoukkoihin. Tekoälyn koulutuksessa näitä arvoja lisätään ja sanojen väliset yhteydet joko vahvistuu tai heikkenee suhteessa opetusaineiston kokoon ja sen sisältöön nähden. Siksi sanat ”kala, ui ja järvi” liittyvät toisiinsa läheisemmin kuin ”kuu, avaruus tai maailmankaikkeus”. Jossakin kielimalleissa, kuten BERT-mallissa voi olla jopa 30 000 sanaa ja 50 000 merkkiä, joilla jokaisella voi olla maksimissaan 768 eri ominaisuutta (Guerra 2023).

Kielimallien teknisestä toiminnasta on verkossa havainnollisia artikkeleita, kuten edellä viittaamani Gueran (2023) artikkeli. Niistä voi opiskella aihetta lisää jos ”konepellin” alainen tekoälyn toiminta kiinnostaa. Mielestäni tekoälyn ja varsinkin kielimallien toimintaperiaatteen ymmärtäminen havainnollistaa sen, että ne käsittelevät lopulta aika mekanistisesti tekstiä, puhetta ja kuvia. Se auttaa ymmärtämään, miksi jokin lopputulos voi olla vinoutunut tai miksi se toimii joissakin tilanteissa hämmästyttävän hyvin mutta harvinaisemmissa aiheissa se tuottaa virheellisiä asiasisältöjä. Tekoälyn koulutus on siten näiden sanojen tai käsitteiden arvojen vahvistamista erilaisissa konteksteissa ja aihepiireissä. Näin se oppii ”arvaamaan” lauseen seuraavat sanat tietyssä asiayhteydessä entistä osuvammin ja tarkemmin, jolloin se osaa tuottaa parempia kuvauksia, selostuksia tai ehdotuksia.

Algoritmien eettiset pulmat

Monia tekoälyn käyttäjiä mietityttää, profiloiko sosiaalinen media tai verkkokauppa hänet johonkin kategoriaan. Samoin useimmilla käyttäjillä saattaa herätä epäilys, paljastaako tekoäly jotain asioita ulkopuolisille somepostauksien perusteella, voivatko he luottaa tekoälyn toimintaan, valvooko se jotenkin muuta nettitoimintaa ja kuka viime kädessä hyödyntää käyttäjistä tallentuvia tietoja. Kaikki nämä liittyvät tekoälyn etiikkaan, joka on noussut tekoälykeskustelussa erääksi keskeiseksi teemaksi.

Mittelstadt ja kumppanit (2016) ovat listanneet kuusi algoritmien eettistä pulmaa. Olen havainnollistanut näitä pulmia seuraavilla kuudella esimerkeillä. Ensimmäinen on ”ei ratkaiseva todiste”, joka tarkoittaa sitä, että tulos voi olla tilastollisesti ok, mutta käytännössä väärä johtopäätös. Algoritmi saattaa löytää merkittävän korrelaation, mutta kahden muuttujan välillä ei ole välttämätöntä kausaalista yhteyttä. Klassinen esimerkki tästä on se, että jäätelön syöminen ja hukkumiskuolemat korreloivat tilastollisesti mutta emme voi silti väittää, että jäätelö on hengenvaarallista.

Toisena on ”tutkimaton todiste”, joka tarkoittaa sitä, että tulos voi olla teknisesti ehkä oikein laskettu mutta kontekstuaalisesti täysin väärä tulkinta. Esimerkiksi tekoälyn analyysin mukaan helikopteri on laskeutumassa pilvien läpi, vaikka todellisuudessa se voi savuta ja pudota onnettomuuden seurauksena.

Kolmas liittyy klassiseen pulmaan, joka tarkoittaa sitä, että jos ”roskia ajetaan sisään” niin niitä saadaan myös tuloksina ulos. Johtopäätökset voivat olla vain niin luotettavia kuin niiden tiedot ovat. Algoritmi ei yleensä osaa korjata virheellisiä tai huonoja tietoja, ja esimerkiksi valeuutisia ei tunnista kuin ehkä niiden tunnistamiseen suunnitellut ratkaisut.

Neljäs pulma liittyy vinoumiin, kuten päätelmä sopii enemmistölle mutta syrjii vähemmistöä. Viides pulma liittyy siihen, että tekoäly alkaa vaikuttamaan ihmisten ajatteluun. Maailmalla on esimerkkejä, joissa tekoäly aiheuttaa sosiaalisia kuplia tai sitä käytetään valeuutisten tuottamiseen ja kohdistamiseen.

Viimeinen pulma liittyy läpinäkyvyyden ongelmiin. Vastaava pulma on tunnistettavissa myös printtimediassa: emme voi olla aina tietosia artikkelin kirjoittajan poliittisista motiiveista, joiden valossa artikkelia on voitu värittää.

Lopuksi

Tekoäly ei varsinaisesti ajattele vaan laskee mekanistisesti esimerkiksi virkkeeseen sopivien sanojen todennäköisyyksiä valitussa asiayhteydessä. Datalla opetetun kielimallin ominaisuudet ovat rakentuneet tiettyjen käyttäjien ja kontekstien perspektiivistä painottuen tiettyihin asioihin ja sisältöihin. Siksi syvää asiantuntemusta ja alan erikoisosaamista vaadittaessa aletaan suosimaan yhä enemmän fokusoituneita ”pieniä kielimalleja” (Räty 2024).

Uudistettu Bloomin taksonomia (Krathwohl 2002) auttaa hahmottamaan hyvin tekoälyn tasoja. Tekoäly kaverina tai fasilitaattorina voi olla kertomassa perustietoa, jäsentelemässä, selittämässä, kuvittamassa, koodaamassa ja tiivistämässä asioita. Näissä se toimii jo varsin hyvin Bloomin taksonomian alemmilla tasoilla.

Oppimisessa ja opetuksessa meidän tulisi kuitenkin kyetä tukemaan oppijoiden oppimaan oppimisen valmiuksia, kriittistä ajattelua ja muita metakognitiivisia valmiuksia. Näissä vaaditaan jo enemmän kuin hyvää kehotteiden keksimisen ja kirjoittamisen taitoa kielimallien chatti-ikkunaan. Siihen, kuinka tekoälyn avulla voidaan tukea metakognitiivisten valmiuksien kehittämistä, minulla ei ole vielä selvää vastausta tai didaktisia malleja. Aiheena se kiinnostaa, sitä olemme jo hieman selvittäneetkin hankkeissamme. Kriittisen ajattelun ja oppimaan oppimisen valmiuksien kehittämisen suuntaan tekoälyn pedagogisia ratkaisuja tulisi varmasti myös kehittää.

Artikkeli perustuu Haaga-Helia ammattikorkeakoulun sisäisessä tekoälykoulutuksessa 10.4.2024 esittämiini asioihin.

Lähteet

Krathwohl, D. R. 2002. A revision of Bloom’s taxonomy: An overview. Theory into practice, 41(4), 212-218.

 

Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S. & Floridi, L. 2016. The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 2053951716679679.