Siirry sisältöön
Digitaalisuus
Tekoälystä tulee työkaveri – mutta minkälainen

Päivittäin tulee uusia esimerkkejä tekoälyn yhteiskunnallisista haasteista hyötyjen ohella. Tekoäly on jo tukiäly. Mutta minkälainen työkaveri siitä on tulossa?

Kirjoittajat:

Ari Alamäki

yliopettaja, myynnin kehittäminen ja digitalisaatio
Haaga-Helia ammattikorkeakoulu

Olli Laintila

lehtori, yrittäjyys
Haaga-Helia ammattikorkeakoulu

Asko Mononen

lehtori, digital living lab
Laurea ammattikorkeakoulu

Julkaistu : 03.05.2023

Coloradon taidekilpailussa 2022 palkittiin kohun saattelemana tekoälyllä luotu työ (Roose 2022). On hyvin vaikeaa erottaa generatiivisen tekoälyn tuottamaa tuotosta ihmisen tuottamasta. Paljon puhuttu ChatGPT4 on myös jo läpäissyt useita pääsykoe- ja tasotestejä, jopa edeltäjiään paremmin.

Tekoäly tarjoaa siten uusia kykyjä. Väitetään, että se voisi esimerkiksi erottaa seksuaalisen suuntautumisen ihmistä paremmin (Wang & Kosinski 2018). Löydös näyttäisi vahvistan teoriaa, että seksuaalinen suuntautuminen määrittyy jo ennen syntymää. Tekoälyn kehittyminen luo siis yrityksille ja valtioille mahdollisuuden havaita ihmisten intiimejäkin asioita. Tämä voi aiheuttaa uhkia niin yksityisyydensuojalle kuin turvallisuudelle, esimerkiksi maissa, joissa homoseksuaalisuus on rangaistavaa tai se koetaan laajasti uskonnollisesti tai kulttuurisesti tuomittavana.

Tekoäly on myös luovuutta ja innovatiivisuutta edistävä keksintö. Tanejan (2019) mukaan vahvojen alustojen tukemana tekoäly voi tarjota jatkossa innovoijille vaikutusmahdollisuuksia ennenkuulumattomalla vauhdilla. Nämä vaikutukset tulevat yhä enemmän sellaisilta yrityksiltä, joiden tarjonta kohdistuu muita tehokkaammin tarkasti määritellyille kapeille asiakassegmenteille.

Harvardin työmarkkinaekonomi Katz (Greenhouse 2023) toteaa, että luultavasti teknologian johdosta katoavat työpaikat korvaantuvat uusilla syntyvillä työpaikoilla kuten aiemminkin. Kone tulee työkaveriksi, jolloin tekoäly muuttuu aidosti tukiälyksi.

Tekoälyn eettisiä haasteita

Microsoftin Kate Crawford ( 2016) nosti mielipidejutussaan esiin ongelman, että teknologiaa ohjelmoivat pääosin nuoret valkoiset miehet, jolloin myös heidän ennakkoluulonsa siirtyvät helposti malleihin. Isotkin yritykset ovat ajautuneet kohujen keskelle, kun esimerkiksi hakukoneesta toimitusjohtajan kuvia etsittäessä vastauksissa oli pääosin vain miesten kuvia. Myöskään ihmisten ihonvärien kirjoa ei tunnistettu oikein tai sen perusteella luokiteltiin ihmiset karkeasti väärin, jopa eläimiksi.

Jos ohjelmoijien joukko olisi heterogeenisempi, osattaisiin ehkä valita opetusdata edustamaan monipuolisemmin koko populaatiota. Näin vahingossa luoduilta syrjiviltä ja epäeettisiltä tekoälymalleilta vältyttäisiin paremmin.

Kiinassa lanseerattiin 2014 kuusivuotissuunnitelma ”social credit system”, jossa luottohistorian rinnalla olisi käytössä sosiaalinen pisteytys (Zeyi 2022). Siinä yrityksille ja kansalaisille annettaisiin ”luotettavuusluku”. Tähän liittyen on jo tehty kokeiluja (esim. Rongchengissa, jossa tietoja keräiltiin kynällä ja paperilla), mutta laajalti se ei liene toistaiseksi käytössä. Marraskuussa 2022 julkaistiin lakiehdotus aiheesta, jossa on erilaisia palkinto- ja rangaistusmekanismeja.

Big datan pohjalta kerättävän ranking-asteikon pistemäärä vaikuttaisi esimerkiksi siihen, saako lainaa tietyillä ehdoilla, saako matkustaa ja miten mukavasti tai saako lapsensa yksityiskouluun. Luotettavuuslukuun voi vaikuttaa lisäävästi ns. ”hyveet”, vaikkapa verenluovutus ja vähentävästi moraalisesti moitittavat ”paheet”, kuten ylinopeus, kadun ylittäminen punaisilla, tupakointi kieltoalueilla, liiallinen verkkopelien ostaminen ja ei-toivotut sosiaalisen median julkaisut.

Länsimaissa tällaista valvontayhteiskuntaa kuvaillaan Orwellilaiseksi, sen nähdään loukkaavan liiaksi yksityisyydensuojaa. Tällainenkin teknologian hyödyntäminen on kuitenkin mahdollista myös muualla, joten yhteiskuntamalleilla ja valtaapitävillä on vaikutusta siihen, miten ja mihin tekoälyä jatkossa hyödynnetään.

Päätöksiin liittyy usein eettisiä ja moraalisia valintoja

Moralmachine.net verkkosivuilla (MIT Media Lab) voi testata miten itse suhtautuu moraalisiin päätöksiin. Sivuilla otetaan kantaa tilanteisiin, miten tulisi menetellä, jos itseohjautuvasta ajoneuvosta hajoavat jarrut ja törmäys on väistämätön. On siis päätettävä, ohjelmoidaanko auto ajamaan pakon edessä mieluummin lapsen vai vanhuksen päälle, ylipainoisen vai laihan, lakia rikkovan vai lakia noudattavan, jne.

Awad ym. (2018) tutkivat tästä datasta miljoonia päätöksiä globaalisti, eikä yksimielisyyttä näistä moraalista päätöksistä löytynyt. Datasta paljastui kuitenkin globaali länsi, itä ja etelä, joissa painotukset em. tilanteissa vaihtelivat. Etelässä arvotettiin enemmän lapsia kuin vanhuksia, idässä toisinpäin ja länsi oli niiden välissä. Lännessä oli muita suositumpaa myös päätös ”ei tehdä mitään, ajetaan suoraan”, jotta ikäviltä valinnoilta vältyttäisiin.

Kuten Moralmachine.net-sivuston havainnollistavat esimerkit osoittavat, moniin päätöksiin liittyy vaikeita eettisiä ja moraalisia valintoja. Itseohjautuvien laitteiden ja ajoneuvojen lisäksi monet päätökset koskettavat ihmisten arkea ja elämää sosiaalihuollosta terveyteen, omaisuuteen ja koulutukseen.

Lähitulevaisuudessa yhä useamman työkaverina on älykäs kone

Jos tekoäly tunnistaa vaikkapa tiettyjä syöpiä paremmin kuin radiologit, luultavasti radiologeja ei korvata koneilla vaan heidän työnkuvaansa muutetaan. Tällä kertaa tekoälyn murros voi satuttaa enemmän keskiluokkaa, ja muuttuvissa olosuhteissa suoritettavat manuaaliset, matalapalkkaisemmat työt voivat olla paremmin turvassa. Putki- tai sähköasentajaa on vielä vaikea korvata robotilla.

Koska uusia työkaluja ei oikein voida kategorisesti kauaa kieltääkään, niin ne sallittaneen, ainakin jossain määrin. Jos tuottavuus paranee merkittävästi tekoälyn käytön laajetessa, yhä useamman työkaveriksi tullee kuitenkin älykäs kone jo lähitulevaisuudessa.

Sitä ennen joudumme vielä paljon pohtimaan minkälainen työkaveri sen halutaan olevan mm. moraalisten päätösten näkökulmasta. Lisäksi tarvitsemme paljon lisää tutkimusta siitä, mikä tulee olemaan asiantuntijan ja koneen keskinäinen työnjako jottei ”häntä heiluta koiraa” varsinkaan eettisissä ja moraalisissa päätöksissä.

Lähteet

Awad, E., Dsouza, S., Kim, R., Schulz, J.F., Henrich, J., Shariff, A.F., Bonnefon, J., & Rahwan, I. 2018. The Moral Machine experiment. Nature, 563, 59-64.

Crawford, K. 2016. Artificial Intelligence’s White Guy Problem. The New York Times.

Roose K. 2022. AI artificial intelligence artists. The New York Times.

Taneja, H. 2019. The Era of “Move Fast and Break Things Is Over. Harvard Business Review, 2-6.

Wang, Y., & Kosinski, M. 2018. Deep neural networks are more accurate than humans at detecting sexual orientation from facial images. Journal of Personality and Social Psychology, 114(2), 246–257.