Olemme siirtymässä yhä enemmän automaattisten algoritmien ohjaamaan maailmaan. Tarkoituksenamme on tyypillisesti tehostaa taloudellista toimintaa ja parantaa käyttäjien palvelukokemusta. Tämä kaikki perustuu käyttäjistä tarjolla olevaan suunnattomaan suureen datamäärään eli tekoälyn polttoaineeseen.
Samaan aikaan maailmalla jo kuitenkin kuohuu. Moni muistaa Cambridge Analytican (Isaak & Hanna 2018) vaalivilppiin liittyvän datan epäeettisen käytön. Tilanteen, jossa tarkoitushakuisella informaatiovaikuttamisella luotiin mielipideilmastoa haluttuun suuntaan.
Toinen, hieman tuntemattomampi kohu dataan liittyen on joulukuussa 2020 alkanut kiista Googlen ja sen tekoälyetiikan tutkijoiden välillä. Sen johdosta kaksi Google Brain-tiimiä johtanutta tekoälyetiikkatutkijaa ovat joutuneet jättämään työnsä. Kiistan aiheena on tutkimus suunnattoman suuren luonnollisen kielen datankäsittelymallista, jossa on havaittu kauaskantoisia riskejä. Toisessa vaakakupissa on liiketoiminnan tahtotila ja halu ilmaista asiat Googlen kannalta soveliaassa valossa (Bender ym 2021, Hao 2020).
Datan määrä ei takaa laatua
Benderin ym (2021) kiistanalaisessa tutkimuksessa, ilmeni, että tarve kerätä kaikki mahdollinen data internetistä tätä erittäin suurta luonnollisen kielen käsittelymallia varten, oli johtamassa kasvavaan riskiin. Riskiin siitä, että mukaan tekoälyn koulutusdataan päätyy myös rasistista, seksistä tai mulla tavalla vääristynyttä kieltä.
Lisäksi, koska tuota asenteellista tekstimassaa on muodostunut vuosien aikana, ei määrällisesti uudet kulttuuriset normit ja asenteet vielä ilmene riittävällä painoarvolla tekstimäärään suhteutettuna.
Näin esimerkiksi MeToo ja Black Lives Matter kansanliikkeiden aiheuttamat asennemuutokset nykykulttuuriin, sekä niiden tuomat uudet sävyt puhekielessä, eivät saa vielä riittävää painoarvoa. Ne yksinkertaisesti uhkaavat hävitä vanhan datamassan alle.
Suuria datamääriä käsiteltäessä on ilmennyt myös toinen aihealue, joka haastaa ajattelemaan digitalisaation seurannaisvaikutuksia. Suuria tekoälymalleja kouluttaessaan tietokoneet kuluttavat paljon prosessointikapasiteettia ja siten myös sähköä. Vaikutus hiilijalanjälkeen lisääntyy merkittäväksi, kun käsitellään yhä suurempia luonnollisen kielen tekoälymalleja.
Yritysten vastuustrategioissa otetaankin jo säännöllisesti kantaa hiilidioksidipäästöjen vähentämiseen ja muihin kestävän kehityksen periaatteisiin. Olisiko seuraavaksi aika nostaa myös vastuullinen datan käyttö näkyvästi osaksi yritysvastuuta?
Eettinen datan käyttö voi olla kilpailuetu
Ensimmäiset askeleet aiheeseen on jo otettu yrityksissä, jotka ovat luoneet tekoälyn eettiset periaatteet. Seuraavia askelia on saada nämä periaatteet konkreettisesti osaksi yrityksen käytänteitä ja prosesseja.
Mahdollisimman monessa yrityksessä tulisi ymmärtää perusteet tekoälyn toiminnasta ja millä periaatteilla tekoälyn kehitystä ohjaavia valintoja yrityksessä tulisi tehdä. Näin voidaan edesauttaa sitä, että työntekijöiden tekemät tekoälyn toimintaan liittyvät valinnat, ovat linjassa yrityksen tekoälyetiikan strategian kanssa.
Tämän mahdollistaminen vaatii jatkuvaa keskustelua, ymmärryksen kasvattamista sekä yhteisiä valintoja.
Yrityksillä on osuus kestävään kehitykseen, mutta niillä on merkittävä rooli myös turvallisen, ihmisystävällisen ja läpinäkyvän digitaalisen tulevaisuutemme luomisessa. Muutaman maailmaluokan datakohun jälkeen, on hyvin mahdollista, että eettinen datan hallinta on konkreettinen kilpailuetu tulevaisuudessa. Maineriskin hallinta ennakkoon on kannattava investointi.
Lainsäädäntö ajurina
Sääntelyn puolelta on näkyvissä helpotusta epäselvään tilanteeseen. Kaikkien aikojen ensimmäisestä tekoälylainsäädännöstä valmistui EU-laajuinen lakiluonnos 21.4.2021 (Euroopan komissio 2021). Se toimii luontaisena jatkona GDPR:n aloittamaan, kansalaisista kerättävän datan luotettavaan hallintaan ja käyttöön.
Lakiluonnoksen vaatimukset ovat myös linjassa aiemman, tekoälyn eettisiä näkökohtia käsittelevän Euroopan parlamentin päätöslauselman kanssa koskien mm. data-aineiston laadukkuutta, jäljitettävyyttä ja dokumentointia (Euroopan parlamentti 2020). Näihin uusiin normeihin valmistautuminen kannattaa siis aloittaa heti tekoälyratkaisujen alkuvaiheessa.
Kuten alun esimerkissä nähtiin, yksittäinen työntekijä ei voi varmistaa tekoälyn käytön eettistä kehitystä, vaikka olisi maailmanluokan osaaja. Siksi onkin tärkeää, että tekoälyn eettinen kehittäminen on osa yrityksen hallinnointi- ja ohjausjärjestelmää. On tarpeen luoda uusi kategoria, Corporate Digital Responsibility.
Lähteet:
- Bender, E.M., Gebru, T., McMillan-Major, A., & Shmitchell, S. 2021. On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency.
- Euroopan komissio 2021. Digitalisaatio: Komissio ehdottaa uusia sääntöjä ja toimia huippuosaamisen ja luottamuksen lisäämiseksi tekoälyalalla. Lehdistötiedote 21.04.2021.
- Euroopan komissio 2021. Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act).
- Euroopan parlamentti 2020. Euroopan parlamentin päätöslauselma 20. lokakuuta 2020 Tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevien eettisten näkökohtien kehys.
- Hao, K., MIT Technology Review 2020. We read the paper that forced Timnit Gebru out of Google. Here’s what it says.
- Isaak J. and Hanna M. J. 2018. User Data Privacy: Facebook, Cambridge Analytica, and Privacy Protection. Computer, 51, 8, s. 56-59.
Kuva: www.shutterstock.com