Siirry sisältöön
Digitaalisuus
EU näyttää suuntaa tekoälyn luotettavalle käytölle

Yritysten vastuustrategioissa otetaankin jo säännöllisesti kantaa hiilidioksidipäästöjen vähentämiseen ja muihin kestävän kehityksen periaatteisiin. Olisiko seuraavaksi aika nostaa myös vastuullinen datan käyttö näkyvästi osaksi yritysvastuuta?

Julkaistu : 18.05.2021

Olemme siirtymässä yhä enemmän automaattisten algoritmien ohjaamaan maailmaan. Tarkoituksenamme on tyypillisesti tehostaa taloudellista toimintaa ja parantaa käyttäjien palvelukokemusta. Tämä kaikki perustuu käyttäjistä tarjolla olevaan suunnattomaan suureen datamäärään eli tekoälyn polttoaineeseen.

Samaan aikaan maailmalla jo kuitenkin kuohuu. Moni muistaa Cambridge Analytican (Isaak & Hanna 2018) vaalivilppiin liittyvän datan epäeettisen käytön. Tilanteen, jossa tarkoitushakuisella informaatiovaikuttamisella luotiin mielipideilmastoa haluttuun suuntaan.

Toinen, hieman tuntemattomampi kohu dataan liittyen on joulukuussa 2020 alkanut kiista Googlen ja sen tekoälyetiikan tutkijoiden välillä. Sen johdosta kaksi Google Brain-tiimiä johtanutta tekoälyetiikkatutkijaa ovat joutuneet jättämään työnsä. Kiistan aiheena on tutkimus suunnattoman suuren luonnollisen kielen datankäsittelymallista, jossa on havaittu kauaskantoisia riskejä. Toisessa vaakakupissa on liiketoiminnan tahtotila ja halu ilmaista asiat Googlen kannalta soveliaassa valossa (Bender ym 2021, Hao 2020).

Datan määrä ei takaa laatua

Benderin ym (2021) kiistanalaisessa tutkimuksessa, ilmeni, että tarve kerätä kaikki mahdollinen data internetistä tätä erittäin suurta luonnollisen kielen käsittelymallia varten, oli johtamassa kasvavaan riskiin. Riskiin siitä, että mukaan tekoälyn koulutusdataan päätyy myös rasistista, seksistä tai mulla tavalla vääristynyttä kieltä.

Lisäksi, koska tuota asenteellista tekstimassaa on muodostunut vuosien aikana, ei määrällisesti uudet kulttuuriset normit ja asenteet vielä ilmene riittävällä painoarvolla tekstimäärään suhteutettuna.

Näin esimerkiksi MeToo ja Black Lives Matter kansanliikkeiden aiheuttamat asennemuutokset nykykulttuuriin, sekä niiden tuomat uudet sävyt puhekielessä, eivät saa vielä riittävää painoarvoa. Ne yksinkertaisesti uhkaavat hävitä vanhan datamassan alle.

Suuria datamääriä käsiteltäessä on ilmennyt myös toinen aihealue, joka haastaa ajattelemaan digitalisaation seurannaisvaikutuksia. Suuria tekoälymalleja kouluttaessaan tietokoneet kuluttavat paljon prosessointikapasiteettia ja siten myös sähköä. Vaikutus hiilijalanjälkeen lisääntyy merkittäväksi, kun käsitellään yhä suurempia luonnollisen kielen tekoälymalleja.

Yritysten vastuustrategioissa otetaankin jo säännöllisesti kantaa hiilidioksidipäästöjen vähentämiseen ja muihin kestävän kehityksen periaatteisiin. Olisiko seuraavaksi aika nostaa myös vastuullinen datan käyttö näkyvästi osaksi yritysvastuuta?

Eettinen datan käyttö voi olla kilpailuetu

Ensimmäiset askeleet aiheeseen on jo otettu yrityksissä, jotka ovat luoneet tekoälyn eettiset periaatteet. Seuraavia askelia on saada nämä periaatteet konkreettisesti osaksi yrityksen käytänteitä ja prosesseja.

Mahdollisimman monessa yrityksessä tulisi ymmärtää perusteet tekoälyn toiminnasta ja millä periaatteilla tekoälyn kehitystä ohjaavia valintoja yrityksessä tulisi tehdä. Näin voidaan edesauttaa sitä, että työntekijöiden tekemät tekoälyn toimintaan liittyvät valinnat, ovat linjassa yrityksen tekoälyetiikan strategian kanssa.

Tämän mahdollistaminen vaatii jatkuvaa keskustelua, ymmärryksen kasvattamista sekä yhteisiä valintoja.

Yrityksillä on osuus kestävään kehitykseen, mutta niillä on merkittävä rooli myös turvallisen, ihmisystävällisen ja läpinäkyvän digitaalisen tulevaisuutemme luomisessa. Muutaman maailmaluokan datakohun jälkeen, on hyvin mahdollista, että eettinen datan hallinta on konkreettinen kilpailuetu tulevaisuudessa. Maineriskin hallinta ennakkoon on kannattava investointi.

Lainsäädäntö ajurina

Sääntelyn puolelta on näkyvissä helpotusta epäselvään tilanteeseen. Kaikkien aikojen ensimmäisestä tekoälylainsäädännöstä valmistui EU-laajuinen lakiluonnos 21.4.2021 (Euroopan komissio 2021). Se toimii luontaisena jatkona GDPR:n aloittamaan, kansalaisista kerättävän datan luotettavaan hallintaan ja käyttöön.

Lakiluonnoksen vaatimukset ovat myös linjassa aiemman, tekoälyn eettisiä näkökohtia käsittelevän Euroopan parlamentin päätöslauselman kanssa koskien mm. data-aineiston laadukkuutta, jäljitettävyyttä ja dokumentointia (Euroopan parlamentti 2020). Näihin uusiin normeihin valmistautuminen kannattaa siis aloittaa heti tekoälyratkaisujen alkuvaiheessa.

Kuten alun esimerkissä nähtiin, yksittäinen työntekijä ei voi varmistaa tekoälyn käytön eettistä kehitystä, vaikka olisi maailmanluokan osaaja. Siksi onkin tärkeää, että tekoälyn eettinen kehittäminen on osa yrityksen hallinnointi- ja ohjausjärjestelmää. On tarpeen luoda uusi kategoria, Corporate Digital Responsibility.

Lähteet:

Kuva: www.shutterstock.com