Generatiivisen tekoälyn käyttöönotossa yksi keskeinen mutta usein aliarvioitu ongelma on terminologinen epäselvyys. Organisaatiot käyttävät samoista ilmiöistä eri käsitteitä – tai eri ilmiöistä samaa käsitettä. Kun ’agentti’ tarkoittaa yhdelle toimittajalle joukkoa Copilot-laajennuksia ja toiselle autonomisesti toimivaa, monivaiheista järjestelmää, seuraukset eivät ole pelkästään kielellisiä. Epäselvä sanasto heijastuu suoraan riskinarviointiin, käyttöoikeuksiin, valvontaan ja vastuunjakoon.
Asiantuntijakäyttäjän näkökulmasta assistentin ja agentin erottaminen on välttämätöntä kahdesta syystä. Ensinnäkin virkatehtävän ja organisaatiovastuun kannalta on kyettävä määrittämään, kuka tekee, kuka hyväksyy, kuka vastaa ja mitä toimia lokitetaan. Toiseksi kyse on EU:n tekoälyasetuksen velvoitteista, jotka kytkeytyvät nimenomaan järjestelmän rooliin, käyttökontekstiin, autonomian tasoon ja valvontaan.
Tekoälytoimijuus-hanke testiympäristönä
Haaga-Helian Työsuojelurahaston rahoittamassa Tekoälytoimijuus – taitoa, tuottavuutta ja hyvinvointia tekoälyä hyödyntäen -hankkeessa tutkitaan ja kehitetään kuntien ja hyvinvointialueiden tietotyöntekijöiden sekä johdon toimijuutta generatiivisen tekoälyn käytössä ja työn kehittämisessä.
Hankkeen tavoitteena on ymmärtää kokonaisvaltaisesti tekoälyn hyödyntämisen edellyttämän toimijuuden luonnetta ja muodostaa tätä kuvaava kokonaismalli. Toimin itse hankkeen tekoälykouluttajana, ja vedän työpajoja osallistujille.
Osana hankkeen tiedonkeruuta osallistuville kunnille ja hyvinvointialueille järjestettiin kaksi työpajaa. Ensimmäinen käsitteli tekoälylukutaidon eri ulottuvuuksia, toinen keskittyi yhteisen tekoälytoimijuuden ymmärtämiseen. Työpajojen välillä osallistujat toteuttivat omia tekoälykokeilujaan ja arvioivat niitä yhteisesti sovituilla kriteereillä. Merkittävä osa kokeiluista liittyi erilaisten tekoälyavustajien ja -agenttien rakentamiseen.
Työpajojen osallistujien töitä tarkasteltaessa kävi ilmeiseksi, että hyvin eritasoisia ja eri tavoin toimivia ratkaisuja kutsuttiin systemaattisesti agenteiksi riippumatta siitä, oliko järjestelmällä todellista itsenäistä toimijuutta vai ei. Ilmiö paljastaa konkreettisen ongelman: yhteinen ymmärrys tekoälyagenttien luonteesta ja kyvykkyyksistä hämärtyy jo varhaisessa käyttövaiheessa. Tämä ei ole sattumaa, vaan seurausta teknologiatoimittajien intresseistä ja niiden käyttämästä sanastosta.
Microsoftin tulkinta agenttitermistä
Microsoftin ekosysteemissä agentti-termiä käytetään laajasti. Copilot Studion dokumentaatiossa (Microsoft Learn 2026) Copilot-agentti kuvataan tekoälykumppanina, joka voi käsitellä tehtäviä ja toimia kontekstin sekä ohjeiden perusteella. Microsoft 365 Copilotin dokumentaatiossa (Microsoft Learn 2026b) agentit taas näyttäytyvät Copilotin toiminnallisuutta laajentavina erikoistuneina osina, joita kuvataan osin myös tekoälyavustajina.
Agentti voi Microsoftin kielenkäytössä tarkoittaa Copilotin laajennusta, toimialakohtaista tekoälytoimijaa, työnkulkuja hyödyntävää automaatiota tai autonomisempaa toiminnallista kokonaisuutta (Microsoft Copilot 2026). Tämä on ymmärrettävää tuotekehityksen ja ekosysteemin rakentamisen näkökulmasta. Ongelmia syntyy kuitenkin silloin, kun eri autonomiatasot niputetaan organisaation sisäisessä hallinnassa saman käsitteen alle.
Traficomin rajaus: avustaja ei ole agentti
Traficomin ja Huoltovarmuuskeskuksen julkaisu Tekoälyagenttien kyberturvallisuus tarjoaa täsmällisen ja hallinnollisesti käyttökelpoisen erottelun. Oppaassa
- Tekoälyagentti määritellään tietojärjestelmäksi, joka hyödyntää tekoälymalleja ja työkaluja toimintojen automaattiseen suorittamiseen käyttäjän puolesta ja joka voi käynnistää toimintoja itsenäisesti sille asetettujen sääntöjen ja toimintaohjeiden mukaisesti.
- Tekoälyavustajat puolestaan kuvataan pääsääntöisesti keskustelupohjaisiksi ratkaisuiksi, jotka edellyttävät käyttäjän jatkuvaa ohjausta.
Traficomin rajaus ei perustu käyttöliittymään tai markkinointitermistöön, vaan toimintakykyyn ja autonomian asteeseen. Keskiössä ovat työkalujen käyttö, orkestrointi, moniagenttijärjestelmät sekä tapauskohtainen harkinta autonomian tasosta. Tämä tekee määritelmästä sovellettavan paitsi tekniseen suunnitteluun myös tekoälyn hallintaan ja kyberturvallisuuteen.
Kun toimittajasanasto muuttuu hallintakieleksi
Monissa organisaatioissa teknologiatoimittajan terminologia omaksutaan osaksi sisäistä kieltä. Tämän jälkeen käsitteet siirtyvät koulutusmateriaaleihin, ohjeistuksiin ja johdon keskusteluihin. Lopputuloksena agentti voi tarkoittaa kaikkea keskustelevaa avustajaa myöten työnkulkuja suorittavaan automaatioon. Yhteinen kieli katoaa juuri niissä kohdissa, joissa sillä olisi suurin merkitys: vastuunjaossa, käyttöoikeuksissa ja riskienhallinnassa.
Keskustelevaa avustajaa, tietolähteitä hyödyntävää ratkaisua, toimia suorittavaa agenttia ja moniagenttista automaatiota koskevat riskiprofiilit eroavat olennaisesti toisistaan. Kun nämä erot hämärtyvät, seurauksena voi olla käyttöoikeusmalli, jossa vähäriskiseksi mielletty ratkaisu saa perusteettoman laajat oikeudet. Vastaavasti valvonta voi jäädä keskustelulokien tasolle, vaikka keskeinen riski liittyisi työkalukutsuihin ja automaattisiin toimenpiteisiin.
Virkatehtävässä ratkaisevaa ei ole pelkästään se, avustaako tekoäly käyttäjää, vaan se, millaista toimijuutta järjestelmälle tosiasiallisesti annetaan. Ehdotusten tuottaminen ja toimenpiteiden käynnistäminen ovat hallinnollisesti ja oikeudellisesti eri asioita. Tämä vaikuttaa suoraan harkintavallan käyttöön, päätöksenteon läpinäkyvyyteen, vastuunjakoon ja jäljitettävyyteen.
Tekoälyasetuksen vaatimustenmukaisuus
EU:n tekoälyasetus perustuu tekoälyjärjestelmien rooleihin, riskeihin ja käyttökontekstiin. Komissio on julkaissut ohjeita tekoälyjärjestelmän määritelmän tulkintaan juuri siksi, ettei soveltaminen perustuisi markkinointikäsitteisiin vaan järjestelmän tosiasiallisiin ominaisuuksiin ja käyttötapaan. (Euroopan unioni 2024.)
Asetuksen 4. artikla edellyttää henkilöstöltä riittävää tekoälylukutaitoa. Osaamisen on vastattava käyttäjän roolia, teknistä vastuuta ja käyttökontekstia. (European Commission 2025.) Tästä syystä assistentin ja agentin erottelu ei ole terminologinen yksityiskohta, vaan koulutussuunnittelun ja vastuiden määrittelyn ydinkysymys.
Avustajan käyttäjälle keskeisiä osaamisalueita ovat lähdekritiikki, virheellisten vastausten tunnistaminen, tietosuoja ja turvallinen käyttö. Agenttia käyttävän tai omistavan asiantuntijan on ymmärrettävä lisäksi työkalukutsut, oikeuksien hallinta, hyväksyntäpisteet, valvontamekanismit ja epäonnistumistilat. Jos organisaatio kutsuu kaikkea agentiksi, koulutuksen kohdentaminen epäonnistuu väistämättä.
Tekoälyasetus kytkee tekoälylukutaidon myös läpinäkyvyyteen ja ihmisen valvontaan liittyviin velvoitteisiin (European Commission 2025b). Tämä korostuu erityisesti silloin, kun järjestelmä siirtyy avustavasta roolista prosesseja suorittavaan tai koordinoivaan toimijuuteen. Moniagenttisissa toteutuksissa valvonnan paikka hämärtyy entisestään, ellei organisaatio määrittele selkeästi, missä kohdassa ihminen hyväksyy toimenpiteen ja missä järjestelmä toimii itsenäisesti.
Näistä syistä organisaation ei ole perusteltua omaksua Microsoftin agenttisanastoa sellaisenaan osaksi hallintakieltään. Kestävämpi lähtökohta on Traficomin kaltainen rajaus, jossa tarkastelu sidotaan autonomiaan, työkaluihin, toimenpiteisiin ja valvontaan. Tällainen sanasto tukee sekä teknistä suunnittelua että tekoälyasetuksen vaatimustenmukaisuuden arviointia.
Haaga-Helian Tekoälytoimijuus – taitoa, tuottavuutta ja hyvinvointia tekoälyä hyödyntäen -hanke selvittää tekoälyn hyödyntämistä julkishallinnossa. Tekoälyn käyttöä, hyötyjä ja osaamista tarkastellaan yhteisissä työpajoissa syksyn 2025 ja kevään 2026 aikana. Mukana hankkeessa ovat Lahden, Heinolan, Kuopion ja Porvoon kaupungit, Kärkölän kunta ja Siunsote. Hanketta rahoittaa Työsuojelurahasto.
Lähteet
European Commission. 2025. Definitions of article 4 and the AI Act. AI Literacy – Questions & Answers. Luettu: 23.3.2026.
European Commission. 2025b. The Commission publishes guidelines on AI system definition to facilitate the first AI Act’s rules application. Luettu: 23.3.2026.
Microsoft. 2026. Copilot and AI Agents. Luettu: 23.3.2026.
Microsoft Learn. 2026. Overview – Microsoft Copilot Studio. Luettu: 23.3.2026.
Microsoft Learn. 2026b. Microsoft 365 Copilot laajentaminen agenteilla. Luettu: 23.3.2026.
Traficom & Huoltovarmuuskeskus. 2026. Tekoälyagenttien kyberturvallisuus. Luettu: 23.3.2026.
Kirjoittaja on käyttänyt tekstin viimeistelyssä ja oikoluvussa ChatGPT 5.4. tekoälymallia.
Kuva: Haaga-Helia/ Kuulu.fi