Pro
Siirry sisältöön
Tekoäly

Tekoälyn tehokkuuslupaukset uhkaavat oppimisen ydintä

Kirjoittajat:

Merja Alanko-Turunen

yliopettaja
Haaga-Helia ammattikorkeakoulu

Olli-Jaakko Kupiainen

lehtori / senior lecturer
Haaga-Helia ammattikorkeakoulu

Julkaistu : 19.01.2026

Digitalisaatiota on marssitettu korkeakouluihin tehokkuuden ja joustavuuden lupausten siivin. Teknologian on odotettu keventävän opettajan työtä (Allen & Seaman 2017; Du Plooy ym. 2024), henkilökohtaistavan oppimiskokemuksia (Chen & Yang 2019), parantavan saavutettavuutta (Briggs ym. 2024) ja jopa vahvistavan oppimismotivaatiota pelillisyyden avulla (Li ym. 2024). Näiden lupausten toteutuminen on kuitenkin osoittautunut monimutkaisemmaksi kuin teknologiaoptimismi on antanut ymmärtää. Samalla ne ovat peittäneet alleen perustavamman kysymyksen: mitä oppiminen korkeakoulussa lopulta on ja mitä sen tulisi mahdollistaa?

Teknologiaa on pidetty merkittävänä tekijänä korkeakoulutuksen kehittämisessä (esim. De Nito ym. 2023). Sen lupaukset ovat rakentuneet tehokkuuden diskurssille. Tehokkuusdiskurssin logiikka rakentuu syy-seuraussuhteelle, jossa teknologia sanelee toiminnan ehdot. Perustana toimii datavetoisuus, joka muuttaa inhimillisen vuorovaikutuksen ja oppimisen mitattavaksi raaka-aineeksi.

Tätä seuraa hallinnollinen optimointi, joka valjastaa kertyneen tiedon tuotantoprosessin tehostamiseen ja hukkakäytön karsimiseen. Lopputuloksena syntyy teknologinen imperatiivi, jossa mitattava tehokkuus syrjäyttää laadulliset ja pedagogiset arvot korkeakoulun ensisijaisena ohjausmekanismina (Komljenovic ym. 2025; Williamson 2017).

Mitä oppiminen korkeakoulussa lopulta on ja mitä sen tulisi mahdollistaa?

Kriittiset äänenpainot ovat tuoneet esille sen, että korkeakoulutuksen teknologisoituminen ei ole neutraalia eikä väistämätöntä, vaan se on myös poliittista (Selwyn 2010). Tämä poliittisuus perustuu teknologioiden sosiaaliseen luonteeseen. Teknologiset ratkaisut eivät ole ennalta määritettyjä vaan muotoutuvat jatkuvissa neuvottelussa ja intressiristiriidoissa.

Teknologisoituminen kytkeytyy väistämättä yhteiskunnallisiin valtarakenteisiin ja taloudellisiin reunaehtoihin, minkä vuoksi se palvelee tiettyjä intressejä ja muokkaa sosiaalista todellisuutta epätasaisesti (Selwyn 2010).

Tämä problematiikka konkretisoituu erityisen voimakkaasti suuriin kielimalleihin perustuvan generatiivisen tekoälyn kanssa. Laajoilla aineistoilla koulutetut suuret kielimallit kykenevät tuottamaan ihmismäistä tekstiä, vastaamaan kysymyksiin sekä suorittamaan monipuolisia kielellisiä tehtäviä (esim. Kasneci ym. 2023). Tästä eteenpäin käytämme tekstissä ilmaisua tekoäly, jolla tarkoitamme nimenomaan suuriin kielimalleihin perustuvia generatiivisia tekoälysovelluksia.

Tekoälyn vauhdittama muutos saattaa parantaa akateemista suoriutumista hetkellisesti, mutta samalla se uhkaa kaventaa uusissa toimintaympäristöissä vaadittavien taitojen kehittymistä (Panadero & Broadbent 2025). Kun opiskelijat käyttävät tekoälyä tehtäviinsä, teknologia voi laajentaa oppimista, mutta yhtä helposti se voi korvata oppimisen kokonaan. Kynä laajensi kirjoittamisen mahdollisuuksia, laskin nopeutti laskemista, mutta kumpikin edellytti ajattelua. Tekoäly tarjoaa houkuttelevan oikopolun ajatteluprosessin sivuuttamiseen (Purser 2025).

Tässä tekstissä tarkastelemme, kuinka teknologinen murros ja tekoäly haastavat kriittisen ajattelun sekä perinteiset opiskelukäytänteet. Esitämme, että tehokkuutta ihannoivassa ajassa korkeakoulujen on turvattava tilaa ja huokoisuutta opiskelijoiden identiteettityölle. Vain näin voidaan varmistaa, että opettajien ja opiskelijoiden väliseen luottamukseen nojaava kriittinen ja vastuullinen oppijuus säilyy myös tekoälyn aikakaudella.

Tekoälyn tieto-opilliset rajoitukset ja vaatimukset

Tekoälyn kehittymisestä huolimatta oppiminen vaatii edelleen työtä ja ponnisteluja sekä kriittistä ajattelua. Kriittisellä ajattelulla tarkoitamme kykyä analysoida ja arvioida erilaisia tilanteita, jotka vaativat kognitiivista työtä, reflektioita ja halukkuutta kyseenalaistaa (Larson ym. 2024) aiempaa osaamista ja ajattelua.

Kriittinen ajattelu vaatii ymmärrystä tiedon rakentumisesta ja arvioinnista eri tieteenaloilla, mikä korostuu tekoälyn tullessa osaksi oppimisprosessia. Tekoälymallit tuottavat tekstiä tilastollisten todennäköisyyksien perusteella. Ne eivät tarkasta tekstin paikkansapitävyyttä luottavista lähteistä (Zhang ym. 2025). Tekoälyn tuottaman tiedon validointi edellyttääkin syvällistä perehtyneisyyttä siihen, miten kyseisellä tieteen alalla tietoa tuotetaan ja oikeutetaan (Potkalitsky 2025).

Tekoälyn hyödyntäminen vaatii käyttäjältä kykyä kriittiseen tiedon arviointiin, mikä luo korkeakoulutukseen pedagogisen jännitteen. Opiskelijoiden oletetaan kantavan vastuun teksteistä, joiden asiantuntevaan arviointiin heidän osaamisensa ei vielä riitä. Samalla tekoälyn kanssa työskentely heikentää niitä inhimillisiä suhteita, joissa kriittinen ajattelu normaalisti kehittyy (Flenady & Sparrow 2025). Kriittinen ajattelu rakentuu hitaasti, osana oppimista ja perehtymistä tiedonmuodostuksen käytäntöihin.

Oppiminen on monimuotoinen prosessi, joka vaatii kognitiivista, emotionaalista, motivaationaalista ja toiminnallista työtä. Tekoäly osallistuu tähän prosessiin yhä enemmän (ks. lisää Panadero & Broadbent 2025). Se voi passivoida opiskelijaa tarjoamalla liian helposti valmiita vastauksia. Jos opiskelijat erehtyvät pitämään vastauksia objektiivisina ja johdonmukaisina (Larson ym. 2024), heidän osaamisensa kehittyminen vaarantuu.

Toisaalta tekoälyn hyödyntäminen rutiini- ja analyysitehtävissä voi tukea oppimista, kunhan teknologia valjastetaan kognitiivisen prosessin tueksi eikä sen korvaajaksi (Panadero & Broadbent, 2025).

Huokoinen aika oppimisen ja asiantuntijuuden ehtona

Jotta emme jää korkeakoulussa tekoälyn mahdollistaman tehokkuuden ansaan, tarvitsemme huokoista aikaa. Huokoinen aika korostaa ajan läpäisevyyttä, ennustamattomuutta ja sitä, ettei aikaa voi täysin hallita rationaalisella suunnittelulla tai lokeroida tarkkarajaisiin yksiköihin. Käsite painottaa sitä, miten aika virtaa sosiaalisten rakenteiden läpi joustavasti ja monimuotoisesti, vaikkei näitä rakenteita olisikaan suunniteltu tunnistamaan tätä monimutkaisuutta (Marzamanian ym. 2015). Käytännössä tämä tarkoittaa sitä, että oppija voi rauhassa pysähtyä reflektoimaan opittavia asioita ja kiinnittämään ne omiin kokemuksiinsa.

Tällainen oppimisen tila mahdollistaa syvemmän ymmärtämisen, muistijälkien vahvistumisen ja luovien oivallusten kehkeytymisen. Korkeakouluopettajien tehtävä ei ole vain tiedon välittäminen vaan opiskelijan ohjaaminen metakognitiivisten taitojen kehittämiseen eli siihen, miten oppia oppimaan (Schraw ym. 2006). Se tarkoittaa ennen kaikkea sitä, että opiskelija säilyttää itsenäisyyden tekoälyn tarjoaman helppouden keskellä. Tärkeää on, että korkeakouluopettaja mahdollistaa opiskeluprosessin ja tukee opiskelijaa, jotta tämä pääsee kehittämään metakognitiivisia taitojaan.

Taitavimmat opiskelijat käyttävät tekoälyä ja arvioivat sen avulla omaa tietämystään ja tiedonmuodostuksen prosesseja.

Oppiminen ei enää tarkoita vain sisällön omaksumista vaan myös oman ajattelun vertaamista tekoälyn tuottamaan tekstiin. Taitavimmat opiskelijat käyttävät tekoälyä ja arvioivat sen avulla omaa tietämystään ja tiedonmuodostuksen prosesseja. Tässä arviointikyky (evaluative judgement) on alati kehittyvää, kontekstuaalista, reflektoivaa ja perustuu eettiseen sitoutumiseen (Bearman ym. 2025; Lindebaum & Fleming 2023).

Korkeakoulutus onkin murroksessa, kun tekoäly tuottaa varman tuntuisia vastauksia. Vastoin intuitiota tämä kyseenalaistaa tehokkuuden ja korostaakin kriittisen ajattelun, oman substanssiosaamisen ja asiantuntijuuden kehittämisen merkitystä. Tämä vaatii opiskelijalta aikaa, harkintaa ja ennen kaikkea rohkeutta pysähtyä pohtimaan, miksi on oppimassa ja miksi se on tärkeää.

Luottamus opettaja–opiskelija-suhteissa

Kriittisimmissä puheenvuoroissa tekoälyn pelätään tuhoavan korkeakoulut ja syvällisen oppimisen. Kun sekä opettajat että opiskelijat tukeutuvat tekoälyyn, pelkkä tehokkuuden tavoittelu voi rapauttaa oppimisen. Tällöin tutkinnot eivät enää kerro todellisesta osaamisesta mitään (Purser 2025).

Tämä uhkakuva on otettava vakavasti. Jotta voimme välttää sen toteutumisen, meidän on ymmärrettävä, miten tekoäly vaikuttaa luottamukseen sekä ihmisten välisissä suhteissa että suhteessa teknologiaan.

Määrittelemme ihmisten välisen luottamuksen tässä yhteydessä opiskelijan valmiudeksi asettua alttiiksi korkeakouluopettajan toiminnalle. Tämä halukkuus perustuu opiskelijan arvioon opettajan luotettavuudesta. Luotettavuus rakentuu yleisesti kyvykkyydestä, hyväntahtoisuudesta ja integriteetistä (Mayer ym. 1995). Koulutuksessa luottamus kiteytyy varmuuteen siitä, että opettaja on sitoutunut ajamaan opiskelijan etua ja tekee sen osaavasti sekä rehellisen avoimesti (Hoy & Tschannen-Moran 1999; Luo 2025).

Tekoälyn käyttöön liittyy haastava läpinäkyvyyden epäsymmetria: opiskelijoilta edellytetään avoimuutta, jota opettajat eivät välttämättä itse noudata (Luo 2025). Opettajan avoimuuden puute voidaan tulkita tekopyhäksi, mikä sotii opiskelijoiden inhimillistä opetusta koskevia odotuksia vastaan (Hill 2025). Uhkana on luottamuskato opettajien ja opiskelijoiden välillä.

Heikko luottamusilmapiiri voi estää opiskelijoita hyödyntämästä tekoälyä, sillä he pelkäävät sen vaikuttavan negatiivisesti arviointiin (Luo 2025). Opettajien tulee kertoa omista tekoälykäytänteistään ja perustella pedagogisesti myös käyttämisen rajoitukset. Näin opiskelijat oppivat tunnistamaan tilanteet, joissa tekoälyn tehokkuus ei korvaa oppimista.

Luottamus tekoälyyn

Gliksonin ja Woolleyn (2020) mukaan luottamus tekoälyyn on joko emotionaalista tai kognitiivista. Kognitiivinen luottamus tarkoittaa valmiutta hyödyntää tekoälyn tuottamaa tietoa, ja se perustuu teknologian ymmärrettävyyteen sekä tulosten johdonmukaisuuteen. Koska tekoälyn vastaukset kuitenkin vaihtelevat tilanne- ja käyttäjäkohtaisesti, luottamus ei ole pysyvää. Tämä epävakaus voi heikentää halukkuutta tukeutua teknologiaan, mikä korostaa kriittisen ajattelun ja oppimisen merkitystä tekoälyn hyödyntämisessä

Emotionaalinen luottamus teknologiaan korostuu erityisesti vuorovaikutteisuutta vaativissa tehtävissä. Keskeinen tekijä on teknologian inhimillistäminen: tekoälyn ihmisen kaltainen toiminta lisää luottamusta mutta kasvattaa samalla odotuksia kyvykkyydestä (Glikson & Woolley 2020). Esimerkiksi tekoälyn kannustava tyyli voi vahvistaa emotionaalista sidettä, vaikka käyttäjä suhtautuisi asiasisältöön kriittisesti. Näin ollen opiskelijat ja opettajat saattavat hyödyntää tekoälyä tunneperäisen luottamuksen varassa, vaikka kognitiivinen luottamus sen oikeellisuuteen olisi tätä vähäisempää.

Siinä missä korkea luottamus tekoälyyn passivoi kriittistä ajattelua ja vähentää kognitiivista ponnistelua, vahva itseluottamus vaikuttaa päinvastoin lisäten molempia. Korkeakoulutuksessa onkin olennaista löytää tasapaino: heikko usko omiin kykyihin voi johtaa liialliseen tekoälyyn tukeutumiseen, mikä heikentää itsenäistä ongelmanratkaisua. Siksi opetuksen tulisi vahvistaa opiskelijan ammatillista itseluottamusta ja tarjota työkaluja tekoälyn luotettavuuden arviointiin (esim. Lee ym., 2025).

Opetuksen ja ohjauksen ydintehtävä on merkittävästi muuttunut: enää ei vahvisteta vain opiskelijan tietoisuutta ja tunnetta omasta osaamisesta, vaan korkeakouluissa opettajien tulee vahvistaa hänen luottamustaan omiin ajatteluprosesseihinsa.

Korkeakoulut identiteetin rakentamispaikkoina

Korkeakoulut eivät ole vain tutkintojen tuottamiseen tai tiedon omaksumiseen tähtääviä instituutioita, vaan kriittisiä siirtymäkonteksteja, joissa opiskelijat rakentavat uudelleen suhdettaan itseensä ja maailmaan. MacFarlanen (2018) mukaan korkeakouluun siirtyminen muistuttaa siirtymäriittiä: opiskelija joutuu tarkentamaan arvojaan ja vastaamaan perustavaan kysymykseen ”Kuka minä olen?” (Baxter Magolda 2007). Tällainen identiteettityö ei ole yksittäinen oivallus vaan jatkuvaa neuvottelua, jota tehdään sekä kognitiivisen reflektoiden että sosiaalisessa vuorovaikutuksessa (Alvesson & Willmott 2002; Caza ym. 2018).

Juuri tässä prosessissa suhde tekoälyyn tulee merkitykselliseksi. Se voi tarjota välitöntä tehokkuutta ja nopeasti muotoiltuja vastauksia, mutta identiteetin rakentuminen edellyttää aikaa, keskeneräisyyden sietämistä ja huokoista tilaa. Korkeakouluarjen näennäisesti tehottomat hetket, kuten opiskelijatapahtumat, kohtaamiset kahvijonossa, käytäväkeskustelut ja keskeneräisten ideoiden ääneen kokeileminen, ovat usein juuri niitä tilanteita, joissa merkityksellinen identiteettityö tapahtuu. Jos nämä tilat järjestelmällisesti täytetään suorituskeskeisellä tehokkuudella, opiskelijan mahdollisuus kasvaa itsenäiseksi toimijaksi voi kaventua.

Korkeakouluarjen näennäisesti tehottomat hetket ovat usein juuri niitä tilanteita, joissa merkityksellinen identiteettityö tapahtuu.

Opiskelijaidentiteetin vahvistuminen ja itseluottamus näyttäytyvät toisiaan vahvistavina kehityksellisinä prosesseina (Luyckx ym. 2013). Itseluottamusta tarvitaan tekoälyn kriittisessä (Lee ym. 2025) ja tarkoituksenmukaisessa käytössä. Jos opiskelija ei tunnista omia vahvuuksiaan, houkutus ulkoistaa ajattelua tekoälylle voi kasvaa.

Korkeakouluopettajien rooli ei tämän vuoksi rajaudu pelkästään sisällöllisen osaamisen varmistamiseen, vaan he toimivat myös identiteettityön mahdollistajina. Kytkemällä oppimistehtävät opiskelijan kokemusmaailmaan, tekemällä ajatteluprosesseja näkyviksi ja vaalimalla yhteisöllisyyttä opettajat voivat suojella sitä inhimillisen kasvun tilaa, jota teknologinen tehokkuus ei korvaa.

Oppiminen yhteisenä ponnistuksena tehokkuuslogiikan sijaan

Oppimisen ja opettamisen palauttaminen relationaalisina käytäntöinä merkitsee tehokkuuslogiikan kyseenalaistamista ja oppimisen tahmaisuuden (ks. Alanko-Turunen & Kaukinen 2025) sekä epämukavuuden pedagogiikan hyväksymistä. Tämä koskee myös tekoälyn käyttöä.

Ongelmana ei ole tekoäly sinänsä vaan se, että opiskelijat käyttävät sitä paljon ilman pedagogista kehystämistä tai reflektointia (Panadero & Broadbent 2025). Sallittu/kielletty-dikotomian sijaan tarvitaan jatkuvaa dialogia siitä, mikä on opiskelijoille merkityksellistä heidän tulevaisuutensa kannalta (Bearman ym. 2025) – juuri sitä relationaalista, huokoista neuvottelua, jota tahmea oppiminen edellyttää.

Korkeakouluopettajien merkittävänä tehtävänä on tukea opiskelijoiden kehittyvää ammatillista identiteettiä, jotta nämä kykenevät osallistumaan eettisen kestävästi tekoälyn muovaamaan työelämään. Tämä edellyttää oppimiskokemusten suunnittelua luottamukseen nojaavana yhteisenä ponnistuksena, ei vain tehtävien suorittamisena – sekä opetus- ja oppimisajan rakenteiden uudelleentarkastelua niin, että opiskelijat kiinnittyvät aktiivisesti sekä omaan että toistensa oppimiseen.

Relationaalinen vastuu on jaettua. Opiskelijoilta tämä edellyttää muutakin kuin nykyisten tekoälystandardien täyttämistä: kykyä kantaa uusia vastuita ja toimia eettisesti monimutkaisissa tilanteissa (ks. Hamilton ym. 2025). Tällainen oppimisen autonominen toimijuus ei synny yksilöllisestä velvoitteesta vaan huokoisissa tiloissa ilman jatkuvia teknologisia tehokkuusvaatimuksia.

Lähteet

Alanko-Turunen, M. & Kaukinen, R. 2025. Tahmaisen vaikuttavia oppimiskokemuksia muotoilemassa. Teoksessa J. Siirilä & H. Kotila (toim.) Ammatilliseksi opettajaksi 2.0, s. 69–78. Haaga-Helia ammattikorkeakoulu. Helsinki.

Allen, I. E. & Seaman, J. 2017. Digital learning compass: Distance education enrollment report 2017. Babson Survey Research Group.

Alvesson, M. & Willmott, H. 2002. Identity regulation as organizational control: Producing the appropriate individual. Journal of Management Studies, 39, 5, s. 619–644.

Baxter Magolda, M. B. 2007. Self-authorship: The foundation for twenty-first-century education. New Directions for Teaching and Learning, 2007, 109, s. 69–83.

Bearman, M., Fawns, T., Corbin, T., Henderson, M., Liang, Y., Oberg, G., Walton, J. & Matthews, K. E. 2025. Time, emotions and moral judgements: how university students position GenAI within their study. Higher Education Research & Development.

Briggs, M., Archibald, A., Heap, T., Thompson, R. & Liss, A. 2024. Identifying one university’s prevailing online course accessibility issues. Educational Technology & Society, 27, 4, s. 319–338.

Caza, B., Vough, H. & Puranik, H. 2018. Identity work in organizations and occupations: Definitions, theories, and pathways forward. Journal of Organizational Behavior, 39, 7, s. 889–910.

De Nito, E., Gentile, T. A. R., Köhler, T., Misuraca, M. & Reina, R. 2023. E-learning experiences in tertiary education: patterns and trends in research over the last 20 years. Studies in Higher Education, 48, 4, s. 595–615.

Flenady, G. & Sparrow, R. 2025. Cut the bullshit: why GenAI systems are neither collaborators nor tutors. Teaching in Higher Education.

Glikson, E. & Woolley, A. W. 2020. Human Trust in Artificial Intelligence: Review Of empirical Research. Academy of Management Annals, 14, s. 627–660.

Hamilton, D., Hansen, L., Dawson, P. & Associates. 2025. Curriculum-wide recommendations for a people and a world to come. Deakin University.

Hoy, W. K. & Tschannen-Moran, M. 1999. Five faces of trust: An empirical confirmation in urban elementary schools. Journal of School Leadership, 9, 3, s. 184–208.

Kasneci, E., Sessler, K., Küchemann, S., Bannert, M., Dementieva, D., Fischer, F., Gasser, U., Groh, G., Günnemann, S., Hüllermeier, E, Krusche, S., Kutyniok, G., Michaeli, T., Nerdel, C., Pfeffer, J., Poquet, O., Sailer, M., Schmidt, A., Seidel, T., Stadler, M., Weller, J., Kuhn, J. & Kasneci, G. 2023. ChatGPT for good? On opportunities and challenges of large language models for education. Learning and Individual Differences, 103, 102274.

Komljenovic, J., Birch, K., Sellar, S., Bergviken Rensfeldt, A., Deville, J., Eaton, C., Gourlay, L., Hansen, M., Kerssens, N., Kovalainen, A., Nappert, P.-L., Noteboom, J., Parcerisa, L., Pardo-Guerra, J. P., Poutanen, S., Robertson, S., Tyfield, D. & Williamson, B. 2025. Digitalised higher education: key developments, questions, and concerns. Discourse: Studies in the Cultural Politics of Education, 46, 2, s. 276–292.

Larson, B., Moser, C., Caza, A., Muehlfeld, K. & Colombo, L. 2024. From the editors: Critical thinking in the age of generative AI. Academy of Management Learning & Education, 1–6.

Lee, H.-P. (H.), Sarkar, A., Tankelevitch, L., Drosos, I., Rintel, S., Banks, R. & Wilson, N. 2025. The impact of generative AI on critical thinking: self-reported reductions in cognitive effort and confidence effects from a survey of knowledge workers. CHI Conference on Human Factors in Computing Systems (CHI ’25). ACM.

Lindebaum, D. & Fleming, P. 2023. ChatGPT undermines human reflexivity, scientific responsibility and responsible management research. British Journal of Management.

Luyckx, K., Klimstra, T. A., Duriez, B., Van Petegem, S., Beyers, W., Teppers, E. & Goossens, L. 2013. Personal identity processes and self-esteem: Temporal sequences in high school and college students. Journal of Research in Personality, 47, 2, s. 159–170.

MacFarlane, K. 2018. Higher education learner identity for successful student transitions. Higher Education Research & Development, 37, 6, s. 1201–1215.

Mayer, R. C., Davis, J. H. & Schoorman, F. D. 1995. An integrative model of organizational trust. Academy of Management Review, 20, 3, s. 709–734.

Mazmanian, M., Erickson, I. & Harmon, E. 2015. Circumscribed time and porous time: Logics as a way of studying temporality. Proceedings of the 18th ACM Conference on Computer Supported Cooperative Work & Social Computing, s. 1453–1464.

Panadero, E. & Broadbent, J. 2025. Decremental research in the GenAI era: Rethinking what learning means when machines do the work. Journal for the Study of Education and Development, Prospectives section.

Potkalitsky, N. 6.10.2025. Why ”think critically about AI” isn’t enough: Student AI literacy must be grounded in disciplinary ways of knowing. Educating AI.

Purser, R. 2025. AI is destroying the university and learning itself. Current Affairs.

Selwyn, N. 2010. Looking beyond learning: Notes towards the critical study of educational technology. Journal of Computer Assisted Learning, 26, 1, s. 65–73.

Sharlovych, Z., Vilchynska, L., Danylyuk, S., Huba, B. & Zadilska, H. 2023. Digital technologies as a means of improving the efficiency of higher education. International Journal of Information and Education Technology, 13, 8, s. 1241–1250.

Schraw, G., Crippen, K. J. & Hartley, K. 2006. Promoting self-regulation in science education: Metacognition as part of a broader perspective on learning. Research in Science Education, 36, s. 111–139.

Zhang, Y., Li, Y., Cui, L., Cai, D., Liu, L., Fu, T., Huang, X., Zhao, E., Zhang, Y., Chen, Y., Wang, L., Luu, A. T., Bi, W., Shi, F. & Shi, S. 2025. Siren’s song in the AI era: Understanding and detecting hallucinations in large language models. ACM Computing Surveys, 56, 7, artikkeli 179.