Kuinka vastuuketju säilyy, kun tekoälyyn ei voi luottaa?

Matti Sarén - Ajatuksia ja projekteja

Kuinka vastuuketju säilyy, kun tekoälyyn ei voi luottaa?

Vastuuketju

Edellisessä kirjoituksessa argumentoin, että Tekoäly-Sokrates jäi historiaan ennen kuin ehti syntyä, ja että opiskelijan todellinen kilpailuetu työelämässä rakentuu hänen itse kouluttamansa AI-työläisten parven varaan. Nämä ajatukset kumpusivat omista kokemuksistani. Siirryn tässä osassa hieman spekulatiivisempaan ja akateemisempaan pohdintaan.

Edellinen asetelma jättää yhden kysymyksen auki: kun opiskelija allekirjoittaa oppimistehtävän, jossa puolet sisällöstä on syntynyt mallin tuottamana, kuka vastaa lopputuloksesta? Korkeakoulu näkee opiskelijan vastaavan kokonaisuudesta. Opiskelija toteaa, että työkalu oli vain avustamassa. Kielimalleja ja agentteja tarjoava teknologiayritys pesee kätensä käyttöehdoissa olevalla vastuuvapauslauseella. Vastuuvelvollisuuden (engl. accountability) katkos on tehty näkyväksi vasta nyt, kun oppimistehtävät alkavat olla erottamattomasti hybridejä – halusimme sitä tai emme.

Tekoälyetiikan tutkimuksessa tämä on tunnistettu vuosikymmenen ajan ja sen analyysiin on vakiintunut FATE-viitekehys: Fairness, Accountability, Transparency, Ethics (suom. tasapuolisuus/oikeudenmukaisuus, vastuuvelvollisuus, läpinäkyvyys ja etiikka). Memarian ja Doleck [1] julkaisivat systemaattisen kirjallisuuskatsauksen siitä, miten nämä neljä käsitettä esiintyvät tekoälyä ja korkeakoulutusta käsittelevässä tutkimuksessa. Heidän aineistonsa koostui vertaisarvioiduista artikkeleista, joista valtaosa keskittyi vain tasapuolisuuteen. Saman vinouman on todennut Singhal kollegoineen [2] sosiaalisen median ja terveydenhuollon AI-tutkimuksen review-artikkellissan. Siinä mainitaan vastuuvelvollisuus, mutta sen mittarit ja prosessit jäävät kuvailutasolle.

Tämä vinouma ei ole sattumaa. Tasapuolisuus (fairness) on laskennallisesti määriteltävissä ja operationalisoitavissa. Kielimallialgoritmin tuotosten jakauma eri ryhmien välillä kääntyy suoraviivaisesti mittariksi tasapuolisuudesta, jolle voi asettaa tavoitteen algoritmin luomisen yhteydessä. Vastuuvelvollisuus puolestaan on hankalampi. Se on rakenteellinen suhde toimijan, foorumin ja seuraamuksen välillä, ja sen rakentaminen vaatii valintoja, joita neuroverkon opettaminen ei itsestään tee. Tämä on syy siihen, miksi korkeakoulujen tekoälykeskustelu juuttuu vastuuvelvollisuuden kohdalla. Sille etsitään metriikkaa, mutta ratkaisun tulisikin olla rakenteellinen.

Mistä vastuu opetuksessa muodostuu — ja kenelle se siirtyy?

Vastuuvelvollisuus tekoälyetiikassa ymmärretään yleisesti answerability, vastauskyvykkyys-käsitteen kautta. Toimija on velvollinen perustelemaan tekemisensä foorumille, joka voi vaatia selityksen ja seurata päätöksen seurauksia sanktion uhalla. Määritelmä toimii, kun toimija on ihminen tai organisaatio. Kielimalliin se ei sellaisenaan oikein istu. Malli ei perustele päätöstään standardien valossa siinä merkityksessä, jossa ihminen, työntekijä tai oppilaitos sitä joutuu perustelemaan. Kielimallin toiminta on tilastollista. Se on koulutettu palkkiosignaaleilla. Nämä kerätään useimmiten ihmispalautteesta vahvistusoppimisen avulla (Reinforcement Learning from Human Feedback). Kielimallin ”vastuu” on rakennettu sen sisälle koulutusvaiheessa, joten se ei kytketty käyttötilanteeseen, muutoin kuin käytettävän kielimallin valintana. Tämä johtaa ajatukseen siitä, että käyttäjä osaisi ymmärtää koulutusaineiston soveltuvuuden tehtävään, johon hän kielimallia tulee soveltamaan.

Korkeakoulukontekstissa tämä tarkoittaa, että vastuuvelvollisuuden ketju katkeaa kohtaan, jossa malli tuottaa vastauksen. Opettaja ei voi varmentaa kielimallin koulutuksessa käytettyjä palkkiosignaaleja ja niiden painotuksia. Opiskelija ei voi tutkia mallin koulutusaineistoa ja punnita siihen sisältyviä oletuksia. Kumpikaan ei voi hahmottaa, miten malli on oppinut käsittelemään juuri tämän opiskelijan kysymyksen kaltaisia tilanteita. Ja silti opiskelija saa tutkintotodistuksensa sillä perusteella, että hänen osaaminensa on osoitettu opettajien määrittämillä kriteereillä.

Aikaisemmin esitin, että opiskelijan pitäisi kouluttaa omat AI-työkalunsa. Suunta on looginen, mutta se ei sellaisenaan ratkaise vastuuongelmaa. Se vain siirtää sen toisaalle. Kun opiskelija kouluttaa mallinsa ja agenttinsa, hän valitsee syötteet, korjaa virheelliset vastaukset, antaa palautetta mallille ja agenteilleen. Näin hän rakentaa työkaluilleen oman profiilin. Mutta mallin koulutusaineisto, pohjarakenne ja turvallisuusrajoitukset pysyvät hänen ulottumattomissaan. Hän kouluttaa työkalun pinnan, ei sen perustaa. Se jää muutaman teknologiayhtiön liikesalaisuudeksi. Perustana olevien kielimallein luominen on käytännössä lähes kaikkien valtioiden ulottumattomissa oleva teknillis-taloudellinen haaste – ainakin nykypäivänä.

Miten opetuksessa tämä pitäisi huomioida?

Käytännön seuraus on se, että opetuksen kohde siirtyy. Aiemmin opetimme aiheen sisällön ja arvioimme opiskelijan kykyä toistaa, soveltaa ja kritisoida sitä. Nyt sisällön tuottaminen on suurelta osin ulkoistettavissa, ja opiskelijan osaamisen kova ydin on jossakin muualla, nimittäin siinä, kuinka hän valitsee, kysyy, arvioi, ohjaa ja korjaa. Siirtymä on osittain tunnistettu: kriittinen lähdekritiikki on muodissa, ja oppimistehtävät muotoillaan yhä useammin niin, että pelkkä mallin vastauksen kopiointi ei riitä tai opettajat palaavat ”kynä ja paperi”-aikaan tenttejä teetättäessään.

Kosmyna kollegoineen [3] havaitsivat aivojen kuvantamistutkimuksessa, että AI-avustetussa esseekirjoituksessa syntyy mitattavaa kognitiivista velkaa, joka heijastuu sekä opiskelijan kykyyn muistaa että soveltaa omaa kirjoitustaan. Havainto ei ole argumentti tekoälyn käyttöä vastaan. Havainto on argumentti kielimallien käytön rakenteellista huomiotta jättämistä vastaan. Jos opiskelijan oma kognitiivinen kapasiteetti ohenee samalla kun työkalun käyttötaito syvenee, vastuun kantamisen aineelliset edellytykset heikkenevät. Juuri tämä on opetuksen huomioitava kohta, ei opiskelijan henkilökohtainen valinta.

Korkeakoulu joutuu siksi vastaamaan kahteen erilliseen kysymykseen. Ensimmäinen: miten opetuksesssa rakennetaan tilaa, jossa opiskelijan oma päättely säilyy ja kasvaa, vaikka työkalu osaa opiskelijaa enemmän? Toinen, vaikeampi: miten opetus varmistuu siitä, mitä tekoälytyökalut tuottavat, ja kuinka arviointi huomioi tämän? Mitä malleja sallitaan, mitä lokitietoja edellytetään, miten käytetyn mallin versio ja sen ajankohta kirjataan opinnäytetyöhön tai tehtävään?

Tähän pisteeseen ohjeistukset tekoälyn käytöstä eivät yllä. Niissä keskustellaan sallitun ja kielletyn rajasta, ei vastuun arkkitehtuurista.

Voiko yksilö olla vastuullinen, jos hänen työkalunsa ei ole?

Kysymys ei pysähdy korkeakoulun rajalle. Se ulottuu siihen yhteiskunnalliseen rakenteeseen, jonka varaan vastuun käsite on rakennettu. Länsimaisen oikeusvaltion ja akateemisen järjestelmän pohjavire on se, että yksilö vastaa omasta toiminnastaan: hän tekee päätöksensä saamansa tiedon, taitonsa ja harkintansa pohjalta. Näistä hän kantaa myös seuraukset. Rakennelma toimii, kun tieto, taito ja harkinta ovat hänen omiaan, tai vähintään ihmisten tai instituutioiden tuottamia. Jos ne kaikki ovat osaksi tuotettuja tekoälyllä, jolta ei voi vaatia vastausta ja joka ei voi kohdata foorumia, jolla ei ole seuraamuksia, jää yksilön vastuu roikkumaan katkenneen vastuuketjun päähän.

Tämä ei ole vain filosofinen ongelma. Se on käytännön ongelma siinä hetkessä, kun lääkäri kirjoittaa hoitosuunnitelman kielimallin ehdottamana, juristi muotoilee sopimuksen avustetusti, virkamies valmistelee päätöksen tekoälyn vihjeillä. Jokaisessa tapauksessa virhe johtaa vastuuseen, mutta vastuu osuu siihen ihmiseen, joka ei pysty täysimittaisesti selittämään työkalunsa toimintaa

Jos tekoäly ei ole vastuuvelvollinen siitä, mitä se neuvoo, vihjaa ja ehdottaa, niin perustelu vaatia ihmiseltä vastaavaa vastuuta heikkenee. Tämä ei oikeuta hyväksymään vastuun lieventämistä. Se on heijastuma rakenteesta, joka on syntynyt huomaamatta. Korkeakoulu on yksi harvoista instituutioista, joissa vastuurakennetta voidaan tehdä ymmärrettäväksi ja näkyväksi. Jokainen uusi opiskelijasukupolvi on aiempaa tottuneempi tekoälyyn, ja siksi korkeakoulujen vastuu teknologian reunaehtojen ymmärtämisestä ja tämän osaamisen siirtämisestä seuraaville sukupolville korostuu.

Tekoälymallien itseään parantava kehitys, jonka ajureita Yang [4] kuvaa väitöskirjassaan, ei lievennä vastuukysymystä. Se kärjistää sitä. Mitä kyvykkäämpi malli, sitä houkuttelevampi sen käyttö, ja sitä useampaan päätökseen sen tuotos liittyy. Samaan aikaan mallien läpinäkyvyys heikkenee. Mallit ovat entistäkin monimutkaisempia, sekä ne muuttuvat nopeammin kuin koulutuksesta vastaavat instituutiot ehtivät niihin reagoida. Siksi tekoälyn eettisiin haasteisiin pitää puuttua välittömästi.

Surkeinta olisi jatkaa nykyisellään: opiskelija tekee yhdessä kielimallien kanssa, malli ei vastaa tuotoksistaan ja korkeakoulu ei kykene tarkistamaan ja ohjaamaan. Silloin lopulta keskustelu siirtyy siihen, miten tekoälyn käyttö ”merkitään lähteenä”. 

Blogin seuraavassa osassa mietin päätösten siirtymistä koneoppiviin järjestelmiin vastuun ja vallan näkökulmista.

14.5.2026 / Matti

[1] ”Fairness, Accountability, Transparency, and Ethics (FATE) in Artificial Intelligence (AI), and higher education: A systematic review”, Memarian, B. & Doleck, T., 2023, Computers and Education: Artificial Intelligence, https://www.sciencedirect.com/science/article/pii/S2666920X23000310

[2] ”Toward Fairness, Accountability, Transparency, and Ethics in AI for Social Media and Health Care: Scoping Review”, Singhal, A., Neveditsin, N., Tanveer, H. & Mago, V., 3.4.2024, JMIR Medical Informatics, https://www.ncbi.nlm.nih.gov/pmc/articles/PMC11024755/

[3] ”Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task”, Kosmyna ym., 2025, https://arxiv.org/abs/2506.08872

[4] ”Continually self-improving AI”, Zitong Yang, PhD Thesis 18.3.2026, Stanford U., https://arxiv.org/abs/2603.18073

Tags: , , , , ,

Vastaa