Hopp til hovedinnhold

Kunstig intelligens er en gyllen mulighet for skolen.

Men debatten må flyttes, skriver Arild Michel Bakken.

Publisert: Endret:

jente digital verden
I den kunstige intelligensens tidsalder vil teknologien ha alt å si for vurderingen av elevenes læring, på godt og vondt, skriver kronikkforfatteren. (Illustrasjonsfoto: Getty.)

Arild Michel Bakken er førsteamanuensis ved Lesesenteret. Teksten har tidligere vært publisert i Morgenbladet.

I Homo Deus (2016) skriver Yuval Noah Harari om hvordan algoritmer i dag går «egne veier, steder der intet menneske har vært – og der intet menneske kan komme etter». Dermed setter han fingeren både på mulighetene og truslene med kunstig intelligens (AI) for vår menneskelige sivilisasjon: AI-teknologien synes å innvarsle en ny oppdagelsenes tidsalder, men i dens ferd mot nye horisonter får vi mennesker ikke bli med. Denne tilstanden – der mennesket er satt på siden – kan vi kalle posthumanisme.

Algoritmene har definitivt også gjort sitt inntog i norsk skole. Elevene jobber på Chromebook-er og Ipad-er, som samler inn data om dem i stor skala. Disse dataene sluses inn i rettighetsbelagte algoritmer og benyttes ikke primært til elevenes beste, men til vinning for teknologiselskapene. Elevenes digitale selvråderett har ikke gode kår i skolen i dag.

Den borgerlige regjeringen varslet tidligere i år at det nasjonale prøvesystemet i skolen skal gjennomgås og fornyes. På nettsidene til partiene som nå skal få ansvaret for denne fornyingen, er det ikke mange lovord å spore om prøver i skolen. Arbeiderpartiet ønsker å «ta et oppgjør med overdreven testing», mens Senterpartiet snakker om «testhysteri». Slik skilles debatten om prøvesystemet fra den større debatten om teknologi i klasserommet, noe som i stor grad fratar oss muligheten til å håndtere utfordringene fra algoritmene på en menneskelig måte.

I den kunstige intelligensens tidsalder vil teknologien ha alt å si for vurderingen av elevenes læring, på godt og vondt. Det at vi har et eget prøvesystem – og en diskusjon om det – kan hjelpe oss med å holde prøvesystemet humant. Så hvordan kan vi dra nytte av potensialet som finnes i AI, uten å snuble inn i posthumanismen?

Dagens debatt fratar oss muligheten til å håndtere utfordringene fra algoritmene på en menneskelig måte.

AI gir muligheter

La oss først se på fordelen med bruk av kunstig intelligens i prøvesystemet. Kunnskap om menneskers mentale liv, ferdigheter og ønsker er nyttig. Ifølge gammel pedagogisk visdom bør undervisning skje i det Lev Vygotskij kalte elevens proksimale utviklingssone, sonen som ligger like over det eleven kan mestre alene for øyeblikket. Dette prinsippet står sentralt i den ideologiske bakgrunnen for norsk skole, gjennom Opplæringslovens paragraf 1–3 om at «opplæringa skal tilpassast evnene og føresetnadene hjå den enkelte eleven». For å få til dette trenger læreren data og kunnskap om elevenes forutsetninger.

Bruk av ny teknologi i klasserommet kan gi læreren mer informasjon om eleven, forutsatt at dataene faktisk havner hos læreren istedenfor å kanaliseres mot teknologigigantene. Samtidig kan nyere algoritmer basert på maskinlæring også gi bedre tolkninger av dataene. Dermed kan læreren få både rikere og mer nyansert informasjon om elevens forutsetninger enn de i dag får gjennom eksempelvis nasjonale prøver. Dette igjen vil gi læreren et bedre grunnlag for å gi tilpasset opplæring.

I tillegg kan også innsamlingen av data bli mer skånsom for elevene, eller til og med gi en positiv opplevelse. Dagens prøver kan være veldig vanskelige for noen elever og svært lette for andre. Begge disse gruppene kan sitte igjen med en negativ opplevelse av prøven. Morgendagens prøver vil med stor sannsynlighet være adaptive. I en adaptiv prøve kan alle elevene få prøver tilpasset deres ferdigheter, med en passelig balanse mellom utfordring og mestring.

Leseprøver kan også tilpasses hver elev når det gjelder innholdet i tekstene elevene får lese. Algoritmer lignende de som anbefaler folk bøker basert på tidligere kjøp, kan gi elevene tekster om temaer de liker, eller i sjangre som engasjerer dem. Er en redd for ekkokammereffekt, kan en instruere algoritmene om å gi en passe dose av tekster utenfor komfortsonen.

Kommersielle interesser truer

Mulighetene er altså forlokkende, men problemene også mange og store. At vi mennesker, som Harari sier, ikke kan «komme etter» algoritmene, er et alvorlig problem for prøver i skolen. For å nyttiggjøre seg informasjonen fra prøven, må læreren skjønne hvorfor elevenes resultat blir som det blir. I en online bokhandel lar vi oss med et smil forbløffe over hvor treffsikre anbefalingsalgoritmene er, uten å skjønne akkurat hvordan de virker, men i et klasserom må algoritmene være forklarbare.

Hvis læreren skal tilpasse undervisningen basert på tips fra uforståelige algoritmer, har vi i realiteten gitt maskinene ansvaret for elevenes opplæring. Et humant prøvesystem fordrer altså at vi finner måter for å la læreren «komme etter» og forstå den kunstige intelligensen på. Da kan ikke algoritmene være forretningshemmeligheter.

Hvis læreren skal tilpasse undervisningen basert på tips fra uforståelige algoritmer, har vi i realiteten gitt maskinene ansvaret for elevenes opplæring.

En annen stor utfordring er elevenes personvern. Skal vi dra nytte av de store lovnadene som ligger i AI-teknologien, må vi samle inn store mengder personlige data om elevene. Slike data må også lagres i lang tid dersom det fulle potensialet skal utnyttes. I motsetning til hva som er tilfelle i dagens prøvesystem, kan morgendagens prøver tas flere ganger av elevene for å følge utviklingen deres over tid, samtidig som at de oppleves som meningsfulle.

Mye arbeid gjenstår før slikt kan gjøres på en personvernmessig forsvarlig måte. I et humant prøvesystem samles og lagres data med elevens beste som eneste formål. Da kan ikke kommersielle interesser stå som eier av dataene.

Innen rekkevidde

I begynnelsen av The Age of Surveillance Capitalism (2019) (på norsk Overvåkingskapitalismens tidsalder) tenker Shoshana Zuboff tilbake på internetts barndom. Hun snakker om en gruppe forskere ved Georgia Intitute of Technology som i år 2000 planla «Aware Home», noe vi i dag ville kalt et smarthus. Huset skulle tilpasse seg beboerne på bakgrunn av data som det automatisk samlet inn, noe som for forskerne fremsto som en vakker drøm. Så spoler Zuboff frem til i dag, hvor denne utopien faktisk er blitt virkelighet for dem som ønsker det og har råd. Men prisen er at du må gi fra deg eierskapet til dine mest intime data til private selskaper.

Historien er trist, men samtidig inspirerende. I prinsippet er det jo mulig å gå tilbake til den uskyldens tid Zuboff viser til, hvor dataene kommer fellesskapet til gode og eies etter en slags sameiemodell.

Vil vi få en fremtid hvor data fortsatt samles inn av obskure algoritmer og sendes til teknologigantene uten å komme elevene til gode – mens politikerne toer sine hender og skryter av at det er mindre testing i skolen? Hvordan utnytte AI-teknologiens muligheter og samtidig holde spillet på vår menneskelige banehalvdel? Der står kampen i dag, og der burde også debatten ligge. Hysteri-ordet var kanskje nyttig i en opphetet valgkamp, men bør legges bort når det nå er tid for å tenke klart om fremtidens prøvesystem.

Les mer:

1011 Førsteamanuensis
51832984
Fakultet for utdanningsvitenskap og humaniora

Nasjonalt senter for leseopplæring og leseforsking
Lesesenterets blogg

Lesesenterets blogg skriver våre ansatte om aktuelle tema innen leseopplæring og leseforskning. Vi håper bloggen vil gjøre deg litt klokere, mer informert og inspirert! God lesing!