Debatt
Vi kan ikke risikere dyre feil og svekket tillit
Riksrevisjonen brukte et tall generert av ChatGPT i en rapport. Det viser ikke at teknologien er farlig, men at ukritisk bruk kan være det.
Meninger i debattinnlegg står for skribentens regning
Kommunesektoren må være smartere når kunstig intelligens blir en del av hverdagen.
Effektivisering er ikke et valg, det er en nødvendighet. Norge står foran store samfunnsutfordringer: Færre yrkesaktive per pensjonist, økte omsorgsbehov og stadig strammere offentlige budsjetter.
Riksrevisjonen understreket dette da de pekte på en analyse fra Menon Economics, som viste at kunstig intelligens kan effektivisere arbeidsoppgaver tilsvarende hele 155.000 årsverk i offentlig sektor.
Det var bare ett problem: Tallet kom ikke fra en analyse, det var et forslag fra ChatGPT.
Kunstig intelligens kan og bør brukes i offentlig kommunikasjon, men på klare betingelser.
At Riksrevisjonen, som bør være selve vokteren av metode og ansvar, videreformidler et KI-generert tall uten forbehold, illustrerer utfordringen: KI brukes for ukritisk, også av dem som burde vite bedre.
Et pilotprosjekt fra Microsoft i Storbritannia, der 20.000 statlig ansatte deltok i tre måneder, viste at hver ansatt kunne spare to uker i året ved å bruke KI til oppgaver som tekst og analyse.
Selv i norsk sammenheng betyr det potensielt milliardverdier i frigjort tid. Det har vi ikke råd til å se bort fra. Men når det offentlige bruker KI feil, skaper det også en mistillit, som gjør nødvendig effektivisering enda vanskeligere.
Om vi bygger politikk, strategier eller beslutninger på svar fra språkmodeller, bytter vi i praksis ut kunnskap med ren gjetting.
Språkmodeller er veldig gode til å gi svar som fremstår troverdige, og det er en utfordring i seg selv. Har man ikke kompetanse på hvordan verktøyet kan brukes, risikerer man at rene gjetninger slipper gjennom fordi de ser plausible ut, og fordi ingen sjekker dem underveis.
Vi har allerede sett hvor galt det kan gå. Da Tromsø kommune brukte KI som støtte i en rapport om skolestruktur, endte dokumentet med grove feil som undergravde tilliten til hele prosessen.
Riksrevisjonen burde nyansert anslaget om 155.000 sparte årsverk, men de har rett i mye annet.
De peker på fire grunnleggende utfordringer i norsk offentlig sektor knyttet til bruk av KI. Mangelfull infrastruktur, uklare juridiske rammer, for lite kompetanse og svak koordinering. Når språkmodeller tas i bruk uten faglig kontroll, risikerer vi feil, diskriminering og svekket dialog med innbyggerne. Det er et poeng Riksrevisjonen ironisk nok selv bekrefter gjennom å viderebringe påstanden om 155.000 årsverk uten forbehold.
Feil bruk av KI er ikke bare et spørsmål om omdømme og tillit, det kan også bli dyrt. Mange har påpekt at manglende kvalitetssikring kan føre til juridiske og økonomiske konsekvenser som langt overgår gevinstene.
Spørsmålet handler ikke bare om effektivitet, men også om demokrati og tillit. I Albania er en chatrobot formelt utnevnt som minister. Det kan virke langt unna, men problemstillingen gjelder også her hjemme: Vil vi at kommunikasjonen mellom folkevalgte og innbyggere skal være menneskelig eller maskinell?
Norge har et unikt tillitsfortrinn, både i offentlig sektor og i næringslivet. Den kapitalen kan vi ikke risikere å undergrave i jakten på kortsiktige effektiviseringsgevinster. KI må brukes som støtte, ikke som erstatning, og alltid under menneskelig kontroll og med åpenhet.
Jeg mener kunstig intelligens kan og bør brukes i offentlig kommunikasjon, men på tre klare betingelser:
- Støtte, ikke erstatning. Språkmodeller kan skrive utkast, oppsummere dokumenter og tilrettelegge for tilgjengelighet. Men det må alltid være en menneskelig fagperson som kvalitetssikrer før noe publiseres.
- Kompetanse og kontroll. Offentlig sektor må bygge opp reell bestillerkompetanse, tydelige rammer og kompetanse på hvordan verktøyene fungerer. Digdir har allerede pekt på prinsippene: Åpenhet, likebehandling og forklarbarhet.
- Åpenhet mot innbyggerne. Når KI brukes, bør det opplyses om det. Tillit bygges ikke ved å late som om teksten kommer fra en saksbehandler, dersom den egentlig er skrevet av en maskin.
Norge trenger en mer effektiv offentlig sektor, men vi trenger også en offentlig sektor som bygger og bevarer tillit. Det ene kan ikke ofres for det andre.
Derfor er ikke spørsmålet hvorvidt stat og kommuner skal bruke KI, men hvordan. Brukt riktig kan kunstig intelligens frigjøre enorme ressurser. Brukt feil kan den koste oss dyrt, både økonomisk og demokratisk.
Det største problemet er ikke at kommuner og politikere tar i bruk kunstig intelligens. Men når selv Riksrevisjonen glemmer å lese korrektur, ser vi hvor viktig det er at noen fortsatt gjør det, med faglig dømmekraft og med ansvar.