Romferden til Mars og moren til Munch
Hvem sjekker innholdet i tekstene dine?
«Hvilket romfartsselskap gjennomførte den første bemannede romferden til Mars i 2023?» spurte ChatGPT meg i et quizspørsmål. «Riktig svar: SpaceX.»
Jeg kikket på skjermen og rynket pannen. Den første bemannede romferden til Mars? I 2023? Dette var et av flere forslag til quizspørsmål jeg hadde bedt kunstig intelligens om å lage for meg. Jeg har jobbet med quiz i mange år, jeg har sikkert laget nærmere 50.000 quizspørsmål i mitt liv. Og nå ville jeg teste hva som skjedde om jeg brukte kunstig intelligens til å lage selve spørsmålene også. Jeg vet hva som er et godt og et dårlig spørsmål, jeg vet også hva jeg synes er et uinteressant eller et irrelevant spørsmål, men det er egentlig bare én ting som er viktig med et quizspørsmål. Og det er at svaret er riktig. Hundre prosent utvilsomt riktig.
«Gikk virkelig den første bemannede romferden helt til Mars i 2023?» spurte jeg tilbake.
«Nei,» svarte ChatGPT. «Den første bemannede romferden til Mars fant ikke sted i 2023. Det har ikke vært noen bemannede romferder til Mars per januar 2022 (!), verken i virkeligheten eller i nær fremtid i planene fra romfartsorganisasjoner som NASA eller SpaceX. Det er store tekniske og logistiske utfordringer knyttet til å sende mennesker til Mars, og ingen organisasjon har foreløpig gjennomført en bemannet reise til denne planeten.»
«Jeg beklager feilinformasjonen i spørsmålet mitt. Takk for at du påpekte dette», avsluttet språkmodellen høflig.
Troverdige feil
Det er så lett å overse. En dato som er feil, et årstall, et navn som ikke er riktig stavet. En historisk referanse som nesten stemmer, men ikke helt. I de fleste tilfeller passerer slike småfeil upåaktet hen, men noen ganger får det konsekvenser.
Jeg har jobbet med tekst i mange år, som redaktør, forfatter, journalist, korrekturleser, oversetter og quizforfatter. Lenge før språkmodell ble et ord folk flest hadde tatt i bruk, satt jeg og faktasjekket årstall, navn og påstander som skulle stå på trykk. Og vi var enige om at wikipedia alene ikke var en god nok kilde, faktaopplysninger skulle alltid sjekkes med en tilleggskilde, hvis en påstand var bygget på opplysninger fra Wikipedia. Faktasjekking driver jeg med fremdeles. Og jo mer KI er blitt en del av arbeidshverdagen, for meg og for alle andre som produserer tekst, jo viktigere har dette spørsmålet blitt:
Hvem sjekker egentlig innholdet i tekstene dine?
For noen år siden var jeg innleid for å korrekturlese et læreverk for barneskolen. En oversetter hadde skrevet at Edvard Munchs søster døde da han var fem år gammel. Det skurret litt for meg, var det ikke Munchs mor som døde da han var så liten? Søsteren døde også ung, men det skjedde da Munch var fjorten år, og han har malt bilder nettopp av dette.
Dette er den typen feil som er de vanskeligste å oppdage. De åpenbare absurde, som den angivelige bemannede Marsreisen til SpaceX er lette å se, men de feilene som virker så troverdige er mye vanskeligere. De som glir gjennom fordi ingen stopper opp og tenker: stemmer dette egentlig?
En lignende situasjon kjenner alle som har jobbet med quiz: det aller verste som kan skje er at det angitte svaret er feil. Dårlige formuleringer og uinteressante, irrelevante spørsmål er én ting, men feil i svaret, eller flere riktige svar på et og samme spørsmål, er det aller verste. Jeg vet det av erfaring, blant annet fra arbeidet med spørsmål til et spørreprogram på TV2, der en deltaker gikk ut av programmet på feil grunnlag fordi to av svarene viste seg å begge kunne være riktige. Han ble sint, og vi som hadde laget spørsmålene ble fortvila og lei oss.
Det er dette som er poenget: feil i tekst er ikke bare flaut. Det bryter tilliten. Og det er her problemet med KI kommer inn, for opplysninger du tenker på som selvfølgelige kan godt være feil hvis ingen spør, for KI vet ikke at den tar feil før noen oppdager det. Og det er et paradoks, for stadig flere bruker KI til å skrive eller produsere tekst i en eller annen form, og stadig flere bruker KI som søkemotor eller til å oppdage feil i tekstene sine. Men hvem faktasjekker faktasjekkeren?
I arbeidet med dette innlegget ba jeg språkmodellen om å komme med et forslag til et avsnitt for meg. Kan jeg flette inn navnet ditt i teksten, spurte den? Ja, sa jeg. Og fikk et helt nytt navn, et fint navn, absolutt, men det var ikke mitt. Og det er typisk for hvordan KI virker, sannsynligheten for at jeg het nettopp det var nok så stor at det var det den valgte å skrive.
Et verktøy som kan gjøre deg bedre, ikke latere
Jeg har ikke sluttet å bruke KI. Tvert imot har det blitt et viktig verktøy i arbeidshverdagen min, men jeg bruker det på helt bestemte måter.
Jeg kan be KI korrekturlese tekster jeg har skrevet selv, men ikke endre dem. Når den mener noe er feil, til og med ganske klare feil som et komma, vil jeg vite hvorfor den mener det er feil, og jeg vil ha kildene den baserer seg på. Noen ganger viser det seg til og med at lenkene den oppgir ikke finnes. Det er nyttig å vite.
Jeg ber KI svare på spørsmål jeg allerede vet svaret på, og sammenlikner. Der vi er litt uenige, graver jeg mer i kildematerialet. Fordi det er alltid lettere å bekrefte at noe er riktig enn å bevise at noe er feil, og alt dette fører til at jeg finner mange flere feil enn jeg ellers ville funnet. Fordi jeg selv blir tvunget til å sjekke, dobbeltsjekke og trippelsjekke opplysninger jeg i første omgang tok for riktige.
Jeg bruker KI til å skrive kode, lage sammendrag, til å idémyldre, feilsøke, til å komme med forslag. Til alt dette er den et utmerket verktøy.
Men jeg lar aldri KI være den som bærer ansvaret for innholdet i en tekst. Det er alltid jeg som er forfatteren. Alltid jeg som er den siste som leser, tenker, formulerer og tar stilling. KI er korrekturleseren, søkemotoren og kompisleseren, ikke forfatteren.